Está en la página 1de 226

QUANTUM SAPIENS I

La Primera Revolución Cuántica


Jairo Giraldo Gallo
A mi casa,
la Universidad Nacional de Colombia,
en su sesquicentenario.
A la lejana Colombia del postconflicto, «Patria Amada, aunque distante», como la
llamara el maestro Gabriel García Márquez en su mensaje durante el bicentenario de
la Universidad de Antioquia en 2003. A quienes pueden lograr el sueño de un mundo
mejor, jóvenes y adultos que se atrevan a luchar en verdad por «la paz amada,
aunque distante». A los niños, niñas y adolescentes, sobre todo a los que han sufrido
los efectos de guerras absurdas que no les pertenece. A quienes me han
acompañado en una «aventura académica», como la llamó otro de los comisionados
de la Misión de Ciencia, Educación y Desarrollo (Carlos Eduardo Vasco Uribe), misión
que publicara inicialmente un informe conjunto con el bello título «Colombia, al filo
de la oportunidad». Me refiero a los 10 comisionados*, o si se quiere, a los 10 ex
sabios, como a menudo denomina Vasco al grupo al que pertenecieron él y Gabo, en
el que solo figuró una sabia (Angela Restrepo Cuartas) en un país todavía machista,
grupo conformado a instancias de Rodolfo Llinás durante el gobierno de César
Gaviria, y a los demás compañeros de esa aventura académica que apenas comienza,
el «Proyecto Ethos Buinaima», que honra con su nombre la memoria de nuestra
cultura indígena, pisoteada permanentemente en su propio territorio. A todas esas
culturas ancestrales y minoritarias tan valiosas, orgullo de nuestra nación en los
escenarios internacionales, subvaloradas en la práctica cotidiana hasta el punto de
que su lumbre parece extinguirse inmisericordemente. Con la convicción de que, a
pesa de la p e o i ió de uest o p i e No el, po ue las esti pes o de adas a
cien años de soledad no tenían una segunda oportunidad sobre la tie a , sí es cierto
que Colombia se encuentra al filo de una segunda oportunidad, la de la paz con
equidad, a cuya materialización todos y todas podemos y debemos contribuir.

Particularmente valioso será el aporte de la ciencia y de una educación de excelencia


con equidad (E×E×E) a la paz y la convivencia en el postconflicto, elementos que
nuestra clase política gobernante está lejos de reconocer. Sin el apoyo de la
Universidad Nacional de Colombia, este proyecto concreto (la finalización y
publicación de esta primera parte de Quantum Sapiens, un proyecto pedagógico-
divulgativo en ciencias pre-antrópicas) y un plan a largo plazo en el que el autor está
comprometido («Proyecto Ethos Buinaima», una propuesta pedagógica-formativa)
no habrían podido ni siquiera formularse.

*
Ellos fueron, en orden alfabético: Eduardo Aldana, Fernando Chaparro, Gabriel García-Márquez,
Manuel Elkin Patarroyo, Rodrigo Gutiérrez, Rodolfo Llinás, Marco Palacios, Eduardo Posada, Ángela
Restrepo y Carlos Eduardo Vasco.
PRÓLOGO
CONTENIDO
AL LECTOR INQUIETO
A MODO DE PROLEGÓMENOS
Un largo trecho
Einstein y la física estadística
Un siglo de saltos cuánticos
El nanomundo, un universo sui-generis
Prolegómeno
Filosofía de la naturaleza
Cuerpo negro, cuantización y evolución como conceptos
Más allá de la dialéctica
La universalidad de los cuantos y la evolución cultural
Motivaciones intrínsecas y extrínsecas
Justificando un doble calificativo
Síntesis de la evolución biológico-cultural
Evolución de la física y fin de la historia
La información es más fundamental que la materia y la energía

LA PRIMERA REVOLUCIÓN CUÁNTICA


Qué es y qué no es cuántico
1. Evolución de las ideas
2. Los primeros conceptos cuánticos
3. Los primeros experimentos con electrones
4. De vuelta al gran misterio
5. Principios y postulados
6. Acciones fantasmagóricas a distancia
7. De regreso a la filosofía natural
8. Interpretaciones múltiples

EPÍLOGO
APÉNDICE
Las dos grandes teorías deterministas
1. Mecánica
2. Electrodinámica
3. Ondas y campos

REFERENCIAS Y COMPLEMENTOS
AL LECTOR INQUIETO

«The eternal mystery of the world is its comprehensibility», Albert Einstein (1936).
Con esta frase, Einstein hace referencia al universo entero y su funcionamiento. Pero hay otro
misterio todavía más profundo: la conciencia. ¿Forma ella parte del universo?
Hace mucho se suponía que es posible establecer una diferencia entre seres vivos conscientes
y los organismos vivos que no lo son. Hoy ya no estamos tan seguros de eso. También
supusimos que era posible predecir el comportamiento humano. La confusa época que vivimos
es prueba de que no es así: pasarán varios años antes de que logremos enderezar el rumbo del
mundo, si es que puede reorientarse el curso de la civilización.
Hay dos campos diferentes o áreas separadas de la física actual, la clásica y la cuántica, cuya
frontera es frágil pero a la vez tan inequívoca como pudo ser para los griegos la diferencia
entre el ser y la nada. Podría decirse que la primera culminó con una nueva concepción del
espacio y el tiempo y con una nueva formulación de la teoría que había hecho de Isaac Newton
el mayor genio de la física durante varios siglos, la de gravitación universal. Esta última fue a su
vez la obra cumbre de Albert Einstein, la que lo convirtió en el científico fan de varias
generaciones en el pasado siglo. De la otra fue también en gran medida fundador, con su
hipótesis sobre el carácter dual de la luz, corpúsculo y onda. Las dos teorías, clásica y cuántica,
lucen tan radicalmente diferentes a la postre que el genio entre genios, como puede
denominarse a Einstein, no pudo aceptar como válido el posterior desarrollo de la segunda.
Los físicos saben a qué rango de fenómenos se refieren cuando hablan de lo clásico y cuáles
son aquellos que no caben en el esquema anterior, los frágiles efectos cuánticos, solamente
robustos en condiciones muy especiales. Para detectar estos últimos es a menudo
indispensable disponer de sofisticados y costosos laboratorios que hacen posible observar
indirectamente objetos diminutos en condiciones extremas de baja temperatura y alto vacío.
A pesar de lo anterior, hay ocasiones en que los efectos cuánticos se observan a escala
macroscópica. Uno de ellos se observó tempranamente, en 1911, cuando aún no se había
formulado la teoría cuántica. Nos referimos al fenómeno de la superconductividad a baja
temperatura. Este es inequívocamente un nuevo estado de la materia en el que la resistencia
al paso de la corriente eléctrica es rigurosamente cero y se presenta al mismo tiempo la
denominada levitación magnética. Por más que se investigó durante cerca de 75 años con
diversos materiales, el fenómeno no había sido observado a temperaturas superiores a los 25
K (escala Kelvin, vale decir -248o C). Fue así como en 1986 se inició una nueva era en el campo
y en otras áreas cuando se descubrieron los primeros superconductores a temperaturas por
encima de 27 K. Hoy el límite está alrededor de los 150 K y nada prohíbe, en principio, que se
pueda observar ese fenómeno cuántico a temperaturas cercanas a la del medio ambiente.
Más sorprendentes todavía han resultado observaciones experimentales y estudios teóricos de
la última década que indican cómo ciertos fenómenos relacionados con la vida, la fotosíntesis,
el olfato y la aeronavegación magnética tienen que ver con efectos puramente cuánticos.
Aunque ha habido especulaciones de vieja data sobre el origen cuántico de la conciencia, los
resultados experimentales del momento distan mucho de favorecer esas hipótesis. No
obstante, los efectos cuánticos en procesos mentales básicos no pueden descartarse del todo.
Así pues, partiremos del supuesto de que es claro qué quieren decir los físicos cuando hacen
referencia al universo cuántico, aunque es probable que pocos entre ellos se preocupen por la
posible relación entre ese universo y la conciencia, la unión de dos misterios que a su vez se
entrelazan con el misterio primigenio.
La física nació mecánica: un mecanismo de relojería que funciona con una precisión absoluta.
Por contraste, si de algo estamos ciertos en la era actual, es de la validez universal del principio
de incerteza, el principio regulador de los fenómenos cuánticos. Y sin embargo, a esta nueva
disciplina se le denomina Mecánica Cuántica. Esto es una evidente contradicción.
¿Cuándo un objeto deja de comportarse cuánticamente para dar paso al comportamiento
clásico? Esta difícil pregunta no se le ha de formular a un lector común y corriente, al hombre
de la calle. Debemos empezar por explicar la bastardilla. Cada quien puede ser común y
corriente o muy especial; puede ser un lector desprevenido o un inquieto observador. Si la
pregunta se le formula a un físico cualquiera, acaso responda con un encogimiento de
hombros; y si nos da una respuesta, tal vez ella no sea clara. Así, pues, hay que aceptar que la
pregunta misma o bien no tiene respuesta o puede estar mal formulada; anticipemos que
todos los potenciales lectores, sin excepción, son también potencialmente inquietos, incluso el
llamado ciudadano de a pie, no sin cierto toque despectivo que nosotros rechazamos. A todos
ellos están dirigidas estas reflexiones. También al físico, como pretendemos argumentarlo.
Reformulemos entonces la pregunta: ¿cuál es el límite de aplicabilidad de la teoría cuántica?
No lo sabemos, pero se puede responder con una afirmación contundente. Ella es la teoría
más precisa de que tengamos noticia: es una teoría formulada en lenguaje matemático que
explica con precisión el comportamiento de la materia toda, incluida la energía. Nunca, en sus
cerca de un siglo de existencia, desde cuando fuera formulada con principios matemáticos
coherentes, ha podido establecerse una sola falla o visualizarse una sola grieta. Para decirlo de
otra manera: sus predicciones se han cumplido, por absurdas y descabelladas que parezcan al
sentido común.
¿Dónde, pues, está la diferencia entre un comportamiento u otro, clásico versus cuántico? Un
buen número de físicos responderá: en el proceso de medida, dependiendo de lo que el
observador quiera determinar. La preparación de las condiciones experimentales, incluido el
equipo de registro, y es de advertir que quien hace el experimento lo debe tener en cuenta, es
un aspecto muy importante, si no fundamental. Hagamos una pausa para preguntarnos: ¿en
últimas, quién es el observador? ¡Un aparato de medida! Pe o… uidado: ese apa ato fue
diseñado por un ser consciente. ¿Entonces?
Empezaremos por una pregunta aparentemente más inofensiva o sencilla: ¿qué es el
comportamiento? Aunque no tengamos una respuesta absoluta, creemos saber cuándo
alguien se comporta ie o uá do ese alguie se o po ta al. Pe o… ¿ al o espe to a
qué, o bien para beneficio de quién? Los peros serán muchos. O mejor: a cada respuesta le
surgirán varias preguntas.
Dejémonos de divagar y vayamos al grano: cuando nos propusimos escribir Quantum Sapiens
quisimos unir dos aspectos que aparentemente están separados. Qué nos hace humanos, es
una pregunta que muchos han tratado de resolver, con mayor o menor éxito. Definitivamente
no es el sapiens, pues esa especie es de más reciente aparición.
Al autor del primer volumen que aparecerá con este título (estamos culminando un segundo y
los otros vienen en camino) se le ocurrió que el quantum podría aportar algo a la respuesta.
Para quienes aceptamos la teoría de la evolución, y solo creencias de tipo religioso o en todo
caso dogmático que niegan la evidencia científica se atreven a decir lo contrario, todo en el
universo ha sido un proceso evolutivo, al menos desde que ocurrió el big bang y un poco antes
(el universo inflacionario). Argumentaremos, sin emplear las matemáticas como lenguaje, que
ese proceso evolutivo ha estado regulado, en gran medida, por los quanta. Para ello será
conveniente remontarnos a los orígenes mismos de la mecánica cuántica y, aunque sea
parcialmente, los de la misma mecánica clásica.
Animado por Leopold Infeld y con la intención expresa de apoyar a este financieramente,
Einstein aceptó el reto de escribir un libro divulgativo con el título La evolución de la física (The
Evolution of Physics: The Growth of Ideas From Early Concepts to Relativity and Quanta,
Cambridge University Press, 1938). Sobra advertir al lector que el libro fue todo un éxito
editorial. Muerto Einstein, Infeld escribió un prólogo con las ligeras actualizaciones que
consideró necesarias (1960). El espíritu con el que fue escrito ese texto en gran medida sirvió
de inspiración a la primera parte de este primer tomo. Su autor intenta retomar lo que
considera una interesante comparación hecha en el primer párrafo del primer capítulo,
primera sección, THE GREAT MYSTERY STORY (EL GRAN MISTERIO, en la edición de Salvat,
1986), entre una novela de misterio y la construcción de la ciencia:
«E la i agi a ió e iste la histo ia de iste io pe fe ta. … “i segui os la t a a uidadosa e te,
llegamos a la solución (del iste io po osot os is os. …»

Pero, señalan los autores, cosa muy diferente ocurre con los misterios en el libro de la
naturaleza. Y recalcan en el tercer párrafo:
«El gran misterio (no subrayado en la versión original) permanece aún sin explicación. Ni siquiera
podemos estar seguros de que tenga una solución final. La lectura (del gran libro de la naturaleza) nos
ha hecho progresar mucho; nos ha enseñado los rudimentos del lenguaje de la naturaleza; nos ha
capacitado para interpretar muchas claves y ha sido una fuente de gozo y satisfacción en el avance a
menudo doloroso de la ciencia. A pesar del gran número de volúmenes leídos e interpretados, tenemos
conciencia de estar lejos de haber alcanzado una solución completa, si en realidad existe.»

Ese párrafo resulta ser hoy más riguroso que nunca. Al gran misterio le han sucedido los
misterios de la física cuántica. Einstein denominó a sus consecuencias Spooky actions at a
distance (SAD o acciones fantasmagóricas a distancia), las que rechazó por absurdas. El
calificativo deja entrever que el padre de la relatividad, al igual que la mayoría de los físicos, no
creía en la percepción extrasensorial (PES). En ocasiones hacen acerca de su religiosidad
extrapolaciones o citas indebidas. El Viejo (el responsable de todo esto, si así se pudiera
llamar) probablemente no está por fuera del universo mismo. Es de anotar que, en la teoría de
relatividad, el espacio y el tiempo surgen de la materia y la energía mismas. Este criterio será
muy importante cuando nos refiramos a la posible causa, si la hay, de las acciones
fantasmagóricas.
De haber hecho su revisión unos pocos años más tarde, Infeld hubiera podido modificar
profundamente la cuarta parte del texto, la que se refiere a los quanta, agregando a ella en
particular, no ya la predicción, sino la comprobación, de esas extrañas acciones instantáneas a
distancia conocidas como entrelazamiento. Formado en la disciplina científica más exitosa del
siglo XX, el autor de los dos primeros tomos (coautor en los siguientes) sobre el Quantum
sapiens reconoce su profunda ignorancia e incapacidad para poder entender esos misterios a
cabalidad. Parecería que el gran misterio cuántico escapara a nuestra comprensión, sería
demasiado complejo. ¡Lo es!
Dejemos de lado las matemáticas, pues ellas son, en últimas, relativamente simples:
pertenecen a las ciencias formales. Estas, aceptando la definición trivial de Wikipedia, son
conjuntos sistemáticos de conocimientos racionales y coherentes, por lo que su objeto de
estudio no es el mundo, ni la realidad físico-natural, sino formas vacías de contenido. El
método propio de las ciencias formales es el método deductivo. Al igual que los otros campos
establecidos de la física, la cuántica echa mano de los avances matemáticos para aplicarlos al
estudio de la realidad.
¿Y qué es, entonces, la realidad? Por aparentemente simple que sea la pregunta para un
filósofo, en física cuántica no hay pleno acuerdo. Tampoco lo hay en la interpretación de
algunos de sus postulados, aunque de su validez no cabe la menor duda. Por esa razón de
fuerza mayor ellos se enuncian rigurosamente en un lenguaje matemático.
El presente texto y el (los) que le sigue(n), una divulgación de la evolución de la ciencia
durante el último siglo en lo que se refiere a El universo cuántico, a sus aplicaciones más
diversas, incluidas las luces que nos da sobre el origen del universo y sobre su destino, y una
reflexión sobre sus implicaciones para la sociedad en que vivimos y sobre la educación del
futuro, evolución de la especie, de nuestro cerebro y del entorno socio-cultural, es hasta cierto
punto una historia de misterio y suspenso no solo del universo y sus partes, también de la
humanidad en menor grado, regulada por los quanta.
Por más que hayamos avanzado en la comprensión del origen del universo y de su
composición, los dos aspectos continúan siendo un misterio: no sabemos a ciencia cierta qué
hubo antes de la gran explosión, si hubo algo, y no vemos más que el 4 % de ese universo que
pretendemos conocer. Pero también desconocemos los intríngulis del origen de la vida, mucho
más los de la mente y la conciencia, así que ignoramos lo esencial en la conformación de
sociedades humanas y en su próxima evolución, antes de su extinción definitiva, sea ésta
causada por un cataclismo cósmico o porque los deterioros infligidos al entorno dejen de
hacerlo viable para la exigente o compleja forma de vida que hemos desarrollado.
A la vez que debemos aceptar nuestro profundo desconocimiento en esos aspectos vitales
sobre las 3 preguntas fundamentales, quiénes somos, de dónde venimos y para dónde vamos,
hemos logrado proezas extraordinarias que bien podrían recrearse en una nueva serie sobre el
ascenso del hombre. (Bronowski, 1973.*) Debido en parte a esas proezas pero sobre todo al
estímulo, desde los empresarios del consumismo y los impulsores (que no creadores) de la
realidad virtual, de un absurdo sentimiento de omnipotencia, de soberbia desmedida que en
nada se compadece o compagina con nuestro humilde origen, tendremos que referirnos
también al descenso del sapiens. No pretendemos hacer una historia de la humanidad en una

*
Jacob Bronowski fue uno de los primeros científicos (fue matemático pero también poeta) que
cambiaron de campo tras los horrores causados por las explosiones nucleares al final de la segunda
guerra mundial (hubo varios) y que a la vez se preocupó por divulgar la ciencia utilizando el nuevo
recurso de la TV. Su serie en la BBC (The ascent of man) fue pionera en ese tipo de programas.
dirección o en la otra. Nuestras pretensiones son mucho más modestas y se centran en unos
temas específicos que por otra parte están llenos de controversias.
Conformado por una sociedad enorme de neuronas, comparable a la población estelar de las
galaxias, cada una de las cuales se encuentra en una intrincada conexión con muchas otras, en
ocasiones con cientos de miles, nuestro cerebro apenas empieza a explorarse a fondo en el
presente siglo; de la sociedad que integramos los humanos, a pesar de ser una asociación de
individuos varios órdenes de magnitud menor que el de las neuronas que forman nuestro
cerebro, en términos cuantitativos o cuantificables conocemos mucho menos: predecir su
comportamiento y evolución es todavía más complejo.
Se dice en algunos textos que la mecánica cuántica es el encuentro de la física con la
conciencia, y así lo han creído algunos de sus más destacados exponentes; es en cierto sentido
la lucha entre el inexorable determinismo o predestinación y el libre albedrío, lo que nos hace
humanos, racionales y, por qué no, espirituales. Esa misma contradicción dialéctica se
presenta con rigor entre la física clásica, determinista, y su contraparte cuántica, probabilista.
Algunos han creído ver algo de espiritualidad y de conciencia en las partículas elementales, en
el electrón y el fotón, por ejemplo. No tomaremos partido, por ahora, a favor o en contra de
esa hipótesis. Lo que es innegable es que, examinando los resultados experimentales, uno se
inclinaría a creer que ellas, las partículas elementales y las substancias simples o compuestas
conformadas por las primeras, tienen una cierta capacidad de decisión. La ciencia, por otro
lado, nos permite prever el destino del universo, de nuestro planeta, hasta de nosotros
mismos, sin que podamos hacer nada por evitarlo. Pero nos abre a la vez un abanico de
posibilidades, como ocurre con el indeterminismo cuántico.
El desarrollo de la humanidad es una historia de cooperación y conspiración, mucho más que
una simple novela de ficción, o si se quiere, un relato de suspenso que pareciera no estar
sacado de la historia real de esa humanidad, de sus individuos y de su cultura: la realidad
desborda a la imaginación. Más escuetamente, vivimos una época caracterizada por los
efectos de la ciencia y de la tecnología sobre la sociedad, pero esa sociedad se comporta cada
vez menos en términos predecibles estadísticamente, vale decir, siguiendo menos los
lineamientos que se esperan de la ciencia predictiva. ¿Qué es entonces lo que nos hace
sapiens? ¿Lo somos realmente? ¿O podremos llegar a serlo?
En las ciencias físicas se dice lo que va a ocurrir desde el comienzo (es el poder de
predictibilidad, característica de la física); fue eso lo que convirtió a la mecánica (debería
llamarse dinámica, por razones que quedarán claras en el apéndice) en la reina de las ciencias
durante la era moderna; surgió después el electromagnetismo, teoría más acertadamente
llamada electrodinámica entre los físicos. Algunos creyeron ingenuamente que era el fin de la
física como contribución al conocimiento científico fundamental. Solo quedarían pequeños
ajustes. Aunque supuestamente en principio podría calcularse todo, la falta de información y
de herramientas adecuadas para hacer los cálculos (computadores con suficiente memoria y
adecuada velocidad) impediría lograrlo. Vino entonces la física estadística, comúnmente
llamada por los físicos mecánica estadística, el soporte racional supuestamente válido del
empirismo que caracteriza la termodinámica. Esa imagen del poder predictivo de las ciencias
físicas llegó a su fin justo a fines de 1900, con la aparición del quantum. El siguiente paso fue el
diseño de la mecánica cuántica; aunque más poderosa en su poder predictivo, ella resultó ser
una teoría probabilista, más exactamente probabilística; pero en principio debería gobernar
todos los aspectos del comportamiento de la materia y de la energía.
Surge así una pregunta ingenua: si estamos hechos de materia y energía, ¿no debería lo
cuántico incidir en nuestro comportamiento, como evidentemente incide en el
comportamiento de todas y cada una de las partículas elementales, de los electrones y de los
fotones, de los átomos, moléculas, agregados de moléculas y, en principio, todo lo demás
hecho de materia y energía, incluidos los nuevos bosones de higgs y los aun indetectables
gravitones? Ningún físico dudaría, en principio, del comportamiento cuántico de los virus, al
menos en su estado inerte, un estado que en realidad no puede ser del todo inactivo hasta
donde podemos imaginarlo desde la nueva física. Un terreno aun en desarrollo, al que
tendremos que regresara forzosamente en uno(s) de los tomos que seguirán a este, es el de la
biología cuántica, o para decirlo con rigor, fenómenos cuánticos en sistemas vivos.
Desde un comienzo la física cuántica influyó en el desarrollo primero de la química y luego de
la biología. De la misma manera que se pudo hablar de la química cuántica con posterioridad al
desarrollo de la mecánica ondulatoria, en particular para explicar los enlaces químicos y las
reacciones que tienen o pueden tener lugar a partir de ellos, hoy se habla de la biología
cuántica para explicar la eficiencia de ciertos procesos fotosintéticos y otros efectos
característicos de sistemas vivos. Aumentó así el poder predictivo de las ciencias naturales.
¿Qué ha ocurrido en las otras ciencias fácticas, incluidas las sociales, humanas, políticas, en
general antrópicas? No es el lugar apropiado para intentar una adecuada clasificación de las
ciencias, pero es importante tener en cuenta que en todas ellas influyó el espíritu de la
mecánica clásica o si se quiere del mecanicismo.
Es tiempo de que la nueva física impregne también otros campos científicos, en particular si se
tienen en cuenta los principios que la diferencian radicalmente del mecanicismo determinista,
un mecanicismo que se queda corto para examinar procesos tan dinámicos como los sociales.
En efecto, la idea del quantum en la física ha generado otros conceptos que podrían ser de
amplio beneficio para todas las ciencias, sin caer en extrapolaciones peligrosas. Uno de ellos es
el principio de incerteza, a menudo mal interpretado. En rigor la mecánica newtoniana excluye
el libre albedrío. Sin que se pretenda afirmar que haya una relación directa entre la incerteza y
la posibilidad de decidir, es satisfactorio comprobar que en el mundo cuántico no todo está
decidido de antemano. Eso se ratifica también a nivel biológico. Algo similar puede decirse del
principio de superposición, otro de los principios fundamentales de la nueva física, traducido a
entrelazamiento cuando se refiere a dos o más partículas. Ellos, superposición y
entrelazamiento, abrieron la posibilidad de la computación cuántica, en general el
procesamiento cuántico de la información. Gracias al poder predictivo limitado de la nueva
ciencia, retomando la idea de Einstein de la novela de misterio extendida al mundo cuántico,
podemos usar ese poder de decisión y de procesamiento de la i fo a ió a uest o fa o … o
en nuestra contra, dependiendo el resultado del manejo que se le dé al nuevo conocimiento;
ello está en nuestras manos, depende de nosotros mismos, de la sabiduría con que se emplee
la información y el conocimiento.
En este último caso, lo de sapiens no ha aplicado del todo, particularmente si se analizan
recientes acontecimientos en el escenario político local y global: la breve historia de la
humanidad en el cosmos llegará dolorosamente a su final mucho antes de lo que la evolución
natural del universo, con él el de nuestro sistema solar y nuestra nave espacial llamada Tierra,
lo pueden permitir. Pero queda una gran esperanza: a lo mejor logremos disponer de mejor
manera de sus recursos para que el final no sea lamentable y no tengamos de qué
a epe ti os… au ue a o este os pa a ha e lo. Co o os lo e ue da Willia Ospi a e
reciente ensayo (Parar en seco, P‘HGE, Bogotá, : La go tie po se e ó ue el fi del
mundo sería un solo evento catastrófico, una suerte de espectáculo cósmico como los que
evoca Rafael Argullol en su admirable libro El fin del mundo como obra de arte. Lo que estamos
empezando a ver más bien podría designarse como el gran malestar.
Quantum sapiens podría traducirse como Sabedor cuántico. El término es sugestivo porque
entre los uitoto, etnia indígena del Sur de Colombia (Amazonia colombiana, específicamente) y
algunas otras regiones (en menor extensión del Norte de Brasil y Perú) sabedor es más que
conocedor. Buinaima es un vocablo para designar al sabedor más profundo entre ellos y, en
opinión de Fernando Urbina Rangel, se extiende también al educador que cuida de la gente,
una acepción particularmente atractiva para nuestros propósitos. (Giraldo, 2006.)
La frase que sirvió de entrada a esta breve presentación fue tomada literalmente de "Physics
and Reality" (1936), en Ideas and Opinions, de la traducción al inglés realizada por Sonja
Bargmann (New York, Crown Publishers, 1982), p.292. Usualmente se traduce y es citada en
forma ligeramente diferente: Lo ás i o p e si le del u i e so es ue sea o p e si le ,
o e esta ot a fo a, ás sutil ás fiel: El ete o iste io del u do adi a e su
i teligi ilidad . Co t asta esta afi a ió o u a f ase at i uida a u o de los físi os ás
brillantes y a la vez controvertibles del presente, Stephen Hawking, distinguido entre 1980 y
o la fa osa áted a lu asia a ue oste ta a e ida Isaa Ne to : No sé ué se á la
ealidad, ás o e i te esa.
Quizá en su momento (1936), poco después de haber sido publicado el famoso texto de
Ei stei , Podolsk ‘ose ue die a luga a la éle e pa adoja EP‘ , la f ase de
Einstein tendría sentido. En nuestra opinión, si hubiera vivido para verlo, podría reconocer que
su citada frase ya no es del todo cierta: el universo ya no es comprehensible, al menos en el
sentido exigido por la localidad einsteniana. Ei stei ol ió a e ui o a se… a a e ta , po
paradójico que resulte, por descubrir la verdad allí donde creyó que tenía que haber un grave
error.
En primer lugar, hoy ya no podría llamarse paradoja: el texto o artículo citado por las iniciales
de los apellidos de sus autores, EPR, se refiere a un experimento pensado; de acuerdo con lo
inverosímil de sus predicciones, no verificadas cuando se publicó, lo que pretendían demostrar
con ello sus autores era la incompletez (¿incompletitud?) de la mecánica cuántica y lo absurdo
de algunas de sus conclusiones. Esto ocurrió casi medio siglo antes de que se diera la
contundente verificación experimental del fenómeno del entrelazamiento cuántico, el más
misterioso de toda la física conocida hasta el presente. (Aspect et al., 1982.) En segundo lugar,
lo que ellos supusieron equivocado resultó ser lo correcto: la localidad en ese experimento
cuántico no se presenta, como lo demostró John Stewart Bell (1966). La Segunda Revolución
Cuántica nos ha llevado a comprobar las más extravagantes predicciones e implicaciones de la
teoría que lleva ese nombre y por ende sus posibles aplicaciones. «El gran misterio permanece
aún sin explicación», y a lo mejor tenga la misma suerte que el gato de Schrödinger: vivo y
muerto a la vez, mientras la caja permanezca cerrada, como establece el principio de
superposición, el más extraño de todos los principios de la física, mucho más que el principio
de incertidumbre. (Véanse capítulos 5º y 6º). O para decirlo en las palabras de Pascual Jordan:
La o se a ió o solo pe tu a lo ue se ide, ella lo p odu e… osot os is os
p odu i os los esultados de la edida. Ja e, .)
A continuación presentamos brevemente el plan de la obra, en particular del primero y el
segundo tomo. Los otros volúmenes de lo que seguramente sea una pentalogía, se encuentran
en preparación. Un término relacionado con el anterior es el pentivium, camino cruzado de 5
vías en el conocimiento al que volveremos posteriormente, en particular en los volúmenes 4 y
5.
El primero tomo es una introducción a lo que empezó como una transformación en la forma de
hacer ciencia, dentro de la más básica de todas, la física, iniciando con un vistazo a vuelo de
pájaro de la evolución de las ideas. Sin pretender una exposición histórica, haremos énfasis en
los personajes que más contribuyeron al desarrollo de lo que se denominó genéricamente
Mecánica Cuántica, en realidad la Primera Revolución Cuántica, particularmente en sus
conceptos, principios e interpretaciones. Nos ocuparemos también de las fantasmagóricas
acciones a distancia y de aquellos misteriosos principios que las predicen, de los efectos del
tunelamiento cuántico y otras rarezas, como las causadas por los efectos del espín, una
intrínseca propiedad cuántica ausente en el mundo clásico, de los condensados cuánticos que
Bose y Einstein predijeron hace casi un siglo y de algunos líquidos cuánticos.
En el segundo empezaremos por las aplicaciones de lo que sin duda alguna ya domina el 50 %
de la economía mundial o la afecta de alguna manera, la industria optoelectrónica y la
nanotecnología. Haremos luego un recuento de lo que, en parte gracias a esa tecnología y en
gran medida también a los modelos teóricos surgidos desde sus principios y postulados, nos ha
permitido avanzar en el conocimiento del universo. Resumiremos lo que nos dice el exitoso
modelo estándar de la física de partículas elementales, algunos modelos cosmológicos
recientes y un poco de lo que nos proponen con los hipotéticos agujeros de gusano, de
imposible verificación, al menos con la tecnología del momento, mencionando de paso las
teorías de supercuerdas.
Ya la física no puede pretender explicarnos lo que ocurre en el universo, simplemente se limita
a predecir el efecto de sus códigos secretos. Pero lo hace con una precisión tal que es como
haber encontrado la llave maestra que abre todas las puertas de los tesoros escondidos en su
vientre. El Homo Quanticus sabe cómo hacerlo, aunque no lo entienda. El Homo Sapiens
debería hacerlo para el bien, no para su propia destrucción, y en eso consiste la sabiduría; esa
es la moraleja a extraer de estas modestas notas ampliadas en el tercer tomo, que no
pretenden explicar, solo exponer, algunos secretos del Universo Cuántico y Complejo. Ese
tercer tomo recoge las ideas centrales de lo que podríamos llamar complejidad y biología
cuánticas. Nos atrevemos a afirmar desde ya que la inteligencia natural (no la artificial) es
inherente a todo sistema vivo, lo que exige más de una justificación. En un proceso evolutivo
del que desconocemos más que unos cuantos eslabones, se llegó de la inteligencia así
entendida a un sistema neuronal más complejo, al cerebro, a los procesos mentales y a la
conciencia. Pero la verdadera conciencia es algo más que la conciencia individual, es la
conciencia colectiva, y la construcción de una conciencia colectiva en la especie humana es un
proceso todavía en gestación, si es que llega a un final feliz antes de que sea demasiado tarde.
El Quantum Sapiens (en ocasiones lo denotaremos por sus iniciales, QS) podría ser el mediador
y es lo que intentamos establecer finalmente. Ese nuevo Sapiens estaría en construcción, es
apenas un proyecto utópico en ciernes pero materializable, al menos eso creemos: más que
entender a cabalidad los misterios del universo, la sabiduría consiste en actuar cabalmente, en
utilizar apropiadamente el conocimiento acumulado. Por eso y por otras razones tendremos
que referirnos en alguno de los tomos venideros al eterno asunto de la educación,
particularmente a la educación en el siglo XXI, tarea que acometeremos en el quinto volumen.
Así, pues, en el tercer tomo, escrito a 6 manos y todavía en preparación, en el cuarto y en el
quinto, si la vida nos alcanza, nos ocuparemos más a fondo de algunas de las implicaciones de
esa física que, aunque se completó en su formulación básica matemática hace casi un siglo y
dio lugar a una revolución tecnológica que transformó el mundo, está produciendo en la
primera parte del siglo XXI una revolución científico-técnica sin parangón, la segunda
revolución cuántica, de enormes repercusiones en la evolución cultural de nuestra especie y
seguramente en su cerebro de primate superior. Quizá esa segunda revolución sea la que dé
lugar en el mundo al verdadero sapiens. En Colombia, si quisiéramos sacar provecho de esa
revolución, tal vez sirviera para la construcción de la verdadera Gran Colombia, la que perdió el
rumbo hace casi 2 siglos y ha estado sumida en la violencia, el mayor cáncer hace un tiempo,
en la corrupción, el mayor cáncer del momento, en la injusticia, la inequidad y la pobreza
producto de todo lo anterior. También a esos temas, los que interesan a la Colombia del
postconflicto, tendremos que volver en el futuro.
Nos hemos referido al sapiens y a la sabiduría, al conocimiento y a la información sin definir un
término que lleva implícito, la inteligencia. No vamos a definirla ahora mismo, pero avancemos
que el universo se guía por ella. El primer atisbo de inteligencia es precisamente la
información. Ella es más fundamental que la materia y la energía. De no haber evolucionado el
universo primordial, un caldo de partículas cuánticas que todavía no acabamos de entender,
en la forma en que lo hizo, no habrían surgido del interior de las estrellas mayores los
elementos necesarios para la vida: carbono, nitrógeno, hierro, fósforo, y otros pesados,
después de que surgieron el hidrógeno, el oxígeno y el nitrógeno, gases también
indispensables para la vida que conocemos hoy. Sin la vida primordial, llámense procariotas o
eucariotas, tampoco estaríamos aquí. Pero nuestra historia se remonta más allá. Somos
resultado de un proceso evolutivo que hemos rastreado hacia atrás en el tiempo por cerca de
14,000 millones de años. La información clásicamente concebida por Claude E. Shannon hace
menos de 80 años tuvo un origen cuántico, es la tesis que nos atreveríamos a plantear: son los
qubits. Es en ese orden de ideas que se puede concebir el remoto origen de esa soberbia
especie que llamamos sapiens y que hoy amenaza con extinguir la vida en el planeta que
habitamos. Tenemos pues un origen tan humilde o grandioso como queramos imaginarlo: los
quanta. Con la idea del quantum sapiens asistiríamos a nuestro propio descubrimiento.
Esperamos no asistir a la extinción anticipada de la nave espacial llamada tierra, nuestro lugar
en el cosmos, al menos por ahora.
Al autor del primer tomo le pareció interesante terminar esta ya larga advertencia al lector con
una frase de Héctor Raga, a la que sigue el mensaje de un pod fascinante:
«La materia a nuestro alrededor es formidablemente diversa. Desde la tenue luz hasta el rígido
diamante o desde los metales hasta el agua y las moléculas que nos forman, la variedad es formidable.
Uno de los méritos de la ciencia del siglo XX fue comprender que toda esta diversidad que evidencia la
materia es expresión de su estructura cuántica subyacente. La humanidad dispone de una teoría que
desafía abiertamente nuestro sentido común pero miles de experimentos y éxitos son garantía de que
es una teoría correcta. La física cuántica nació tras el fracaso de la física de Newton y el
electromagnetismo, en trance de explicar las intimidades de la materia. Nuevos conceptos, resultados
experimentales y matemáticas comenzaron a ajustarse y en varias décadas los físicos construyeron una
teoría capaz de abordar la realidad a la menor de las escalas, que nos brinda explicaciones de los
fenómenos observados, y que es exitosa a la ho a de a ti ipa fe ó e os ha e p edi io es. … A
pesar de que nuestra intuición no puede vislumbrar el extraño mundo cuántico, los éxitos de la cuántica
so ta o tu de tes ue se i po e o o u a des ip ió álida del i o u do. … Teo ías p ofu das
suscitan preguntas profundas. La física cuántica es sin duda uno de los logros más elaborados de la
humanidad.» (Vea y escuche el post completo en http://halley.uis.edu.co/aire/?p=1506.)

Paradoja sintética: La teoría más incierta resultó ser la más cierta de todas.
A MODO DE PROLEGÓMENO
Un largo trecho
«El hombre es el primer animal que ha creado su propio medio.
Pero —irónicamente— es el primer animal que de esa manera se
está destruyendo a sí mismo.» Ernesto Sábato, físico …. sapiens

Esta introducción puede parecer exageradamente larga para un texto de divulgación


científica… lo es: tanto como del di ho al he ho… Es muy largo el camino que aún tendrá que
recorrer la Humanidad en su búsqueda del ser humano. Este primer tomo de Quantum
Sapiens, nuestro primer paso, es apenas una modesta e insignificante contribución a ese
proceso. La idea de convertir en 5 ese primer intento surgió en el camino: se hace camino al
andar, como afirma el poeta Antonio Machado.
Prolegómenos a toda metafísica futura que pueda presentarse como ciencia (Kant) es una
descripción simplificada y comprensible, una especie de introducción, a Crítica de la razón
pura. Desde este punto de vista, podría ser muy pretencioso dar el título de prolegómeno a las
explicaciones que siguen sobre lo que nos ha motivado a escribir estos ensayos.
La divulgación puede hacerse de muchas maneras. Divulgar el quantum, u es ueleto e el
a a io de la físi a , o el secreto de familia mejor guardado, es aparentemente riesgoso.
Hacerlo sin conocimiento de juicio ha sido oportunismo de algunos e irresponsabilidad de
muchos. Ha habido usos indebidos del término, más bien invocaciones, que llevan a conjeturas
sin soporte científico. A lo mejor ningún esquema de divulgación por sí solo cumpla los
propósitos que a nuestro modo de ver han de exigirse en el caso que nos ocupa: El QUANTUM
con todas sus implicaciones. Antes que cualquier otra cosa, en la divulgación científica ha de
evitarse la vulgarización. Si con la divulgación del enigma cuántico no caemos en ella,
habremos logrado una buena parte del propósito principal que tenemos en mente. (Véase
además Rosemblum y Kuttner, 2011.) Nos animan otros propósitos secundarios.
En efecto, son muchas las razones que nos llevaron a escribir este «ensayo pedagógico», si es
que se puede clasificar de alguna manera. Más abundantes son las motivaciones que se
tuvieron a la hora de abordar el asunto, los quanta, en la forma en que finalmente se hizo. En
esta y las 3 siguientes subsecciones se resume la motivación principal: son, pues, la verdadera
introducción. Las otras subsecciones de la presente INTRODUCCIÓN hubieran podido
incorporarse como la primera de cinco o más entregas en el texto definitivo. Es el momento
adecuado para advertir a un lector apresurado que bien podría dejarlas de lado en una lectura
inicial, para volver a ellas solo si lo considera pertinente. Ellas son un anticipo al segundo tomo
y en cierta medida al tercero.
En 2005 se celebró en el mundo, por resolución de la Asamblea General de la Organización de
las Naciones Unidas, el Año Internacional de la Física. Una resolución similar denominó a 2015
Año Internacional de la Luz. No sobra advertir que en las 2 celebraciones la figura principal a
recordar fue la del físico Albert Einstein (1879-1955), quien en 1905 sentó los pilares básicos
de dos nuevas teorías físicas (en realidad 3) y en 1915 completó su obra cumbre, la teoría
general de gravitación universal. Su máxima aspiración, una teoría unificada, continúa siendo
hoy una quimera, a pesar de que muchos creen que estamos cerca de la teoría del todo.
La idea central con estas celebraciones (vendrán otras) es doble: acercar al grueso público a las
ciencias, para el caso la física, y recordar a los políticos y otros líderes sociales la importancia
de las mismas para el desarrollo de los países. Así como ha ocurrido en muchas regiones del
mundo, en el caso de Colombia el logro definitivo de «la paz amada» debe pasar por el de un
desarrollo que sea a la vez humano, integral, equitativo y sustentable, diferente al simple PIB
(producto interno bruto).
Recurriremos frecuentemente a los acrónimos significativos. A la justa aspiración a un
desarrollo más acertado la denotaremos por DHIES (desarrollo humano, integral, equitativo y
sustentable) y ha sido tema de otros ensayos todavía inéditos. A ella volveremos
reiteradamente en el futuro, en especial en la cuarta y quinta partes. El Quantum Sapiens
puede hacer una enorme contribución a un nuevo tipo de desarrollo, y es lo que el autor de
este primer tomo se propone explicar en el epílogo de este primer tomo, prefacio de los que le
seguirán. Es imperativo reconocer el impacto que sobre lo avanzado, si es que puede
calificarse así el corto trecho recorrido, ha tenido la Misión de Sabios, a la que se hizo alusión
con la dedicatoria, en particular quien fuera el editor del Informe conjunto de comisionados,
Carlos Vasco, y a quienes entre ellos nos han acompañado sin tregua en este recorrido de más
de una década. Los otros tomos (fueron 7 en total) reposan en los anaqueles de algunas
bibliotecas. Es deseable que el Balance de la Primera Misión, elaborado por Vasco y otros, no
corra la misma suerte. (Vasco, 2015.)
Como contribución a la primera celebración arriba mencionada (primer centenario del año
milagroso de Einstein), uno de los autores escribió una monografía que tuvo gran acogida:
Genio entre genios, breve reseña de la vida y obra del físico más afamado de todos los
tiempos. No es por mera coincidencia que su nombre se cita más de 200 veces en este primer
tomo. (Giraldo, 2005. Una versión electrónica puede verse en: www.corporacionbuinaima.org)
Einstein y la física estadística
A diferencia de otros ensayos, en donde se subrayan los aportes de Einstein a la relatividad del
tiempo y el espacio y a su teoría general de relatividad, o Teoría de la Gravitación (GT, por sus
siglas en inglés, coincidente con Teoría General), aquella reseña destaca el carácter pacifista y
humanista del genio, nuevas enseñanzas que podemos extraer de la vida y obra del padre de la
relatividad, y su contribución singular a los fundamentos de la Teoría Cuántica (QT)
(comportamiento dual de la luz), misma que finalmente declaró incompleta; se subraya
también allí su no menos importante contribución a la mecánica estadística, aunque poco
suela destacarse; en efecto, retomando los aportes de Maxwell y Boltzmann, Einstein elaboró
un modelo matemático fundamentado en la hipótesis atómica para explicar por primera vez el
hasta entonces extraño movimiento browniano, abriendo de paso la posibilidad de medir
indirectamente el tamaño de átomos y moléculas. Esto lo hizo en una época y en un entorno
poco favorable para las ideas atomistas, tan poco que los resultados de su tesis doctoral y su
resumen, vale decir el autor de la tesis y el artículo que reseñaba su trabajo, pasaron
inadvertidos. Pero el autor había ido mucho más lejos, y antes de la monografía sobre su tesis
doctoral había publicado 4 artículos, 3 de los cuales resultaban a todas luces controvertibles
para la física del momento. Él mismo calificaba algunos de ellos de revolucionarios. El primero,
conectado con su tesis, fue precisamente Sobre el movimiento requerido por la teoría cinética
molecular del calor de pequeñas partículas suspendidas en un líquido estacionario. Aunque la
idea no era original, sí era paradigmática para la física en la Alemania del momento.
Fue quizá su contribución a la física estadística cuántica, elaborada posteriormente con Bose,
la que llevó a Einstein a buscar una interpretación estadística a la teoría como un todo,
interpretación que en algún momento el autor de este primer tomo compartió pero que hoy
resulta a todas luces insuficiente (Giraldo, 1977). Hay otra, la de los universos paralelos,
versión que de haber sido conocida por aquel, hubiera merecido su rechazo definitivo.
Reflexionando sobre la incidencia del primero y el último de los trabajos de Einstein de aquel
año sobre la aceptación definitiva de la mal llamada hipótesis atómica (la tesis fue publicada a
comienzos de 1906), y el cercano suicidio de Ludwig Boltzmann (ocurrido en septiembre de
1906), junto con las especulaciones sobre la posible incidencia que tuvo en el infortunado
acontecimiento el rechazo momentáneo que recibió la teoría del padre de la física estadística
por parte de los más eminentes físicos alemanes del momento, uno se pregunta qué habría
pasado si Boltzmann hubiera conocido los trabajos de Einstein. ¿No habría podido ser otro el
trágico final de su historia? ¡Nunca lo sabremos! ¿O quizá sí? A lo mejor hay un universo
paralelo en donde el suicidio de Boltzmann no ocurrió. Consuela pensar de esa manera, como
consuela pensar en universos paralelos en donde el comportamiento de los políticos, por lo
menos el de algunos de los líderes políticos en Colombia, es menos insapiens.
Desafortunadamente es poco probable, así lo cree el autor de esta introducción, que la
interpretación de universos paralelos de la mecánica cuántica sea la correcta, si es que hay
alguna interpretación correcta.
La otra gran contribución de Einstein a la física estadística, como se mencionó atrás, la realizó
con el gran físico hindú ya mencionado, Satyendra Nath Bose (1894-1974), y se denomina por
ello estadística de Bose–Einstein. A esta y a la de Fermi–Dirac, la otra pieza de la Física
Estadística Cuántica, tendremos que referirnos posteriormente. La última surge a partir de
otro principio cuántico de fundamental importancia, el Principio de Exclusión, debido a
Wolfgan Pauli (1900-1958). Las partículas que obedecen una u otra, se denominan
genéricamente bosones y fermiones, respectivamente. Así, pues, Einstein tuvo que ver con el
desarrollo posterior (léase actual) de los campos esenciales de la física teórica.
Coincidió la primera celebración con una campaña del Ministerio de Educación Nacional (MEN)
en Colombia, promocionando las Competencias científicas. El autor de esta primera parte de
QS contribuyó con unos talleres sobre Nanotecnociencia, dirigidos a docentes de enseñanza
básica, que dieron lugar después a un escrito a varias manos. (Giraldo et al., 2007.) El punto de
encuentro entre las dos actividades, monografía y nanotalleres, vuelve a ser la física cuántica,
la que establece las leyes y los principios que regulan el comportamiento de los átomos, su
interior y sus agregados moleculares. Surgió entonces la propuesta a la Dirección Académica
de la Sede Bogotá de la Universidad Nacional de Colombia, por parte de este autor, de
establecer un curso de libre elección sobre estos temas, dirigido a estudiantes de todos los
programas académicos. Plasmada la idea, justo hace una década cuando se publican estas
notas, el curso se ha denominado desde entonces Cuántica para todos y para todo y sigue
teniendo gran acogida. Solemos referirnos a él por sus iniciales, CPTPT. Para ayudar al
desarrollo del curso se escribieron unas notas recopiladas en el texto Unos cuantos para todo.
(Giraldo, 2009.) La idea central del curso y de las notas es darle una orientación más
humanística a lo que puede derivarse de la cuántica, de sus aplicaciones y sus implicaciones.
En ese orden de ideas, en 2013 se ofreció, por iniciativa nuestra, la cátedra de sede (cátedras
también a cargo de la Dirección Académica) José Celestino Mutis con el título: Cien años de
Saltos Cuánticos. El nombre escogido quedará claro en la siguiente subsección.
Lo que se pretende con Quantum sapiens es acercar esos conceptos, sus aplicaciones
presentes y futuras y, por qué no, sus implicaciones, incluso las que pueden repercutir en la
educación del futuro, a una audiencia más amplia. Esto es tanto más importante por cuanto las
nuevas tecnologías, no solamente las de la información y de la comunicación, en general las
llamadas tecnologías convergentes, dependen enormemente de la manipulación de la materia
a escala microscópica, vale decir, atómica, molecular y nanométrica. Pero quisiéramos ir
todavía más lejos, y es lo que intentaremos con las otras partes de QS; a la tercera contribuirán
dos colegas y amigos, Andrade y Maldonado.*
Un siglo de saltos cuánticos
«Señor Bohr, seguramente debe usted entender que la idea de los saltos cuánticos
e esa ia e te lle a a u dispa ate. …» Ca ta de E i “ h ödi ge (1887-1961), uno de los
padres fundadores de la mecánica cuántica, a Niels Bohr (1885-1962), otro de los íconos
cuánticos.)
Tratando de li a se de los alditos saltos uá ti os de Boh , “ h ödi ge o st u ó o fue el
artífice de la Mecánica Ondulatoria, la segunda versión de la física cuántica. La formulación de
la primera, denominada Mecánica Matricial, correspondió a Werner Heisenberg (1901-1976).
En un comienzo, reconoce el mismo Heisenberg, él no tenía idea de tan portentoso aparato
matemático. Fue Paul A. M. Dirac (1902-1984) quien lo introdujo al formalismo, gracias a las
relaciones que se establecieron rápidamente entre su maestro, Max Born (1882-1970), y
aquel. Entre Pascual Jordan (1902-1980), Wolfgang Pauli (1900-1958) y los 3 anteriores se
estableció una estrecha colaboración que condujo al formalismo matemático que se sigue
utilizando, con la nomenclatura de Dirac de bras y kets (brackets, <ı ı> en su versión de los
vectores de estado o vectores propios. Aunque la versión ondulatoria es menos abstracta, la
interpretación de la misma, finalmente propuesta por Born, dista mucho de alcanzar el
propósito de Schrödinger, es decir, evitar el disparate.
Después de un siglo de saltos cuánticos, tenemos que reconocer que no hemos podido
liberarnos de ellos. Por el contrario, pasar de un valor discreto a otro sin recorrer los valores
intermedios es la característica fundamental de todas las cantidades físicas cuánticas medibles
u observables. Los quanta, pues, están por todas partes. ¡La naturaleza no es continua! Los
números naturales o los enteros, en ocasiones algunos fraccionarios, son los que priman en las
observaciones.
El nanomundo, un universo sui-generis
Esta sección ilustrará algunas implicaciones del cambio de escala, particularmente cuando se
va de lo habitual, los tamaños a que estamos acostumbrados, en donde a menudo los

*
Eugenio Andrade es profesor pensionado de nuestra Alma Máter; Carlos Eduardo Maldonado es
profesor e investigador de la Universidad del Rosario. Los dos han escrito destacados artículos y libros
e sus te as de i estiga ió ot os ue les so e a os… U a ota de uartillas presentando a
mis famosos cuates, compadres y cómplices cuánticos).
comportamientos son clásicos, a escalas diminutas, en donde se observan frecuentemente
comportamientos cuánticos. No es necesario llegar a la región atómica para que eso ocurra.
Nos hemos referido a lo nano en más de una ocasión en las secciones anteriores y lo haremos
repetidamente a lo largo de este y el próximo tomo. ¡Tan importante lo consideramos!
Recuérdese que fue, en cierto sentido, el comienzo de la aventura, la exploración del universo
a diversas escalas, el origen de lo que nos proponemos con el quantum sapiens. Es de destacar
que Einstein dedicó el primero de sus revolucionarios artículos de aquel milagroso año 1905 a
esclarecer el movimiento de nano-objetos o partículas microscópicas extremadamente
pequeñas. Está próximo a publicarse un texto divulgativo en el que se hablará desde diferentes
enfoques acerca de lmo que en nuestra opinión puede llamarse Nano-revolución, de sus
promesas, riesgos y amenazas. (Giraldo, 2017.) ¿Por qué consideramos ese tema como de
trascendental importancia? En la segunda parte, dedicada a las aplicaciones de la mecánica
cuántica, haremos una breve sinopsis del mismo. Por ahora, baste con destacar lo esencial del
asunto, empezando por señalar que la nanotecnología es la más importante de las llamadas
tecnologías convergentes, a las que se presta atención en el texto arriba citado.
El término bien podría referirse a convergencia del conocimiento, pero en la visión simplista de
quienes lo utilizan, se limita a la convergencia de varias tecnologías, impactadas todas ellas por
la nanotecnología o tecnología a escala nanométrica, vale decir, por las aplicaciones de la
mecánica cuántica. En el sistema M.K.S.A. (metro-kilogramo-segundo-amperio) que
usualmente se emplea en nuestro medio, a la unidad de medida, el metro, se le acompaña
como bien se sabe de múltiplos y submúltiplos. Para expresar la magnitud de las diversas
unidades e suele emplear la denominada notación científica. El kilómetro, 1000 metros, se
expresa así: 1 km = 103 m. La milésima parte del metro, el milímetro, se escribe: 1 mm = 10 -3
m. Así, pues, el nanómetro, nm, equivalente a una milésima de milésima de milésima de
metro, se denota así: 1 nm = 10-9 m.
Para ilustrar en tamaño lo que eso significa, demos unos ejemplos. El radio del átomo de
hidrógeno, H, es aproximadamente igual a medio angstrom, más rigurosamente, ångström o Å.
1 Å = 10-10 m, así que el radio de un átomo de H será de 0.5 Å o 0.05 nm. Los átomos caen
ligeramente por debajo de la escala nanométrica. Por el contrario, el grosor de un cabello es
de unos cientos de nm.
Un nanómetro es ciertamente una unidad de longitud muy importante en una de las escalas
que nos interesan, la escala atómica y la molecular. A esa escala y un poco más arriba los
efectos cuánticos son de fundamental importancia. En la inferior, la subatómica, también de
fundamental interés en el tema que nos ocupa, tendremos que introducir otras unidades; una
de ellas, el fermi o femtómetro, es la más destacada en el terreno de los fenómenos nucleares.
A todos ellos, lo nano y lo nuclear, volveremos en la segunda parte.
Desde el comienzo del CPTPT, Andrade y Maldonado han contribuido con sendas conferencias
al desarrollo del mismo. Por esta y muchas otras razones, surgió la idea de escribir un ensayo a
seis manos que incluyera lo cuántico, lo complejo (incluido lo social) y lo biológico
(doblemente complejo), ambiciosa tarea todavía inconclusa que esperamos iniciar, de ninguna
manera completar, en el tercer tomo.
Con el título se quiere sugerir que, si bien este primer texto y el curso que le acompaña es una
introducción light a la cuántica, en modo alguno vulgarizadora (eso es lo mínimo que
esperamos), no se ha adoptado en él un enfoque convencional del tema central, la QT; lo de
sapiens, aunque secundario en cuanto a la profundidad que a él se dedica dentro de los
primeros 2 tomos, por falta de espacio-tiempo, sigue siendo lo fundamental, pero desde otra
perspectiva: tiene que ver de nuevo con el humanismo y la humanización, o si se prefiere, con
ese proceso evolutivo de 13,750 millones de años que nos ha llevado a estar donde nos
encontramos. Con el subtítulo (1ª y 2ª revolución cuántica, para el primero y tercer tomo
respectivamente) se están anticipando las conclusiones. Una de ellas, quizá la más importante,
es ésta: La segunda ola, la mayor revolución o verdadera Era de la Información está por venir e
involucra a los quanta. En otras palabras, aunque la información siempre ha estado presente,
desde antes de la gran explosión, hasta ahora se tiene la oportunidad de utilizarla en forma
más refinada, gracias en gran medida a la comúnmente denominada mecánica cuántica y a sus
aplicaciones, sobre todo futuras. Eso introducirá profundos cambios en la especie humana, en
su comportamiento y en su futuro desarrollo o evolución. ¿Puede nuestra especie, sobre todo
su dirigencia política y social, seguir ignorando olímpicamente esa parte fundamental de la
ciencia mientras que por otro lado la tecnología toda depende cada vez más de aquella? A
responder esa pregunta, o mejor, a ratificar que lo cuántico invade todas las esferas del
universo y por ende del ser humano, quieren contribuir estos textos. ¡Y un poco más!
¿Qué hay en el interior de las células? Cualquiera diría que átomos y moléculas, una respuesta
incompleta. Los llamados organelos u orgánulos generalmente son de tamaño nanométrico.
Los microtúbulos que conforma su citoplasma son en realidad nanotubos. Las propiedades que
determinan, no ya su estructura, más bien su funcionalidad, son cuánticas. Ellos, los
microtúbulos, son esenciales en los mecanismos de transporte dentro de la célula, lo que
ciertamente ocurre a nivel atómico y molecular, a nivel iónico si se quiere. Por otra parte, el
transporte de información de una a otra neurona en las células especializadas que reciben ese
nombre y que conforman el cerebro, por primitivo que sea, de los organismos pluricelulares,
se da gracias a procesos electroquímicos, vale decir cuánticos, en las dendritas y conexiones
sinápticas. De nuevo aparecen efectos cuánticos en regiones nanométricas. No ha sido bien
recibida por la ortodoxia de la física la propuesta de Roger Penrose y otros del papel de los
microtúbulos en el origen de la conciencia. Pero sus argumentos no pueden descartarse
simplemente desconociéndolos. A ese tema volveremos en el tercer tomo. El hecho concreto
es que en el nanomundo o universo nanométrico los efectos cuánticos generalmente son muy
importantes, si no decisivos.
Hasta aquí va la verdadera introducción; lo que sigue es una ampliación o motivación más
profunda para reflexionar sobre las nuevas perspectivas de la humanidad, las nuevas
expectativas para Colombia) desde un punto de partida cuántico. Puede dejarse de lado en una
primera lectura, a juicio del lector.
Prolegómenos
Es posible que en una próxima edición, seguramente indispensable si la idea original sobre el
quantum sapiens en 3 o más tomos sobrevive, la actual distribución de este primer volumen se
modifique. Entonces los prolegómenos extendidos podrían ser, por conveniencia, una primera
parte. Por ahora, se intenta con ellos exponer ampliamente algunas de las motivaciones
adicionales (quedarán muchas pendientes) que nos llevaron a escribir las diversas secciones en
que estaría dividido el ensayo en su totalidad: incursionar en el tema sugerido por el adjetivo
sapiens desde el punto de vista evolutivo, para relacionarlo con el tema principal, los cuantos,
sus aplicaciones e implicaciones, y orientar al lector para que saque sus propias conclusiones,
con un mejor aprovechamiento del contenido. Podría decirse que el apéndice, una breve
introducción a la física clásica, forma parte de la sección introductoria. Si se ha puesto al final
del primer tomo en esta primera versión, es porque se abriga la esperanza de que, más allá del
lector inquieto, el material interese también, aunque sea medianamente, a algunos de los
iniciados en el tema de la física, al menos a los estudiantes de la disciplina, ciencia básica por
excelencia, a los de otras ciencias y de las ingenierías, en cuyo caso no amerita que se
incorpore dentro de la parte central del texto. En otras palabras, aunque la orientación que se
le quiere dar a estas notas tiene un componente humanístico considerable, los asuntos
tratados en el primer tomo no se han podido desligar demasiado del enfoque convencional. El
epílogo será apenas un abrebocas para los que vendrán.
Anticipemos, pues, que el tema de la evolución biológica y otros relacionados, el origen de la
mente y de la conciencia, una nueva revolución cognitiva alimentada por la inteligencia
artificial, por ejemplo, y algunos más que nos interesan, no se cubrirán a satisfacción por
ahora. Observemos, de paso, que a pesar de los avances, los logros hacia el entendimiento de
lo que somos son todavía incipientes. Más que sapiens sapiens, somos en realidad sapiens
incipiens.* O como proponen Margulis y Sagan (1997), insapiens insipiens.
Filosofía Natural y Filosofía de la Naturaleza
Aunque estén relacionadas, las dos denominaciones no se refieren a lo mismo. En rigor, habrá
que definir los dos términos, filosofía y naturaleza, definiciones que han cambiado con el
correr de los milenios, particularmente la del segundo término. Lo natural es el complemento
de lo que es cultural o cultivado, en rigor su fundamento. No son suficientes las nociones o los
conceptos intuitivos; habrá que refinar estos a partir de la reflexión. Para acercarnos a una
definición que se acomode a nuestras pretensiones, en principio modestas, habrá que tener en
cuenta las ciencias, no solamente la física, también la química, la biología y, por supuesto, la
astronomía. Una galaxia es naturaleza. Postulamos que el universo en su totalidad también lo
es. Puede haber mucho más incluido en la totalidad.
Si filosofía es reflexión o pensar sobre la totalidad, en rigor habrá que detenerse a pensar qué
es totalidad. ¿Se incluye en la totalidad lo que no es real? Habría que definir primero la
realidad. A renglón seguido habría que aclarar que no se trata de un pensar cualquiera, sino de
un pensar metódico y sistemático.
Los Principia Mathematica en primera instancia se refieren a una trilogía o tratado de 3 libros
escrito por Bertrand Russell y Alfred North Whitehead. A ellos tendremos que volver en el
futuro. Cuando se habla de los Principia Mathematica escritos por Isaac Newton, se evoca de
inmediato Philosophiae Naturalis. Estos son los principios de la mecánica. Es la primera
elaboración consistente de la cosmología. Los principios matemáticos de la electricidad y el
magnetismo vinieron mucho después, con James Clerk Maxwell.
Si se quiere superar el espíritu con que fueron escritos los tratados sobre mecánica, sobre
electromagnetismo y otros más, igualmente especializados, no basta con eso¸habrá que hacer

*
A aclarar estas denominaciones latinas ha contribuido el prologuista, mi maestro y cómplice Carlos
Eduardo Vasco, quien de paso me ha animado a mantener en alto el espíritu de buinaima.
referencia a la Filosofía de la Naturaleza. Por brevedad, digamos que es un pensar metódico y
sistemático sobre el universo en su conjunto, incluido el hombre en su naturaleza. Es pues
diferente a elaborar una teoría sobre la naturaleza en alguna de sus formas.
Si por razones prácticas conviniéramos en que la totalidad es lo natural más lo cultural, el
conocimiento en todas sus formas es parte de la cultura. Para no extendernos demasiado en
estas consideraciones que retomaremos en uno de los volúmenes posteriores, por analogía
con el trívium y el quadrivium de la antigüedad y de la edad media proponemos un pentivium o
camino cruzado de cinco vías. Recordemos que el trívium era el conjunto de tres vías de
conocimiento y argumentación, a saber Gramática, Retórica y Lógica. El quadrivium, por su
parte, se entendía como el camino cruzado de 4 vías de conocimiento y agrupaba las ciencias
relacionadas con los números y el espacio: Aritmética, Geometría, Astronomía y Música. En su
conjunto formaban lo que se denominó Artes Liberales.
Sugerimos una agrupación más completa e integradora. El Pentivium que agruparía a las cinco
formas de conocimiento y que daría lugar en su conjunto al conocimiento integrado estaría
conformado por el arte, la ciencia, la tecnología, la filosofía y el conocimiento ancestral o, si se
prefiere, el conocimiento acumulado. Este será tema que retomemos en otro de los
volúmenes. Vamos de inmediato a lo que más nos interesa en esta primera parte.
Cuerpo negro, cuantización y evolución como conceptos
Confiamos que dejaremos claro antes del epílogo de este primer tomo el significado de
algunos términos que se utilizarán en esta prolongada introducción a las distintas partes que
conforman QS I. Precisar la terminología, en especial sobre lo que tiene que ver con los
Quanta, lo que se hará en particular en la primera parte, no significa que hayamos entendido.
Antes bien, si el lector desprevenido (el no físico) no siente vértigo al terminar esa primera
parte, es porque no ha entendido las implicaciones de los principios cuánticos, esbozados en
ella sin el formalismo matemático que se requiere. No cabe duda que los físicos, los buenos
estudiantes de la disciplina y con ellos muchos otros profesionales que necesitan del
formalismo, el cual suele enunciarse al estilo de los postulados matemáticos, lo entenderán.
Quizá ni unos ni otros hayan comprendido el mensaje; los autores confiesan que todavía no lo
comprenden del todo. La segunda parte de este primer tomo servirá solamente para referirse,
sin mayor profundidad, a algunas aplicaciones que podrían denominarse clásicas; es una
especie de motivación, para que el lector convencional siga adelante; las verdaderas
aplicaciones, con el comportamiento cuántico como característica esencial, están por venir. La
tercera y cuarta parte nos acercarían a la revolución (¿evolución?) que estamos viviendo. Allí el
vértigo puede producir náuseas… o convertirse en pesadillas. Comencemos.
Pregunta hipotética de un lector bien informado, sugerida por el título: ¿Qué tiene que ver el
quantum con la evolución de la especie humana?
Respuesta parcial de este autor: Mucho, al menos tanto como lo ha sido para la evolución del
universo.
Desde aquel ya lejano 14 de diciembre de 1900, cuando Max Planck (1858-1974) acuñó
oficialmente el término, o lo rescató del latín clásico, QUANTA se ha convertido en sinónimo
de paquetes. En esencia, Planck se refería a paquetes de energía. En otras palabras, la energía
parece discreta; tuvo que suponerlo de esa manera o imaginarla así para poder deducir o
reproducir una fórmula o receta descubierta por él (para el lector curioso, se transcribe en la
figura 2.2), tratando de darle fundamento a la forma en que la materia, es decir, los objetos o
los cuerpos todos, radian o emiten y absorben energía electromagnética cuando están en
equilibrio termodinámico. Es sano advertir que los cuerpos vivos jamás están en equilibrio
térmico. En su momento, finales de 1900, lo que tuvo que suponer Planck sonaba a exabrupto;
era aparentemente una descabellada idea. Conviene tener en cuenta que en el círculo cerrado
de los físicos alemanes, al que pertenecía Planck, no se aceptaba todavía la hipótesis atómica
más que como una idea auxiliar sin fundamento científico; ortodoxo, como sus maestros
(Helmholtz y Kirchhoff, entre otras celebridades), su tesis doctoral versó Sobre el segundo
principio de la termodinámica; fue inicialmente profesor en la Universidad de Kiel y sucedió
luego a Kirchhoff en la Universidad Federico Wilhelm, hoy Humboldt, en Berlín,
probablemente por incidencia de Helmholtz. Trabajaba a la sazón en el problema de la
Radiación del cuerpo negro.
El cuerpo negro, como se denomina en física al emisor-absorbente ideal, es el prototipo de
objeto material (macroscópico) ideal, como lo fue masa puntual para la Mecánica. Un cuerpo u
objeto cualquiera debe absorber la misma cantidad de energía que emite, si está en equilibrio
termodinámico, es decir, si no se calienta o enfría, si se quiere que se mantenga a la misma
temperatura de su entorno.
Sin proponérselo, Planck terminó asestando un duro golpe a la ortodoxia del momento, mucho
más fuerte que el propiciado al llamado oscurantismo de la Iglesia Medieval por el clérigo
Nicolás Copérnico. También por la época en que Charles Darwin, medio siglo antes que Planck,
acuñó el término selección natural para las variaciones en las especies, aquel tuvo que romper
el paradigma de su tiempo. Hoy la palabra preferida es evolución (teoría de la evolución) y será
la que utilicemos. Es notable que en el primer tomo de El origen de las especies, el responsable
mayor de esa teoría no emplee el término evolución una sola vez, y es bien sabido también
que Planck en su primera conferencia ante la Sociedad Prusiana de Física, en octubre, no
utilizó la constante h que lo hizo famoso; abrigaba la ilusión de que su desesperada hipótesis
de la cuantización de la energía fuera provisional; al fin y al cabo, el valor de la constante, por
ende el valor de los paquetitos, era algo inconmensurablemente diminuto. Para Darwin, las
variaciones serían extremadamente lentas. Ni Planck ni Darwin imaginaron lo que vendría
después.
La Mecánica Cuántica, como se denominó a la teoría de la física que surgió un cuarto de siglo
después de que fuera lanzada la desesperada hipótesis, no tiene que ver solamente con
diminutos paquetes de energía sino también con otros aspectos. Son fundamentalmente 3
características de la materia toda en su integridad e integralidad, observables en la
microescala: discreticidad, ondulatoriedad y coherencia, las que marcan la pauta del
comportamiento cuántico. Las dos primeras son antagónicas en la lógica clásica, mientras que
la tercera se refiere a una situación que raramente se presenta en el macrocosmos, pero que
da lugar a resultados sorprendentes.
Para empezar, la discreticidad es sinónimo de discontinuidad, mientras que la ondulatoriedad
lo es de continuidad. A las partículas que creíamos elementales, como el protón y el neutrón, y
a las que lo siguen siendo, como el electrón y el fotón, les denominamos genéricamente
corpúsculos, nombre sugerido por Joseph J. Thomson (1856-1940), lo mismo que a átomos,
moléculas y otros objetos diminutos. El término es, pues, ambiguo, pero invariablemente hace
referencia a elementos discretos en el sentido matemático. No se puede hablar de medio
electrón ni de medio fotón. Aunque no es posible disponer de medio átomo, es claro que ese
objeto dejó de ser indivisible, pero sus partes o componentes son discretas. Cada una de esas
componentes discretas es idéntica para todos los casos: un electrón es indistinguible de todos
sus congéneres y así sucesivamente, hasta constituir por ejemplo los átomos de una sustancia,
todos idénticos entre ellos. Por el contrario, una onda sonora en el aire o en un medio material
cualquiera se supone continua, y el sonido lo es para todos los efectos prácticos. Una onda se
modifica o evoluciona en el tiempo y en el espacio. Si se examina más en detalle, la
propagación de la onda sonora en el aire no es más que resultado de la interacción entre los
corpúsculos atómicos o moleculares que componen el medio, el cual obviamente no es un
compuesto sino una mezcla de diferentes gases. Algo muy diferente ocurre con las llamadas
ondas de luz, la radiación electromagnética, como se subrayará a lo largo del texto. O con las
ondas de materia, en donde el concepto mismo de onda pierde su materialidad. Los
corpúsculos de materia pierden su realidad mientras no observemos o colapsemos la onda que
los describe, como veremos.
Preferimos asimilar el término coherencia al de cooperación, aunque no necesariamente
redundan en lo mismo. De cooperación se tratará en algunas ocasiones, particularmente
cuando de especies vivas hablemos, mas veremos que es un fenómeno universal. En otras
ocasiones, estableceremos simplemente una correlación, como suele hacerse
estadísticamente. Este último término, correlación, merece un examen más cuidadoso, lo que
haremos en tomos posteriores.
Así como hay 3 características de la fenomenología cuántica, hay también 3 pilares de la que es
versión dominante en su formulación teórica. Esa versión se suele denominar interpretación de
Copenhague, y sus pilares básicos son: un ente matemático denominado función de onda, la
que tiene a su vez una interpretación probabilística y dos principios básicos a saber, el
principio de incertidumbre o incerteza y el principio de superposición; los dos están
emparentados con un tercer principio, el de complementariedad.
A los principios volveremos en el capítulo quinto. Retornemos al darwinismo, al que
volveremos a fondo en el tercer tomo. Tal como ocurriría con el término quantum aplicado a lo
pequeño, a la postre tampoco la palabra evolución quedó reservada para las grandes especies.
Es de aclarar que en la obra de Darwin el término grande se refiere a población abundante;
incidentalmente, Darwin estudió solo objetos macroscópicos, como lo hizo Planck. ¿Qué son
objetos macroscópicos? Son los que tienen dimensiones apreciables, como para poderlos ver o
examinar a simple vista. Durante el siglo XX, la cuantización y la evolución se manifestaron más
claramente a escala microscópica. Cuando se pudo indagar con instrumentos más poderosos, a
un nivel cada más profundo, se encontró que en las formas más elementales de la vida se da la
evolución o variación de la hoy denominada herencia genética. De la misma manera se
descubrió, utilizando las más modernas técnicas y los recientes observatorios y telescopios
espaciales, que en el interior de las estrellas, al interior de las galaxias y en las profundidades
del espacio tiempo, a la vez que priman fenómenos cuánticos se producen transformaciones
descomunales: el universo no solamente se expande, sino que lo hace cada vez más
vertiginosamente. ¿Será que todo en el universo evoluciona, incluso lo que creíamos absoluto?
Es posible, nadie lo sabe, que las llamadas constantes fundamentales hayan tenido esa
característica evolutiva desde lo que pudiera llamarse, por simplicidad o por ignorancia, el
comienzo de la aventura. ¿Podemos hablar con propiedad de un darwinismo universal? ¿Es
real el darwinismo cuántico? Dejaremos al lector que saque sus propias conclusiones. Pero
queremos anticipar que los denominados efectos cuánticos se manifiestan a todas las escalas y
en el universo entero. La evolución se da al cruzar la barrera de lo cuántico a lo clásico, de lo
microscópico a lo macroscópico, de la reversibilidad a su contrario, la irreversible flecha del
tiempo que opera desde los agregados moleculares hasta las desmesuras cósmicas.
Hemos sido producto de una evolución biológica de miles de millones de años. Nuestros
ancestros más cercanos son los denominados primates. El homo habilis y el homo erectus
(probablemente antes que ellos el homo naledis) precedieron al homo sapiens en dos o más
millones de años. El neanderthal, que convivió con la especie humana por más de doscientos
mil años, se extinguió hace cerca de treinta mil; se arguye que una de las razones pudo ser el
poco desarrollo de su sociabilidad. A juzgar por los daños irreversibles que seguimos
produciendo en el medio ambiente y el relativamente poco desarrollo de sentimientos de
solidaridad y sentido de cooperación en la especie humana, podría anticiparse que nuestra
extinción también se acelera. ¿Será que SAPIENS es la expresión correcta para referirse al
gran depredador que conocemos y con el cual, querámoslo o no, tenemos que identificarnos
cada uno de los siete mil y más millones de ejemplares que compartimos el planeta Tierra?
Regresemos a la cuantificación. Sería absurdo hacer alusión siquiera a una fracción de hombre.
O se es o no se es. En ese sentido, la pregunta ¿cuántos somos?, se responde con un número
entero positivo, generalmente plural: 2, 3, 10 o un número natural cualquiera, incluido el 1.
Pero esos 2, con mucha más razón los 3 o 10, etc., ya no son idénticos, a diferencia de lo que
ocurre con las partículas elementales. El concepto de objetos idénticos, inicialmente
matemático, se vuelve realidad en ese mundo de partículas, pero se disuelve a medida que los
objetos se vuelven más complejos, tema al que también volveremos en la tercera parte.
El vacío nos extiende el dominio al cero, jamás a los negativos (aunque enseguida diremos lo
contrario), mucho menos a los fraccionarios (pero hay efectos cuánticos fraccionarios) o a los
i a io ales… o a los i agi a ios, que los hay, no necesariamente los seres ideales. Ya veremos
que del vacío cuántico sí pueden surgir todo tipo de partículas. Con energías negativas
surgieron las antipartículas. Así lo hizo Dirac, abriéndole espacio (y tiempo) a la antimateria.
Pero, ¿qué es el vacío? Antes de intentar una respuesta a esta última pregunta, vale la pena
hacerse otra que en cierto modo es la antítesis de la anterior: ¿Qué es el Universo?
Provisionalmente dejémoslo con mayúscula para darle una mayor connotación y diferenciarlo
del uso genérico que haremos del término. A la comprensión de ese Universo no pretendemos
aportar mucho, más bien poco o casi nada. Sobre él se ha reflexionado desde tiempos
inmemoriales. Alguna interpretación de la teoría cuántica nos habla de multiversos. Esto no
será asunto que nos incumba, por ahora; antes de abordar el universo cuántico, vale la pena
recordar aquí lo que afirmara una de las más interesantes escuelas presocráticas, la epicúrea.
Según Demócrito, solo los átomos y el vacío son reales . En esa concepción, los átomos son
indivisibles, por ende están cuantificados. La realidad está compuesta por dos causas (o
elementos): το ο (lo que es), representado por los átomos homogéneos e indivisibles, y το
ηο (lo que no es), representado por el vacío, es decir, aquello que no es átomo, el elemento
que permite la pluralidad de partículas diferenciadas y el espacio en el cual se mueven. Los
átomos se distinguen por su forma, tamaño, orden y posición. Gracias a la forma que tiene
cada átomo, estos pueden ensamblarse —aunque nunca fusionarse: siempre subsiste una
cantidad mínima de vacío entre ellos— y formar cuerpos que volverán a separarse, quedando
los átomos libres de nuevo hasta que se junten con otros.
Leucipo, Demócrito y sus discípulos sostuvieron que la luz y los átomos están estrechamente
conectados. Para ellos la luz sería un flujo de partículas extremadamente diminutas. Veintitrés
siglos después Einstein agregaría que esas partículas, granos de energía, se mueven siempre a
la misma velocidad. ¡No todo es relativo! Pero la idea original de los primeros atomistas
sobrevive: esas diminutas partículas o quanta, son emitidas o absorbidas por los átomos o los
compuestos a que estos dan lugar: otros quanta, en el sentido postmoderno del término. Solo
los quanta y el vacío son reales. (Con una condición: para hacerlos reales, en el sentido clásico
del término, se requiere de un observador.)
Y si volvemos al concepto ideal de partículas idénticas, debemos reparar en el hecho de que, si
bien un electrón, para ilustrar el caso más sencillo, es idéntico a otro, dos fotones de diferente
color ya no lo son: sus energías son diferentes. En cambio los fotones de un haz coherente,
como lo es el denominado rayo LASER, o haz de luz producido por emisión estimulada de
radiación, que es lo que significa la sigla en inglés (light amplification by stimulated emmision
of radiation) en principio son todos idénticos, no solo en su frecuencia (energía) sino también
en su cantidad de movimiento. El electrón, como ejemplo de partícula material, y el fotón,
prototipo de energía pura, difieren en otras características, una de ellas, la más importante
desde el punto de vista cuántico, es que el primero es un fermión, mientras que el segundo es
un bosón. Los fermiones obedecen un principio fundamental que los hace diferentes, el
principio de exclusión. El significado de todos estos términos se aclarará a su debido tiempo.
Más allá de la dialéctica
En principio es posible referirse a una internalidad, de un lado, y a una externalidad, del otro.
Eso es solo en principio. La cinta de Möbius es un ejemplo en contra de esta idea clásica. Por
cierto, el símbolo de Buinaima vino de esa topología matemática, aplicada primero al trívium
(un runa vikingo), después al pentivium (nuestro árbol del conocimiento, como le llamaremos).
También en principio nos podemos referir al aquí y al ahora; el problema es que el espacio
(aquí) y el tiempo (ahora) son relativos. Asumimos que ellos, espacio y tiempo, tal como los
concebimos, son continuos. Ingenuamente supusimos que eran absolutos. Desde muy antiguo
se supuso también que eso que podríamos llamar universo, el conjunto de la materia en el
espacio-tiempo, era continuo. Esa suposición fue puesta en tela de juicio más de una vez hasta
que se llegó a la época moderna y se pudo intentar ir más lejos que simplemente suponerlo.
Nació así la ciencia moderna. En esa ciencia moderna, tal y como fue evolucionando a lo largo
de unos pocos siglos, surgieron la nueva astronomía (la antigua estaba fuertemente
emparentada con la astrología), la física (la que empezó con Aristóteles no estaba del todo
desligada de la metafísica), la química (la que poco a poco se fue separando de la alquimia), la
biología (aunque todavía no estamos seguros dónde empieza la vida, la biología sintética es ya
un hecho) y tal vez otras que con el tiempo podrían volverse básicas (hablamos, por ejemplo,
de las neurociencias, y abrigamos la esperanza de que pronto ellas nos resuelvan algunos de
los misterios relacionados con la mente y la conciencia); en matemáticas se logró un desarrollo
como nunca antes había ocurrido. Finalmente se encontró que tampoco ellas son
rigurosamente ciencias exactas, aunque no hayan perdido su carácter formal. Se tiene ahora
una imagen mejor del universo, tal como lo conciben los cosmólogos modernos, y de sus
constituyentes, como lo imaginan (imaginamos sería mucha pretensión) los científicos.
Resumamos.
Antes de que pudiera zanjarse la discusión sobre el problema de si la materia es continua o
discontinua, se desarrolló la mecánica, a finales del siglo XVII. Los 2 siglos siguientes vieron el
desarrollo de la electricidad y el magnetismo, o el electromagnetismo, como se le denominó
más tarde, o la electrodinámica (ED), como preferimos denominarla hoy. A finales del siglo XIX
quedó claro que también la luz, energía radiante, forma parte de la materia. Pero se tenía
entendido que había partículas o corpúsculos, por un lado, y ondas por el otro. Las ondas
materiales, por ejemplo el sonido, las ondas en las cuerdas o en el agua, etcétera, requerían de
un medio para avanzar. La luz, una onda muy singular, podría viajar en el vacío, pero ese vacío
estaría lleno de un éter, un no-vacío, una sustancia con propiedades muy extrañas que
permearía todo y podría servir como sistema de referencia absoluto. Por lo demás, durante el
siglo XIX se desarrolló la termodinámica y la mecánica estadística, dos versiones en contravía
de una misma teoría que a la postre produce los mismos resultados; del continuum
termodinámico que imagina el calor como una sustancia, se llega al discontinuo mundo de
granos de materia (supuestamente los átomos) que, al moverse o agitarse, dan lugar a ciertos
grados de libertad que explicarían el calor específico de gases, líquidos y sólidos, en estos
últimos sin mucho éxito.
A fines del siglo XIX la tarea de los físicos ya habría concluido. ¡Falsa ilusión!, como veremos. El
primero en percatarse de que la idea de un continuum conducía a grandes dificultades, al
menos de momento insalvables, fue Planck. Luego Einstein echó por tierra la idea de un éter
luminífero e introdujo por primera vez el concepto de dualidad onda-corpúsculo para la luz.
Introdujo también una nueva concepción del espacio-tiempo y de la gravitación, modificando
de paso las leyes de la mecánica newtoniana, o mejor, la concepción mecanicista del universo.
Buscó desesperadamente una teoría en términos de campos que fuera unificada, que
permitiera unificar los fenómenos a un nivel fundamental y cosmológico. Esto último no lo
logró, pero al menos trasladó a la luz, al electromagnetismo, el papel de mensajero de las
interacciones y por ende vehículo apropiado para la propagación de la información, de las
señales no solo luminosas, también las microondas y los rayos X y otras ondas que deberían
ser a la vez partículas o granos de luz, en el espectro visible, o granos de energía en el caso más
general.
Por el lado de la química, la hipótesis atómica había ganado credibilidad, pero seguía siendo
una hipótesis sin fundamento para físicos tan destacados como Mach y Ostwald, algo
totalmente inverificable, como el supuesto éter. Lo cierto es que esa hipótesis había servido
para entender muchas reacciones químicas, construir la Tabla Periódica de los Elementos y
desarrollar nuevos procesos industriales. De la espectroscopia, tan útil en la exploración de la
materia, no se entendían sus fundamentos: ¿por qué los espectros de los elementos y de los
compuestos, tanto de absorción como de emisión, vienen constituidos por líneas discretas?
Para entenderlo, fue necesario introducir el concepto de dualidad onda-corpúsculo, primero
para la luz, un hecho aceptado inicialmente por Bohr, también para el electrón, una atrevida
propuesta de un noble, estudiante de doctorado, el príncipe Louis Víctor de Broglie (1892-
1987).
Surgieron entonces mejores microscopios, los electrónicos y los atómicos, y nuevos
telescopios, en todo el espectro, incluida la región de las microondas. Así como el telescopio
aportó observaciones valiosísimas para la astronomía y el desarrollo de la mecánica, en la
biología los nuevos microscopios facilitaron el surgimiento de teorías y modelos que poco a
poco se fueron perfeccionando. De la misma manera que el primero sirvió para construir los
modelos iniciales sobre el sistema planetario y el universo mismo, el microscopio óptico dio
lugar a una de las teorías más exitosas de la humanidad: la teoría de la evolución, primero de
las especies, después de todo lo demás, con ayuda de más modernos microscopios y otros
instrumentos, como el llamado STM (por sus siglas en inglés, scanning tunneling microscope) o
microscopio de efecto túnel, en realidad una punta tan fina que usualmente termina en un
átomo individual capaz de interactuar con otro átomo que pertenece a la superficie explorada
con la punta. De la física de la materia sólida se pasó a la ciencia de superficies.
La universalidad de los quanta y la evolución cultural
Aunque su título sugiere todo lo contrario, este primer tomo es más un libro sobre los
QUANTA que sobre el HOMO. El subtítulo es más específico. Más exactamente, nos
referiremos a los cuantos (quanta, ahora sustantivados) y a sus implicaciones para el hombre.
El conjunto es entonces solo parcialmente un ensayo sobre la evolución de la ciencia, en sus
fundamentos y conceptos, particularmente en la física, tema que extenderemos en el segundo
tomo a las aplicaciones muy recientes y otras que vienen en camino de su teoría más precisa;
la evolución se trasladará en el tercer tomo al cambio cultural, a la transformación de las ideas
en otros terrenos científicos y a los cambios globales de una evolución o revolución cultural sin
precedentes. Partimos de la convicción de que la física es la ciencia básica por excelencia. Esta
no es una posición de físico prepotente: es el reconocimiento de que el universo es el ente
físico por antonomasia. Por eso se puede afirmar que el rango de acción de las ciencias físicas,
en plural para evitar malos entendidos, es el universo entero, desde las aun inexploradas
regiones internas de las partículas llamadas elementales (lo escribimos de esta manera para
curarnos en salud) hasta lo que vagamente se denomina los confines del universo. Si esto es
así, no es de extrañar que algunos consideren a la química un capítulo de la física, al menos en
ciertos aspectos básicos ligados a la mecánica cuántica. Hoy se cree que la biología tampoco
escapará a ese proceso de cuantización de la ciencia. Especificaremos más adelante qué se
quiere significar con este término. No está por demás aclarar que la ciencia es un constructo
cultural. A diferencia de otros constructos, su validación es de carácter universal, vale decir,
refrendada por pares que pertenecen a diversas culturas desde el punto de vista
antropológico. Así pues, a menos que se especifique de otra manera, cuando se hable de
evolución cultural, se hace referencia a la evolución de las ideas y de los conceptos científicos.
Al razonar sobre la estructura y constitución del universo y sobre su posible evolución,
estamos utilizando una función del cerebro que algunos difícilmente aceptarán sea apenas un
resultado de la evolución biológica: nos referimos a la conciencia. Llamamos conciencia a un
estado mental que permite a cada uno de nosotros identificarnos como individuos. Y si es un
estado mental, un estado dinámico funcional del cerebro, ¿podemos hablar por separado de la
mente? Se requiere de un cerebro para tener mente y conciencia. No podría ser de otra
manera. En palabras de Eric Kandel, premio Nobel 2000 en fisiología y uno de los más
prestigiosos neuro-científicos del momento, entender la base biológica de la conciencia y los
procesos cerebrales por los cuales sentimos, actuamos, aprendemos y recordamos es el último
reto de las ciencias biológicas. (Kandel, 2013.) En la presente década y las próximas, los
avances en esa dirección son de los más promisorios en el terreno científico.
Cuando se habla del sapiens, se evoca de inmediato a un ser inteligente. Las tecnologías de la
información y la comunicación, a las que abreviaremos por la sigla t.i.c. (en minúscula, ya
argumentaremos por qué), han dependido fundamentalmente de un concepto de inteligencia
que no está asociado al ser humano, ni siquiera a algún ser vivo. Por eso se le denomina, y tal
vez sea el término más adecuado, inteligencia artificial, IA. Es menos claro lo que se entiende
por vida artificial. Lo que sí resulta claro para todos es lo que Lamarck, Darwin y Wallace
descubrieron hace ya cerca de dos siglos: la evolución de las especies. El título que el segundo
escogió para su obra clásica hace alusión a algo más fundamental, el origen de las especies.
Por supuesto, se refería a las especies vivas. Pero: ¿Qué es la vida? Schrödinger, casi un siglo
más tarde, daría precisamente ese título a una obra que en su momento causó gran
conmoción, resultado de sus conferencias en el Trinity College (en Dublín, 1943) sobre la
relación entre física y biología, en particular física cuántica y genética. La respuesta de
Schrödinger no es concluyente. La nuestra tampoco pretende serlo, a pesar de que ha habido
grandes avances desde entonces en la búsqueda de una respuesta convincente. Ahora se
habla, cada vez con mayor desparpajo, de biología cuántica; hay ya una segunda edición de un
texto que sirvió de acicate para una iniciación en el tema, Quantum Evolution (McFaden,
2016).
Efectivamente, hemos avanzado mucho en poco más de medio siglo. Para empezar, en 1949
Claude Shannon introdujo un nuevo ente físico cuantificable: la información. Cuatro décadas
más tarde fuimos advertidos por John Archibald Wheeler de que la información es más
fundamental que la materia y la energía: it from bit. Hoy hablamos con entera convicción del
procesamiento cuántico de la información. Este es en esencia el contenido de la segunda
revolución cuántica. ¿Existe alguna relación entre la información biológica o genética
contenida en el ADN y la información traducida a bits y qubits? Quisiéramos poder contribuir a
dilucidar este asunto, aunque es preciso advertir al lector que quizá no lo logremos.
Empecemos por el comienzo de la ciencia moderna. En la visión clásica newtoniana,
comúnmente confundida con el mecanicismo, el universo tendría forma esférica y nosotros
ocuparíamos un lugar central, solo hasta cierto punto. Aristarco de Samos fue el primer gran
visionario que develó ese telón antropocéntrico. Posteriormente lo hizo Copérnico, y con él
surgieron las primeras ideas que abrieron camino a la física propiamente dicha. Vinieron
después Galileo, Kepler y muchos más gigantes, como los anteriores, que abrieron el camino a
un «genio entre genios», Isaac Newton. Hubo que esperar dos siglos más para que pudiera
resolverse la gran inquietud que no dejó en paz a Newton: la acción a distancia. Newton, a
pesar de sus profundas convicciones religiosas, logró forjar un esquema de pensamiento
dentro del cual todo en el universo está sometido a unas mismas leyes. Dar el paso siguiente le
correspondió a Darwin y otros, en la biología. Y Maxwell, por la misma época, lo dio desde la
física, con tremendas repercusiones en las demás ciencias y tecnologías, apenas emergentes.
Maxwell encontró su demonio. Aunque no lo llamó así, Darwin también tiene el suyo, o los
suyos, como nos lo explica Eugenio Andrade en Los demonios de Darwin (2003.) Quizá
podamos referirnos metafóricamente también a los demonios cuánticos. El IGUS (Information
gathering using system) desempeñaría ahora ese papel.
La línea evolutiva de pensamiento que claramente distinguió a los presocráticos materialistas
de otras escuelas idealistas, incluida la platónica post-socrática, se vio interrumpida por más
de un milenio. Para que surgiera la ciencia moderna fue necesario inventar instrumentos que
dilucidaran en el terreno experimental la discusión sobre la continuidad o no de la materia.
Esto ocurriría más claramente en el siglo XIX. En las ciencias sociales, correspondió a Marx y
Engels descubrir la capacidad de la dialéctica para explicar los saltos en la historia que llevaron
a diferentes esquemas de producción. No abordaremos este tema, a pesar de su interés, para
no desviarnos del propósito fundamental de estas notas, mas es indispensable advertir al
lector de su importancia y trascendencia.
Ingresamos al siglo XX haciendo un examen de lo que quedaría por descubrir. En física, se
decía, nada. Salvo dos nubarrones a los que volveremos antes de la tormenta, la física estaría
concluida. En matemáticas, se pensó, faltaría poner un orden lógico. No es este el espacio para
referirnos a lo que resultó del examen de los fundamentos o Principia Mathematica. Kurt
Gödel se encargaría de bajarle el perfil a las pretensiones de la matemática de ser una ciencia
exacta. En física, la situación resultó ser doblemente pobre. Del examen de sus fundamentos
surgieron las dos nuevas teorías a las que hemos abreviado QT y GT. Reducirlas a una sola es
una tarea pendiente.
En este orden de ideas, después de una recapitulación que no pretende ser el recuento
histórico sobre lo que pensamos hoy, veamos qué nos llevó al asunto del que tratará este
ensayo en varios tomos. La historia resumida del desarrollo de las ideas previas en física forma
parte de la evolución cultural a que hemos hecho referencia y se posterga como una
introducción a la primera parte.
Motivaciones intrínsecas y extrínsecas
Dadme las condiciones iniciales y yo os di é ha ia dó de a la e olu ió . (Autor imaginario.)
Afirmaciones como esta, con distinta factura, fueron la cumbre del mecanicismo. Arquímedes
fue uno de los grandes pioneros de una tierra estacionaria; de ahí la frase que le ha sido
atribuida con respecto a las palancas. Pero el universo evoluciona, siguiendo unas leyes
supuestamente muy precisas. En palabras de Henri Poincaré, a finales del siglo XIX, parecía
claro que:
«Si conociéramos exactamente las leyes de la naturaleza y la situación del universo en el momento
inicial, podríamos predecir exactamente la situación de ese universo en un momento subsiguiente.»

Esas leyes no son más que las leyes del movimiento de Newton, complementadas con las
ecuaciones de Maxwell, o las que correspondan después de hacer las correcciones adecuadas
en el régimen relativista.
Mas lo anterior no es del todo cierto. Tampoco lo fue el paradigma newtoniano, ni siquiera con
las correcciones introducidas por Einstein. Desafortunadamente las condiciones iniciales bien
pueden ser una entre 101000 o más posibilidades; y el punto de llegada depende fuertemente
del modelo que se utilice. Afortunada o desafortunadamente, el punto de partida del
mecanicismo es incorrecto: la evolución no está determinada de antemano. ¡Es posible
también que exista el libre albedrío!
Se sabe que una muy pequeña desviación en las condiciones iniciales puede dar lugar a
enormes variaciones en la evolución del sistema. Esa observación fue el comienzo de la teoría
del caos, de las ciencias de la complejidad y de los sistemas complejos, en la primera de las
cuales Poincaré es el indiscutible pionero. Prosigue Poincaré:
«Pero aun si fuera el caso de que las leyes naturales no guardaran ningún secreto para nosotros, solo
podríamos conocer la situación inicial aproximadamente. Si eso nos permite predecir la situación
subsiguiente con la misma aproximación, eso es todo lo que requerimos, y diríamos que el fenómeno ha
sido predicho, que es gobernado por las leyes. Pero no siempre es así; puede ocurrir que pequeñas
diferencias en las condiciones iniciales produzcan variaciones muy grandes en los fenómenos finales. Un
pequeño error en las primeras producirá un enorme error en los últimos. La predicción se vuelve
imposible, y obtenemos el fenómeno fortuito.»

También se sabe que un estado evoluciona hacia cualquiera de los estados posibles, aunque
haya unas evoluciones más favorecidas que otras. Esto es consecuencia de la mecánica que
sustituyó al mecanicismo, la Mecánica Cuántica, una teoría fundamentada en el principio de
indeterminación, comúnmente denominado de incertidumbre, y en la cuantización o
discretización de las cantidades físicas medibles u observables. A propósito, fue Poincaré el
primero en demostrar matemáticamente la equivalencia entre la cuantización de la energía y
el valor finito de la energía de la radiación de cuerpo negro.
Se sabe además que ignoramos la composición y organización exacta del sistema, es decir, su
preparación, y la información que de él disponemos es incompleta. A modo de ejemplo, hoy
sabemos que el 95 % del universo está constituido por energía obscura y materia obscura. De
la primera, solo tenemos vagas ideas sobre su posible composición. Puede afirmarse que sobre
el cerebro, la mente y la conciencia sabemos mucho menos. ¿Cuál es, entonces, el poder
predictivo de la ciencia? ¿Hasta dónde podemos confiar en ella? Aunque incompleta, es lo
mejor de que disponemos para una descripción e interpretación del entorno, del conjunto o
del universo y de su evolución. Veremos que deben tenerse en cuenta otras limitaciones al
conocimiento, además de las anteriores.
La epistemología, o la más general, gnoseología, estudia el origen del conocimiento y su
validación o negación. A partir del enfoque propuesto por Thomas Kuhn, durante un tiempo se
supuso que pasamos de uno a otro paradigma, en esencia modelos aproximados sobre la
realidad. Se suele hablar también de teorías, o modelos más refinados. Pero evidentemente
una teoría sucede a otra que no pudo dar cuenta de fenómenos observados posteriormente o
que se escaparon a la observación, o más sencillo: se hicieron predicciones equivocadas y hubo
que desechar la teoría. Fueron algunos físicos, no todos, quienes supusieron que algún día
habría de encontrarse la teoría del todo, la ecuación del universo, o en el lenguaje de sus
predecesores, místicos o alquimistas, la piedra filosofal. Esta idea ha sido una quimera, buena
y útil en la medida en que impulse la investigación científica, pero solo ha servido para
encontrar al final una medida o estimativo de nuestra ignorancia. Reconociendo sus
limitaciones, la ciencia y sus métodos ha sido lo mejor que hemos podido concebir para
describir e interpretar el universo, de paso predecir su comportamiento futuro. Las
matemáticas han sido la mejor herramienta.
A pesar de lo escrito en el párrafo anterior, es bueno examinar lo que entienden por una teoría
final quienes impulsan este concepto. Nos dice Weinberg (1992):
«The dream of a final theory did not start in the twentieth century… We do ot eall k o u h a out
what the pre-Socratic were taught, but later accounts and the few fragments that survive suggest that
the milessian were already searching for an explanation of all natural phenomena in terms of
fundamental constituents of matter».* (Weinberg, 1992.)

Así entendida, como un principio regulador u orientador, es alentador pensar en una teoría
final, si es que se puede llamar de esa manera. Quizá algo cercano a esa imagen nos ayude a
entender quiénes somos, de dónde venimos y para dónde vamos.
Desde su aparición, después de un largo y prolongado proceso evolutivo, cada uno de los
representantes del homo sapiens ha desarrollado una conciencia individual que lo hace único
en su especie. Hoy sabemos que otras especies tienen también conciencia. En la denominada
Interpretación de Copenhague de la Mecánica Cuántica se pone de relieve el papel de un
observador consciente en el proceso de medida. En la literatura reciente es fácil encontrar
varios ensayos con un título más o menos común, Conciencia cuántica, o Física cuántica de la
conciencia. En general, el título es controversial y su contenido suele serlo mucho más. No es al
esclarecimiento o profundización de esa polémica a lo que queremos aportar con el presente
texto. El adjetivo quantum aplicado al sapiens sustantivado en este escrito, se refiere a dos
aspectos separados: al rol de la nueva física, la cuántica, en el surgimiento de tecnologías que
requieren de ella para su desarrollo, y al papel que pudo haber desempeñado y puede seguir
desempeñando la fenomenología cuántica a nivel fundamental, en procesos elementales que
son de trascendental importancia para la vida misma, aunque no necesariamente para su
aparición; debieron serlo, eso sí, para su preservación y evolución, no solo la biológica sino
también la cultural, en la que pondremos el énfasis de nuestro aporte.
La evolución cultural es lo que ahora está en juego para el Sapiens. Asistimos a un gran
momento histórico en el que la revolución científico-técnica está transformando, para bien y
para mal, nuestro planeta y nuestras vidas, nuestras formas de pensar y de actuar, nuestras
relaciones familiares y sociales, nuestras posibilidades, potencialidades y capacidades. La
contribución de lo que denominaremos física cuántica y sus aplicaciones a esa transformación
es descomunal, por decir lo menos. También el universo se transforma, aunque
aparentemente de manera más lenta, a escala cósmica cada vez a mayor celeridad, y con ello
tiene que ver igualmente la fenomenología cuántica; ese último aspecto, el quantum y la
evolución del universo, lo tocaremos solo tangencialmente en este primer tomo. Es más,
queremos subrayar desde ya que la fenomenología clásica, a cuya explicación pretendió dar
respuesta el mecanicismo clásico o paradigma newtoniano, tiene también como fundamento
el quantum, en el sentido original de Planck o en el más refinado de Einstein, como
aclararemos después.
En ese contexto hay que hablar en general de la evolución de la ciencia y en particular de la
evolución de la física, del paso de la física mecanicista no relativista a la clásica relativista, a la
cuántica y a la cuántica relativista. Se sigue buscando con gran expectativa una formulación
cuántica de la gravedad. ¿Será posible una teoría del todo? En nuestra opinión, es solo la
pedantería de algunos físicos la que lleva a imaginar que estamos próximos a conocer todo lo
que hay que conocer. Los límites del conocimiento mismo se agrandan cada vez más y hacen
más visible nuestra ignorancia.

*
El sueño de u a teo ía fi al o e pezó e el siglo XX… Realmente no sabemos mucho acerca de lo que
estuvieron predicando los presocráticos, pero hallazgos posteriores y fragmentos que les sobrevivieron
sugieren que los milesios ya estaban en la búsqueda de una explicación de todos los fenómenos
naturales en términos de los constituyentes fundamentales de la materia.
No hay una clara línea divisoria entre los dos mundos, el cuántico y el clásico, por más que
pretendamos conocer las leyes que rigen el comportamiento en los extremos. Es en ese
sentido que retomaremos un término cada vez más en boga, Darwinismo cuántico, para
referirnos al paso de lo puramente cuántico a lo clásico, particularmente en sistemas
complejos, en especial los más complejos de todos, los sistemas vivos. Creemos que es posible
comunicar estos aspectos en un lenguaje comprensible para una audiencia o un lector que no
tiene formación en física más allá de la que se proporciona en la enseñanza media.
Como una motivación adicional para escribir estas páginas, se ha tenido en cuenta que las
tecnologías todas dependen cada vez más, en diversas formas, de las aplicaciones de la Teoría
Cuántica, sin lugar a dudas la teoría más amplia y profunda, la teoría física más exacta,
cualitativa y cuantitativamente, hasta donde el Principio de Indeterminación lo permite.
Además sus implicaciones, para lo que podríamos denominar el propósito trascendental de la
física, como interpretación del Universo y de sus partes, son dignas de tenerse en cuenta por
cualquier ser racional. Esos dos aspectos, aplicaciones e implicaciones, en otras palabras,
contribuir a examinar el impacto de la cuántica o del quantum sobre el homo sapiens en su
vida diaria y a su reflexión en la búsqueda de caminos alternativos para su devenir histórico, es
lo que intentaremos con este y futuros ensayos. Es demasiado ambicioso el propósito que
motiva nuestra incursión en la nueva física, por lo que no es para desmayar si la tarea, como es
altamente probable, queda inconclusa. Autores y lectores podremos quedar tranquilos si el
cometido se logra parcialmente.
En efecto: así como para reconocer el papel y el significado de la conciencia no se requiere de
mayores conocimientos de biología, para imaginar la trascendencia que tendrán en el futuro
de la humanidad las tecnologías convergentes, emergentes y disruptivas no será necesario
saber mucho de mecánica cuántica. De hecho, todavía no es claro el papel de la biología en la
conciencia, mucho menos el del quantum; y si quisiéramos resaltar en primer término la
información dentro de las tecnologías emergentes, para la mayoría de los lectores no solo es
extraño asociar información con física cuántica sino que es desconocida, ignorada por casi
todos a nivel general, salvo por los especialistas, una posible relación entre esta última teoría y
las tecnologías mencionadas.*
Pareciera pues que, en contravía de lo prometido, de un lado sometiéramos al lector al
desconcierto de lo desconocido y del otro estuviéramos utilizando un lenguaje demasiado
abstracto para el lector no especializado. Para tranquilidad de este último, si bien nos
referiremos a menudo a aspectos generales y en ocasiones vagos, nuestras pretensiones de
suministrar un bagaje conceptual cuántico son mucho más modestas, por lo que emplearemos
la mayor parte de este primer volumen a ilustrar al menos los conceptos cuánticos (y en el
apéndice los clásicos) en boga, dándole un sentido más tutorial y auto-contenido a estas
páginas y las que le seguirán.
En síntesis, repitámoslo de nuevo en otra forma, en este primer tomo intentaremos acercar al
lector a la fenomenología cuántica partiendo de los conceptos clásicos, contrastándolos con

*
No hay total acuerdo sobre lo que se entiende por tecnologías emergentes o convergentes, la
denominación misma es ambigua. De ellas no puede excluirse la nanotecnología, importante en todas
las demás. Por simplicidad, mencionaremos las 4 básicas, a saber: N-B-I-C, en su orden nano, bio, info y
cogno, incluyendo en esta última las que tienen que ver con la cognición, en primer término para el caso
la inteligencia artificial, sin descartar la(s) otra(s).
los nuevos conceptos cuánticos y sin recurrir al formalismo matemático. Esto nos permitirá
abonarle el terreno para que entienda, del segundo tomo, al menos los cimientos de las
nuevas tecnologías que en ella se fundamentan sin caer en la trampa del esoterismo. Este está
más alejado de los conceptos cuánticos de lo que están los clásicos que les precedieron,
aunque es necesario advertir que hemos de divorciarnos de los segundos, los clásicos, si
queremos acercarnos a los primeros, los cuánticos. En cuanto a la pseudociencia, puede
calificarse de oportunismo, mediocridad o negligencia apelar a los primeros simplemente
porque no son aprehensibles en una concepción clásica del mundo, invocándolos para explicar
lo que por ahora resulta inexplicable. En cuanto al contenido del tercero y cuarto tomos, no
queremos comprometernos demasiado por ahora, dejando a los autores que me acompañan
en esta aventura un espacio para sus propias contribuciones, que son muchas.
Justificando un doble calificativo
El título mismo de este ensayo podría parecer extraño, aunque el calificativo sapiens, por sí
solo, no generará ninguna dificultad, dado que todos pertenecemos a la misma especie desde
que los humanos se separaron de los demás homínidos, hace más de 50 mil años;
probablemente puede hablarse de 150 mil. El adjetivo neutro quantum, a pesar de las
suspicacias y hasta temores o tal vez intimidaciones que pueda generar, se ha entendido en
primera instancia como cuantificación en números discretos de cantidades elementales. Por
supuesto es mucho más que eso: se refiere ni más ni menos que a la teoría física más extraña y
contraintuitiva que haya podido producirse, comparable quizá en complejidad a la teoría
general de relatividad, aunque esta es más compleja desde el punto de vista matemático. En
realidad es de esperar que la primera sea más ininteligible, si nos atenemos al vaticinio de uno
de los quantólogos más reconocidos del siglo pasado, Richard Feynman quien afirmara
categóricame te: adie e tie de la e á i a uá ti a . Es por esa razón principalmente, y
por muchas otras que esbozaremos más adelante, por las que vale la pena aclarar para el
lector profano lo que debe entenderse como cuántico, en especial para deslindarlo de la
charlatanería cuántica, cada día más abundante.
Vale la pena intentar una somera justificación del título escogido, como preámbulo al
planteamiento central. Ello nos llevará a explicar mejor las motivaciones que nos impulsaron a
emprender esta labor que pretende ser pedagógica. Después de examinar algunas opciones,
nos hemos decido por el de Quantum Sapiens teniendo en cuenta varias consideraciones,
algunas de las cuales se enumeran y comentan a continuación. La primera está relacionada con
el idioma. Aunque sería demasiado aspirar a que este modesto escrito fuera vertido a varios
idiomas, no es descartable que vea la luz también en inglés. La mayoría de ensayos traducidos
a otros idiomas han corrido con mala suerte cuando se busca que el título refleje en el nuevo
idioma lo que se pretendía en el lenguaje original. Al intentar hacerlo en un latín moderno, no
se considera necesario el cambio del título principal en la posible traducción y eso preservaría
la idea original del ensayo en su totalidad. La mayoría de los lectores sabrá que los textos
científicos clásicos europeos prácticamente hasta finales del siglo XVIII fueron escritos en latín,
y no sobra recordarlo aunque sea con el título. Del subtítulo de los siguientes tomos en
español, segunda revolución cuántica o algo más, nos ocuparemos a su debido tiempo.
La segunda revolución cuántica tiene que ver con la inclusión en la física desde hace más de un
siglo y el significado que desde entonces se da al término quantum, con su rápida extensión a
otras ramas de la ciencia y a sus aplicaciones, más recientemente al campo de la información,
más amplio que el de la informática. Cuando nos refiramos a la información, empezaremos por
examinar su papel a nivel biológico; y cuando mencionemos las aplicaciones o tecnologías que
se derivan de los nuevos conceptos cuánticos, no dejaremos de lado las que se refieren a las
ciencias de la salud y de la vida, sin dejar de examinar por supuesto las llamadas t.i.c.
Pero hay más. Las tergiversaciones que se han hecho de la teoría, extrapolándola a otros
campos del conocimiento o peor aún, al terreno de la pseudociencia, son abrumadoras. Se
habla con el mayor desparpajo de medicina cuántica, y a fe que de lo único que puede
hablarse con rigor es de la nanotecnología aplicada a la medicina, la nanomedicina, en la cual
los efectos cuánticos son abundantes. No por eso puede hablarse de medicina cuántica como
si fuera una nueva ciencia de la salud.
La física cuántica es prototipo de la complejización de la ciencia. En la primera mitad del siglo
XX surgieron nuevas teorías derivadas de las matemáticas aplicadas, particularmente a las
otras ciencias. Se habló así de la teoría de sistemas, de la cibernética y de la teoría de la
información, a la que ya hemos hecho referencia. Cuando hoy se hace alusión a sistemas, se
está casi siempre hablando de sistemas complejos, así que hablar de ciencias de la complejidad
es en esencia trasladarse a ese terreno. El problema de 3 cuerpos, nombre con el que se
conoce la interacción y el consecuente movimiento de 3 objetos, por ejemplo el sistema sol-
tierra-luna bajo los efectos de la gravedad clásica, es un problema complejo. En mecánica
cuántica, el problema de 2 objetos, 2 electrones por ejemplo, es complejo; lo inmediato que
resulta de la interacción de 2 objetos cuánticos es el fenómeno del entrelazamiento. A esos
temas habremos de referirnos, particularmente a este último, del que depende precisamente
la segunda revolución cuántica.
La tercera consideración que se tuvo en cuenta tiene que ver con el sentido de sapiens, como
es fácil imaginar. Sin entrar en discusiones mayores sobre el significado del término, no
parecería aplicarse en rigor muy a menudo. Aceptemos que la especie ha tenido un proceso
evolutivo mayor comparado con sus rivales que le permitió asegurar su primacía. Esto le llevó
a poblar densamente el planeta que lo aloja y a afectarlo mucho más que todas las otras
especies juntas. Para afrontar los retos del momento, cuando todas las especies, incluida la
humana o en el mediano plazo precisamente esta, se encuentran en peligro de extinción, el
recurso del conocimiento acumulado es invaluable, pero mucho más, el uso que de él se haga.
Usarlo apropiadamente para los asuntos que más nos incumben es precisamente la sabiduría,
como la concibieron por ejemplo Bertrand Russell y Sidney Hook. Ella es la que justifica hoy el
calificativo de sapiens, término que no tiene mucho que ver con el de erudito, al que a
menudo denominan sabio en los medios.
No se exagera al decir que la cuántica o el quantum entendido cabalmente es la máxima
expresión del conocimiento acumulado en las ciencias, si se quisiera sintetizar éste en una sola
palabra. Aunque aprehenderlo a fondo está quizá reservado a los expertos, debe haber un
bagaje mínimo en el aprendizaje cultural de cada persona que incorpore la fenomenología y
los conceptos cuánticos. Infortunadamente cuando más se requiere de una formación básica
en ciencias básicas acorde con los paradigmas del momento, se mitifica esa ciencia al punto de
hacer creer al grueso de la población estudiantil universitaria y a los sectores cultos que ni
siquiera podrá aprehender los conceptos elementales del comportamiento cuántico. Pero el
impacto que han causado los contraintuitivos conceptos de la física cuántica son tales, que los
más inquietos y receptivos buscan llenar el vacío con el sensacionalismo característico que
ofrece una literatura no científica, siendo fácil presa de charlatanes de todo tipo. Si en algo
podemos contribuir a llenar ese vacío, habremos satisfecho la pretensión principal. Quizá se
logre, de paso, propiciar espacios para trabajos interdisciplinarios y para la construcción de lo
que se ha denominado una tercera cultura.
Hay todavía más. Ensayos como el Homo Deus, al que nos referiremos más adelante, nos
obligan a profundizar en aspectos que no son tenidos en cuenta en ese tipo de estudios.
(Harari, 2017.) Volvamos a la frase de Sagan sobre la mezcla peligrosa de ignorancia y poder.
¿Pueden hoy asemejarse a dioses unos seres poderosos, arrogantes e ignorantes de lo que a la
postre provoca lo que les confiere su poder? O peor y más cruel. Si el poder del dinero, la
política y los medios, conducentes a la corrupción sin límites, no tienen ya control, en gran
medida por la ignorancia práctica de quienes soportan y padecen ese poder, ¿cuál es el
sentido de la democracia, o de una libertad que tiene como fundamento la trivialidad? Esto
nos lleva a examinar unas máximas que, como propone Gardner, bien vale la pena redefinir:
belleza, verdad, bondad como inspiradoras de la acción. Este tema amerita reflexiones de
nuestra parte que consignaremos en otros espacios. (Giraldo, 2017b.)

Síntesis de la evolución biológico-cultural
A riesgo de repetir lo que la mayoría de los lectores ya sabe, la historia que conocemos,
incluida la prehistoria y lo que le antecedió, comenzó hace aproximadamente 13,750 millones
de años, cuando surgió la materia-energía, el espacio-tiempo y por ende la información. Poco
más de 9 mil millones de años después surgió el planeta Tierra que nos albergaría al cabo de
4,5 mil millones más. Rigurosamente hablando, podríamos afirmar que debemos contarnos
entre los más recientes pasajeros, esa es la palabra, de lo que en realidad es una nave espacial
poblada por las especies vivas conocidas en nuestro sistema solar. Si fuéramos conscientes de
lo que esto significa, tendríamos con ella un mayor cuidado.
Vale la pena detenernos un poco más en el proceso evolutivo del género Homo, que partió de
África hace apenas 2,5 millones de años. En Eurasia dejamos nuestras huellas preliminares por
espacio de 2 millones más, hasta cuando el fuego nos permitió iniciar transformaciones más
fuertes en el entorno y en nosotros mismos. Más recientemente, también en África, surgió el
mal llamado sapiens. Carlos Eduardo Vasco sugiere denominarlo insipiens; el alumno (uno de
los autores) interpretó mal al maestro y se le ocurrió que podría utilizarse el término incipiens
(que apenas comienza), y recordó que Margulis y Sagan, en su clásico texto Microcosmos nos
califican de Homo insapiens insipiens (sin sabiduría y sin sabor). Esta equivocación nos ha
llevado a proponer que se trata de un incipiens insipiens et insapiens. ¡Lo lamentamos mucho!
Para no alargar más una historia bien conocida, recordemos que hace apenas 70 mil años
utilizamos el lenguaje figurado, hace 15 mil colonizamos América, hace apenas 5 mil que
recurrimos a la escritura para acumular información y conocimiento, y que la ciencia moderna
no tiene más de 4 siglos de desarrollo. A pesar de todo, en las últimas 2 décadas hemos
avanzado más que en todos los siglos y milenios anteriores. ¿Será cierto que en unas pocas
décadas más tendremos al superhombre? Es dudoso que lo logremos antes de que
terminemos nuestra desaforada carrera, en la práctica emprendida para aniquilar de paso la
mayor parte de especies vivas sobre la tierra. Léase: crónica de una muerte anunciada. Vale la
pena reflexionar sobre las lecciones que dejan las recientes elecciones (2016) en Estados
Unidos.
Evolución de la física: ¿fin de la historia?
Quizá sepa el lector que Francis Fukuyama escribió un polémico texto titulado El fin de la
historia y el último hombre. (Fukuyama, 1991.) Un breve artículo que lo precedió es: ¿Fin de la
historia? La tesis de Fukuyama de que con la caída del socialismo terminarían las guerras,
gracias a la democracia perfecta encarnada por los Estados Unidos, hoy nadie se atrevería a
sostenerla.
Como un reto para los físicos, Einstein y sus colaboradores de la década de los 30 sostendrían
lo contrario con respecto a la física. Aunque el argumento de Einstein y sus colaboradores,
Podolsky y Rosen, aparentemente proponía una paradoja, en realidad era una crítica a la
mecánica cuántica en forma de pregunta: ¿Puede considerarse completa (la) descripción
mecanocuántica de la realidad física? (Can Quantum-Mechanical Description of Physical
Reality Be Considered Complete?). (Einstein et al., 1935.)
La respuesta de Bohr a la crítica se produjo muy pronto, en un artículo con el mismo título.
(Bohr, 1935.) No obstante, su réplica fue insuficiente; como veremos, el teorema de Bell y la
posterior comprobación de que su desigualdad se cumple, pone a salvo la mecánica cuántica,
mas como teoría no local. Al asunto volveremos antes de terminar la primera parte.
La prepotencia con que algunos científicos y filósofos se expresan, para no mencionar puntos
de vista arrogantes de otros mortales, contrasta con el punto de vista más modesto de
connotados pensadores y divulgadores. Dice John Gribbin, astrofísico y gran difusor del
conocimiento científico acumulado a quien volveremos, en torno al misterio cuántico (2015):
«Si abrimos los brazos todo lo que podemos y consideramos que toda la historia del universo es de la
punta de un dedo a la otra punta, toda la historia de la civilización humana se eliminaría en un momento
si se pasa una lima por una uña. Así de insignificantes somos en el tiempo, y somos igual de
insignificantes en el espacio.» http://www.eduardpunset.es/charlascon_detalle.php?id=6

No e alde os e ue da Ei stei : El ete o iste io del u do adi a e su i teligi ilidad…


El hecho de que sea comprehensible (inteligible) es u ilag o. Hoy sabemos que no lo es en
el sentido clásico, que fue el punto de vista sostenido por Einstein. Pero los autores se atreven
a hacer suyo el párrafo citado: la lectura de varios tomos de lo que se conoce hoy sobre el gran
misterio ha sido una fuente de gozo y satisfacción también para nosotros… de efle ió ,
precisamente porque el avance en el conocimiento (artístico, científico, filosófico, tecnológico
y en todas las otras formas de conocimiento), aunque a menudo doloroso, como lo reconoce
Einstein, es prometedor y estimulante; algo de aquello, en el campo cuántico, es lo que
quisiéramos compartir con el lector en estas notas.
La historia no termina ahí. Después de 100 años de teoría cuántica, después de un siglo de
logros inimaginables en la optoelectrónica, en la física del estado sólido y de la materia
condensada, en las físicas nuclear y de partículas elementales, en la astrofísica y la cosmología,
ahora resulta que ese universo nuclear hecho de quarks, el bariónico, como se le denomina
hoy, develado inicialmente por Ernest Rutherford (1871-1937), y el leptónico que empezó con
la partícula descubierta por Thomson, en el que el electrón es apenas una de las 6 variedades,
enriquecidos los 2 por quienes les sucedieron, es apenas una mínima parte del todo; la mayor
parte resultó ser invisible para los más potentes microscopios y telescopios en más de un 96 %.
En efecto, ahora parece claro que la materia oscura, la energía oscura y la energía fantasma o
exótica conforman el 96 % de la materia-energía que constituye el Universo. Aquella expresión
romántica, estamos hechos de la misma materia de que están hechas las galaxias, perdió piso.
En menos de 500 años la humanidad dejó de ser el centro de un universo supuestamente
creado por una divinidad externa a él. Ahora se sabe que cuando la especie humana
desaparezca, ese final de la aventura poco importará al planeta que la generó o facilitó su
desarrollo; vale la pena entonces recordar la frase de Gribbin arriba citada para tomar
conciencia de nuestro insignificante cruce por el espacio-tiempo. Cuando desaparezcamos
como especie de la faz de la tierra, el resto del Universo ni siquiera habrá percibido nuestro
efímero paso por el Cosmos. Sirva esta premonición como argumento en contra de quienes,
intentando dar una fundamentación científica a la nueva astrología, desde la nueva era, dicen
que somos parte del gran átomo universal, un tema al que tangencialmente haremos
referencia más adelante.
La información es más fundamental que la materia y la energía
Información no es conocimiento, pero físicamente es un concepto tan fundamental como la
materia y la energía, o aún más: ese será nuestro punto de partida, como se desprende del
título de esta sección. Cuando se dice que vivimos en la Era de la Información (Information
Age), y no se tiene la intención de señalar que vivimos un periodo de la historia equiparable a
la edad de la piedra o de alguno de los metales en la prehistoria, no se entiende muy bien el
concepto físico de información. De hecho, quienes ignoran que al procesamiento cuántico de
la información se están dedicando ingentes esfuerzos en las regiones más desarrolladas del
planeta, no alcanzan a percibir el impacto que tendrá la información como sujeto en el
desarrollo futuro de la humanidad. Al plantear esta inquietud, se está de paso justificando el
título mismo del presente ensayo. No obstante, examinar algunos de los efectos que tendrá a
nivel fisiológico, particularmente en el cerebro y en la estructura mental del ser humano, el
desarrollo y el uso de las nuevas t.i.c. y en general de las denominadas tecnologías emergentes
a que ya hemos hecho referencia, está por fuera de los propósitos del mismo. (Greenfield,
2015; Giraldo, 2017b.)
¿Qué es la información? La respuesta podría ser tan simple o más que la pregunta: todo lo que
aparece o desaparece. Un bit (binary digit) es SÍ o NO, encendido o apagado, 0 o 1 en código
binario. Un qubit, el bit cuántico, es mucho más complejo: encendido y apagado, sí y no al
mismo tiempo. Recuerde el lector lo que decíamos al comienzo: se es o no se es, clásicamente
hablando. La paradoja del gato de Schrödinger (vivo y muerto, a la vez) nos lleva a concluir lo
dicho dos páginas atrás: si bien clásicamente 3 es complejo, en mecánica cuántica, 2 ya lo es.
Para entender mejor la diferencia, antes de caer la moneda que se lanza al aire, hay solamente
2 posibilidades: cara o sello, cabeza o cola, o cualquiera otra entre 2 alternativas, una de las
cuales ya está determinada de antemano en el mundo clásico: de cómo se lanza, de qué está
constituida, dónde y cómo va a caer, de otros factores que en principio son conocibles, pero
que en la práctica no los podemos conocer. La moneda cuántica difiere de la clásica
precisamente en ese aspecto: ni siquiera en principio las condiciones precisas son conocibles,
porque no podemos por principio disponer de toda la información. Es más, el estado cuántico
no existe antes de que sea observado. La observación crea la información.
Pero la información es mucho más que la simple observación, sea esta de o sobre un objeto
cuántico o clásico. Cabe resaltar que existe una gran diferencia entre el comportamiento
clásico newtoniano reversible, vale decir ideal o utópico, y el cuántico hecho irreversible por la
observación, ya destacada en el título de una de las obras imprescindibles de Ilia Prigogine:
From being to becoming (1980). Este concepto, trasladado al cerebro humano, la más
maravillosa máquina de procesamiento de la información de que tengamos noticia hasta el
presente, nos llevará a la conclusión de que la información somos nosotros, de que la
conciencia es la información registrada a lo largo de nuestra existencia. Con el uso del futuro
(nótese que escribimos nos llevará), consideramos innecesario advertir al lector que vamos a
postergar hasta el final una profundización sobre las implicaciones de esa bizarra afirmación.
Sirva ella de pretexto para reconocer que no son su esencia los pixeles en las imágenes
digitalizadas o las huellas que deja una grabación electrónica en CDs o DVDs o las fuentes en
los libros al imprimirlos u otras materializaciones de la información: ellos son solo el medio
para transportarla, una etapa intermedia de su procesamiento.
Y ya que hacemos referencia al procesamiento de la información, es eso lo que la hace valiosa,
su dinámica. Más que la energía, que puede tomar distintas formas estáticas, la información
puede adoptar múltiples expresiones dinámicas. Aquella está sujeta al tipo de interacciones o
fuerzas, las cuales a su vez dan lugar a un número equivalente de formas de energía potencial
que se pueden convertir en energía de movimiento, por ejemplo. Al igual que ocurre con la
energía, lo importante es lo que se haga con la información, pero su procesamiento la hace
mucho más versátil. Si bien cuando se echa mano de la energía, en general se tiene un
propósito, para hacer uso de la información el propósito ha de estar mucho más definido.
Invariablemente, su propósito es provocar un cambio de algún tipo. En la dinámica del
procesamiento está explícita la diferencia entre una transformación o un cambio por azar o
una modificación intencionada. Y hay algo todavía más radical, que no se exige de la materia o
de la energía: aparte de un propósito, definido casi siempre por el emisor, la información debe
tener también un significado, el cual va a ser determinado o descifrado por el receptor.
Antes de llegar al final de estos prolegómenos, repararemos en un detalle que suele pasarse
por alto y que constituye la esencia misma del subtítulo de las diversas partes en que se ha
dividido el Quantum Sapiens. En parte como herencia de los siglos anteriores, las
investigaciones en lo que posteriormente se denominaría física cuántica iniciaron con el
interés puesto en el aprovechamiento de la energía presente en la radiación y en la
radiactividad. Rigurosamente hablando, era imposible entender los 2 fenómenos a partir de las
concepciones clásicas de la materia y la energía. Recordemos que los rayo X (forma ultra-
energética de la radiación) fueron descubiertos en 1895 (Röntgen), la radiactividad en 1896
(Becquerel) y el electrón en 1897 (Thomson). Fueron estos descubrimientos sucesivos los que
desencadenaron un estudio más profundo del átomo y sus constituyentes.
Sorprendentemente, aunque el aprovechamiento de la energía era el objetivo principal y se
empezó a desarrollar desde entonces la física nuclear, surgió un ingrediente adicional que solo
a mediados de siglo fue plenamente reconocido: la información. La primera revolución
cuántica, ocurrida en la primera mitad del siglo XX, lo fue en la electrónica de los
semiconductores para efectos informáticos, pero desde el punto de vista de la información
clásica. Esta revolución ha continuado en ascenso y hoy está en la cumbre más alta gracias a la
nanotecnología. Se vislumbra una segunda revolución cuántica: la que dará lugar al uso, por
ahora no masivo, de la computación cuántica y otros temas similares que dependen en
particular del extraño fenómeno del entrelazamiento. A todos estos temas volveremos en cada
una de las partes en que está dividido el presente trabajo.
¿Fin de la evolución del Homo?
Cuando nos preparábamos para poner punto final a este primer tomo sucedieron muchas
cosas. Lo primero que quiero destacar es que llegaron a nuestras manos dos textos recientes
de Yuval Noah Harari, Sapiens (2015) y Homo Deus (2017) ya traducidos al español, por obvias
razones sin cambio alguno en el título principal, como de seguro ocurriría con Quantum
Sapiens si alguna vez merecieran traducirse a otro idioma. Subtitulados From animals into
gods: a brief history of human kind y A brief history of tomorrow, sus augurios son sombríos,
aunque sus capítulos iniciales digan todo lo contrario. Desde los primeros párrafos nos dispara
estas sentencias: A lo largo de miles de años...los mismos tres problemas... la hambruna, la
peste la gue a… debían ser una parte integral del plan cósmico de Dios o de nuestra
aturaleza i perfe ta…pe o… Estas frases son textuales: La guerra es algo obsoleto. Es más
probable quitarse la vida que morir en un conflicto bélico. La hambruna está desapareciendo.
Es más habitual sufrir obesidad que pasar hambre. La muerte es solo un problema técnico.
Adiós igualdad. Hola inmortalidad. ¿Qué nos depara el futuro? (¿Moriremos de
aburrimiento?) Así, pues, en muchos aspectos, nuestros pronósticos son más pesimistas que
los suyos, pues el solo deterioro del medio ambiente afectará a todos inexorablemente,
aunque nos hayamos convertido en dioses y queramos hacer de Marte un lugar habitable.
Antes del Homo Deus habíamos conocido la versión en español de otro texto suyo que
juzgamos muy valioso: From Animals into Gods (Sapiens se tituló la versión en inglés),
traducido como De animales a dioses. (Harari, 2013.) A pesar de que el cambio de sentido en la
traducción del subtítulo es mínimo, nos parece más fuerte la expresión en inglés. El subtítulo
no es menos sugestivo: Breve historia de la humanidad. El libro empieza (primera parte) con La
revolución cognitiva y termina (cuarta parte) con La revolución científica. Lo que podría
denominarse primera revolución cuántica ha dado lugar a la más reciente revolución industrial.
El lector podrá encontrar una cierta relación entre la estructura de los dos textos, el que tiene
en sus manos y el previo de Harari, con la particularidad de que, si adelantamos el desenlace,
el subtítulo del segundo tomo de Quantum Sapiens anuncia en realidad una segunda
revolución cognitiva. Una revolución científico-técnica que hemos denominado la segunda
revolución cuántica será la responsable de esa gran transformación cognitiva que se anticipa
en el epílogo (final de QS I). Greenfield (2015) la denomina Mind change (cambio mental) y
anuncia que será equiparable al cambio climático en varios aspectos.
Indudablemente Harari se centra en el ascenso del hombre. Los nuevos tiempos anuncian un
descenso peligroso. De esas reflexiones nos ocuparemos parcialmente en el epílogo a este
primer tomo y más a fondo en volúmenes posteriores.
PRIMERA PARTE

Qué es y qué no es cuántico


1. Evolución de las ideas 49
1.1 Visión panorámica con perspectiva histórica
1.2 Los primeros hitos
1.3 De Fenicia a Grecia
1.4 El milagro jónico
1.5 Preconceptos y conceptos
1.6 Evolución de la física
1.7 Las dos grandes teorías deterministas y sus limitaciones
1.8 Lo que faltaba (y lo que falta) por descubrir
1.9 Descubrimiento del electrón, del fotón y del núcleo atómico
2. Los primeros conceptos cuánticos 79
2.1 Introducción al gran misterio
2.2 ¿Partículas u ondas? Se debe tomar la bifurcación
2.3 Ondas que son partículas y viceversa
2.4 De los átomos indivisibles a las órbitas cuantizadas de Bohr
2.5 Los principales responsables de la confusión iluminante
2.6 Una revolución que continúa siendo molesta
2.7 Si no siente vértigo, es porque no ha entendido
3. Los primeros experimentos con electrones 115
3.1 Experimento de Frank y Hertz
3.2 Experimentos de Stern y Gerlach
3.3 Experimentos de Davisson, Germer y otros
4. De vuelta al gran misterio 127
4.1 De Arquímedes a Higgs y de Newton a Einstein, historias de luz
4.2 El experimento más bello de la física
4.3 Un experimento con fotones
4.4 Borrado cuántico
4.5 Comportamiento Dual de la Materia y Principio de Incertidumbre
4.6 Función de onda y principio de complementariedad
4.7 Principio de Heisenberg y tunelamiento cuántico
5. Principios y postulados 147
5.1 Los principios son el fundamento
5.2 Otros mundos posibles
5.3 Principio de dualidad onda-corpúsculo
5.4 Principio de complementariedad
5.5 Principio de indeterminación
5.6 Principio de correspondencia
5.7 Principio de valores propios
5.8 Principio de exclusión
5.9 Principio de superposición
5.10 Un Formalismo matemático
6. Acciones fantasmagóricas a distancia 159
6.1 Interpretación probabilística de la función de onda
6.2 La incomodidad de Einstein
6.3 La interpretación de Copenhague
6.4 El contraataque de Einstein: EPR
6.5 Gatos de Schrödinger, de Wigner y de Wheeler
6.6 Las variables ocultas
6.7 Teorema de Bell
6.8 Fotones entrelazados II
6.9 Interferómetro de Mach-Zender
7. De regreso a la filosofía natural
De la filosofía a la física y otra vez a la filosofía
8. Interpretaciones múltiples
Copenhague y su revalidación
El multiverso y sus bifurcaciones
Interpretación estadística de una teoría probabilista
Teorías de variables ocultas
Nuevas posibilidades
¿Qué es y qué no es cuántico?
Si los físicos nos propusiéramos como reto responder a esta pregunta, tendríamos serias
dificultades en hacerlo satisfactoriamente. Quizá lo más riguroso que podamos decir es que el
fenómeno cuántico en sí mismo escapa a su observación. En otras palabras, lo que debe
quedar claro es que la observación es clásica. La observación envuelve una medida de alguna
cantidad física. En ocasiones, el resultado de esa medida, casi siempre indirecto, da una
imagen que puede ser equivocada. Eso ocurre, por ejemplo, con el espín del electrón y de las
de ás pa tí ulas… o de lo ue supo e os ue so pa tí ulas. U fotó tie e espí u o; dos
electrones apareados pueden tener espín cero, eso no significa que no tengan esa propiedad,
simplemente quiere decir que esa cantidad adicionada es cero, como (cero, cero, cero), un
vector con sus 3 componentes nulas, similar a la velocidad de un cuerpo en reposo,
clásicamente hablando (0, 0, 0). Cuánticamente no puede hacerse esta última afirmación, el
reposo absoluto no existe, a menos que renunciemos a localizar el objeto del que se sepa con
e teza ue está e o pleto eposo… esta á e todas pa tes… o e i gu a, así de si ple.
¡Complejo!, ¿verdad?*

Los objetos físicos se manifiestan de alguna manera frente a nuestros sentidos, o en forma
más general, son detectados por nuestros aparatos de medida. Concordaremos en afirmar
entonces que la observación a que nos referimos en física no es solamente la que podemos
realizar con el sentido de la vista o con otro cualquiera. En otro tiempo percibiríamos u
observaríamos los objetos materiales y quizá dudaríamos en reconocer que la luz es un objeto
material. ¿Es la gravedad un objeto material? Pocos se atreverían a responder positivamente,
pero las ondas gravitacionales, recientemente descubiertas, no dejan lugar a duda. Una
pregunta más sutil se refiere a lo que hoy se denomina información. No estamos hablando de
lo que venden los periódicos o lo que escuchamos en la radio o vemos en la televisión.
Exploramos a nuestro alrededor para informarnos de lo que está pasando, eso es indudable,
pero la información misma es algo más etéreo. Sin embargo, después de Claude Shannon
debemos reconocer que la información es algo con contenido físico.

Hubo una época en la que atribuíamos a los cuerpos propiedades que no tienen. Los efectos
del zodíaco en la vida de las personas es una de esas manifestaciones. No es este el espacio
para hacer la distinción entre mito y religión, pero sí lo es para deslindar terrenos entre esos
dos campos, de alguna manera relacionados, y el que ocupa lo que hoy denominamos ciencia.
Ha habido, y es seguro que se siguen presentando a pesar de los espectaculares avances,
periodos de la historia en los que la ciencia que se dice practicar no difiere mucho de la
pseudociencia. No está lejana la época en que solía hablarse del fluido calórico o del fluido
vital, fluidos que hoy claramente están descartados en la ciencia convencional. Polémicas
acerca de los organismos genéticamente modificados, p.e., envuelven mucho de subjetividad.

*
Cuando se calcula rigurosamente la energía de un oscilador armónico o cuando se habla de campos
cuánticos, hay que referirse a un concepto nuevo denominado energía de punto cero. La expresión y el
concepto ha dado lugar a relatos esotéricos de todo tipo. Los efectos de esa energía de punto cero son
observables; como ejemplo, se suele citar el Efecto Casimir, consistente en la atracción que dos placas
metálicas muy finas sienten a temperatura muy baja (cercana al cero absoluto). En forma general se
puede hablar de fluctuaciones del vacío. A este concepto volveremos después, en las aplicaciones.
La ciencia clásica es determinista: esta característica es básica. Por el contrario, la nueva
ciencia, la que cae dentro de la comúnmente denominada mecánica cuántica no lo es. Se dice
que esta es una teoría probabilística. ¡Lo es!

Con el advenimiento de la física cuántica, como preferimos denominar a la nueva teoría, el


universo dejó de funcionar como un mecanismo de relojería. La física cuántica es la teoría que
subyace prácticamente a toda posibilidad de entender el universo físico. Tal vez el término
entendible sea menos exigente que la cercana expresión comprensible, o diste todavía más de
comprehensible, lo que imaginara Einstein cuando escribió o publicó la frase que sirvió de
entrada a este tomo. En ese sentido, aquello de que el universo sea comprensible es con toda
seguridad una quimera. Algunos físicos, si no la mayoría, creen que Feynman exagera cuando
exclama: Nadie entiende la mecánica cuántica. Pero debemos aceptar que los más destacados
padres fundadores de la teoría tuvieron que reconocer que no la entendieron. Algunos se
lamentaron de haber tenido algo que ver con ella. Para aclarar el sentido de la afirmación de
Feynman, tal como la compartimos o en la medida en que estamos de acuerdo con él, se
entiende perfectamente el aparato matemático, por complejo que este sea. Pero sus
implicaciones no se comprenden. Lo que pasa con los objetos cuánticos mientras no los
observemos, es solo parte de la imaginación, y cuando los observamos o detectamos, en
esencia les obligamos a comportarse de acuerdo a nuestro aparato de medida. Es certera esta
afi a ió de Fe a , po o itada: Pod ía de i de i ediato… sie p e he os te ido u a
g a difi ultad e e te de la i age del u do ue ep ese ta la e á i a uá ti a. … No
puedo definir el problema real, sospecho por lo tanto que no hay un problema real, pero no
esto ta segu o de ue o ha a u p o le a eal . (Bernstein, 2009.)

En conclusión, antes de la observación, los que podríamos denominar fenómenos


fundamentales son en esencia cuánticos. Mas la observación misma es un fenómeno clásico.
Hecha esta, puede ser que el fenómeno haya dejado de ser cuántico. Definir el proceso de
medida y los posibles observables, en otras palabras, lo que vamos a hacer sobre el universo o
alguna de sus partes cuando lo queremos interrogar, es el primer problema de la física
cuántica. Y se resuelve operacionalmente, es decir, mediante una teoría que es abstracta.
Comunicarla, pues, es una tarea que se deja en manos de un formalismo matemático. El resto
es interpretación. A ella(s) nos referiremos al final de esta primera parte.
1. Evolución de las ideas
1.1 Visión panorámica con perspectiva histórica
El lector pragmático puede dejar de lado este y el siguiente capítulo, al menos en una primera
lectura. Eventualmente le convenga regresar al segundo.
Hay muchos tratados, con diversos enfoques, sobre el maravilloso tema de la evolución de los
conceptos que dio lugar a las ciencias tal como las concebimos hoy, bien adentrados como
estamos en el siglo XXI. A ese acervo cultural extraordinario no deberíamos seguirlo llamando
ciencia moderna, y mucho menos referirnos a ella en singular; si lo hacemos, tendremos que
buscar una nueva definición del término que las incluya a todas, duras y blandas, humanas y
naturales, antrópicas y pre antrópicas, o cualesquiera otra clasificación que se nos ocurra.
(Vasco, 2015b.) Por razones prácticas nos limitaremos a las ciencias naturales y
tangencialmente a las matemáticas, también en plural. Si es de algún interés para el lector la
implicación de las aplicaciones de las primeras, La perspectiva científica, del matemático y
filósofo Bertrand Russell constituye, a nuestro juicio, un valioso punto de partida. (Russell,
1949.) Aunque más especializado, Historia de la física, escrito por un físico británico
contemporáneo de Russell, suministra un enfoque más amplio en sus capítulos iniciales sobre
el remoto origen. (Jeans, 1948.) No se puede prescindir, por incipiente que haya sido, del
aporte de La ciencia griega al origen de la ciencia moderna, tema que de manera original fue
cubierto por otro británico contemporáneo de Russell (Farrington, 1944, 1949). Para un
enfoque intercultural, hay que hacer referencia a Las dos culturas, de Charles Percy Snow, un
británico más (1959), quien indudablemente inspiró a otros para que a fines del siglo XX
introdujeran el término Tercera cultura. (Brockman, 1995.)
Análisis históricos postmodernos más rigurosos pueden encontrarse en algunos autores
franceses. Para el periodo histórico que comprende desde los inicios hasta mediados del siglo
pasado, puede consultarse Serres y otros (Serres, 1991). Más puntual y centrado en la física es
D'Archiméde à Einstein. Les faces cachées de l'invention scientifique. (Thuillier, 1990.) Todos
ellos, particularmente los últimos, conducen al tema de la relación entre las ciencias naturales
y las otras formas de conocimiento y al peligro de la super-especialización científica o
tecnológica. En gran medida nuestro ensayo está guiado por esta última preocupación; en
especial queremos advertir al lector del riesgo que implica para la verdadera democracia una
cultura acientífica, como lo destacara Carl Sagan (1996):
«Hemos preparado una civilización global en la que los elementos más cruciales –el transporte, las
comunicaciones y todas las demás industrias; la agricultura, la medicina, la educación, el ocio, la
protección del medio ambiente, e incluso la institución democrática clave de las elecciones– dependen
profundamente de la ciencia y la tecnología. También hemos dispuesto las cosas de modo que nadie
entienda la ciencia y la tecnología. Eso es una garantía de desastre. Podríamos seguir así una temporada
pero, antes o después, esta mezcla combustible de ignorancia y poder nos explotará en la cara.»

También por razones prácticas nos limitaremos a la evolución de los conceptos, más que a los
aspectos históricos; un buen punto de referencia lo constituye el desarrollo de las ideas en la
Grecia Antigua. Nuestro propósito no es seguir aquí el tradicional enfoque histórico. Tampoco
nos interesa hacer un ensayo de corte epistemológico, igualmente abundante en la literatura.
Siendo nuestro interés prioritario el grandioso proceso de pensamiento que culminó con lo
que hemos dado en denominar la segunda revolución cuántica, sin duda alguna el más grande
descubrimiento científico a nivel conceptual, pondremos el énfasis en la imagen atomista que
se desarrolló desde los epicúreos, con una enorme discontinuidad o vacío temporal de casi dos
milenios, favorecido por la autoridad intelectual de Aristóteles y, en la Edad Media, por la
imposición teológica y teleológica de la Iglesia Católica. El enfoque de Weinberg (2016) es un
valioso complemento.
Empezamos por referirnos a un punto de vista más o menos común a todos los autores
mencionados. Al margen de sus creencias religiosas, para el avance de los conceptos científicos
era necesario desproveerse de la explicación del mundo a partir de las causas sobrenaturales.
Ese fue uno de los grandes méritos de Copérnico, Kepler, Galileo y Newton, para citar unos
pocos ejemplos. Uno de los mecanicistas más destacados fue Laplace, quien en su magna obra
Exposition du système du monde afirma (1796):
«Podemos mirar el estado presente del universo como el efecto del pasado y la causa de su futuro. Se
podría concebir un intelecto que en cualquier momento dado conociera todas las fuerzas que animan la
naturaleza y las posiciones de los seres que la componen; si este intelecto fuera lo suficientemente
vasto como para someter los datos a análisis, podría condensar en una simple fórmula el movimiento de
los grandes cuerpos del universo y del átomo más ligero; para tal intelecto nada podría ser incierto y el
futuro, así como el pasado, estarían frente a sus ojos.»

Refiriéndose a ella le pregunta Napoleón: «Me cuentan que ha escrito usted este gran libro
sobre el sistema del universo sin haber mencionado ni una sola vez a su creador», y Laplace
contestó: «Sire, nunca he necesitado esa hipótesis». Ante la insistencia del Emperador replica:
«Aunque esa hipótesis pueda explicar todo, no permite predecir nada». Ese intelecto al que se
refiere Laplace ha de convertirse después en lo que se llamará el demonio de Maxwell. Por
analogía, uno de los autores (Andrade) lo ha extendido a los demonios de Darwin. (2003.)
A pesar de los indiscutibles avances de las ciencias en los últimos tiempos, la mayoría de la
gente, incluso en ambientes cultos y hasta en entornos académicos, sigue buscando la
explicación de los fenómenos de todo tipo en fuerzas sobrenaturales. Cabe esperar entonces
que así ocurriera desde los albores de la humanidad, o más precisamente de las civilizaciones,
con algunas excepciones. Al contrario de lo que debería suceder, la física cuántica ha dado pie
para que muchos retomen y refuercen esa tendencia tan humana. Vale la pena examinar el
desarrollo de las ideas pre-científicas que abrieron espacios para la ciencia misma y las que
posteriormente se abrieron paso, desde los inicios de la ciencia moderna. El temario de este
capítulo se ha dividido así en dos partes, correspondiendo la primera a lo que se reconoce
como Edad Antigua.
Podría argumentarse que la hipótesis atómica fue la más clara renuncia a la explicación mítica
o religiosa que perduró por decenas de miles de años y que todavía sobrevive en ciertos
círculos intelectuales. Eso no es del todo cierto: el atomismo como doctrina se practicó en las
escuelas místicas de la India antes que en la Grecia pre-socrática. Pero la hipótesis de unos
átomos o corpúsculos eternos e inmutables que son los ladrillos básicos de la materia sí puede
chocar contra algunas creencias religiosas, por ejemplo, el llamado dogma de la
transubstanciación. Aunque no es totalmente claro, muchos pasajes oscuros del aun
misterioso Juicio a Galileo apuntan a que fue su aceptación implícita de aquella hipótesis
milenaria lo que desencadenó la obstinada persecución al genio, más que su defensa del punto
de vista copernicano. (Hernández, 2009.)
La propuesta atomista de Demócrito y Leucipo estuvo precedida de la idea de que todo en el
universo provendría de una única substancia. Se pasó así del agua al aire, al fuego y a la tierra
misma; después de los presocráticos, Platón planteó que todo era espíritu, mientras que su
discípulo Aristóteles volvió a los 4 elementos, anticipados por Empédocles.
Sin proponérselo, el estagirita cerró por mucho tiempo la exploración del universo al margen
de las creencias. Para él, el movimiento de los objetos era natural, moviéndose ellos hacia
arriba o hacia abajo dependiendo de si predominaba aire y fuego o agua y tierra. Finalmente,
con el método teórico-experimental inaugurado por la física, iniciado por Galileo hace ya 4
siglos, se abrió el camino no solo a una mejor comprensión de la naturaleza sino también a un
uso más racional del conocimiento y a su construcción, objetiva hasta cierto punto. Qué
entendemos por un uso racional del conocimiento será tema de interés para estas reflexiones,
asunto al que volveremos en la tercera parte. El sapiens a menudo ha sido insapiens, o más
bien stultisimus.
Pero esos métodos que ahora encontramos más racionales tardarían milenios en ensayarse y
tener éxito; no tendrían a la postre mayor acogida, salvo entre los académicos, de no ser por
su impacto en mejorar las condiciones de vida de la especie, en particular por las tecnologías a
que dieron lugar, y por el poder que confirieron a los grupos privilegiados. Muchas técnicas
fueron inventadas empíricamente a partir de la observación cuidadosa de la naturaleza, sin
que se desligaran de las creencias mitológicas. En un comienzo se pensó que para el cabal
funcionamiento de algunas de ellas habría que seguir ciertos rituales, guiados por la casta
sacerdotal. Se preservó así durante mucho tiempo el enfoque teísta (poli o mono) con que se
iniciaron. Ahora predomina el aspecto monetarista. Sin lugar a dudas, la acumulación de
capital depende hoy más que nunca de los avances científicos y tecnológicos.
Para terminar esta sección introductoria al primer capítulo, se recomienda pasar revista a dos
series de conferencias de Feynman que fueron impresas posteriormente en forma de libros:
The meaning of it all (1963) y The character of physical law (1964). En muchos lectores esas
ideas críticas ayudarán a desbrozar el arduo camino por recorrer. Caminante, no hay camino,
se hace camino al andar.
1.2 Los primeros hitos
La más remota manifestación de un interés sistemático por la explicación (pseudo)científica
tiene sus orígenes en las antiguas civilizaciones que se formaron en las riveras del Eufrates y
del Nilo durante el quinto y el tercer milenio antes de nuestra era. Para entonces habían
corrido varios milenios, 30 o más, de desarrollo artístico, un desarrollo que se dio
simultáneamente en varios lugares del planeta. Uno de los ejemplos más antiguos y
admirables lo constituyen las esculturas halladas en la caverna de Vogelherd. El interés,
generalmente pragmático, no estuvo separado de la influencia mítica. Eran los albores de la
civilización. Puede afirmarse que, si bien ocurrió en distintos momentos, no hubo una sino
varias cunas de la civilización humana. Sin pretensiones de ser exhaustivos, nos limitamos a
reconocer que la más antigua de estas civilizaciones pre-científicas es la que se conoce con el
nombre de sumeria. Formando poblaciones a lo largo del Tigris y del Eufrates, se convirtieron
en los primeros agricultores y surgieron los primeros especialistas, ingenieros de riego. Algo
similar ocurrió en Egipto, con la variante de las inundaciones periódicas del rio Nilo,
generadoras a su vez de un desarrollo especial de la astronomía. Es notable el desarrollo, en
cierta medida prematuro, de la medicina egipcia. Para entonces había surgido la escritura, no
se sabe si independientemente en las 2 regiones. En China se habría presentado un fenómeno
similar, con sus variantes, algo que ocurrió después en América.
El reconocimiento a la importancia de los expertos en los destinos de los países es notorio por
primera vez en el Imperio Asirio. Nos di e Ja es ‘itte : Pa a sa e dó de uá do apa e e
como grupo profesional, debemos abandonar Nínive en el apogeo del Imperio Asirio y volver al
primer instante en el que entran juntos en la historia, más de dos mil años antes y más al sur,
en el país de Babilonia. Es en la época que los asiriólogos llaman «paleobabilónica», durante
los 400 primeros años del segundo milenio, donde podemos comenzar a seguir el desarrollo de
un campo de estudio y de práctica que los propios mesopotámicos percibieron, según parece,
o o u ifi ado p i ilegiado e ie to se tido . (1991.)
Mucho más atrás en el tiempo, en las oscuras edades primitivas, antes de que hubiera
vestigios de ciencia, ni siquiera de arte, antecesores del sapiens descubrieron y aprendieron de
alguna manera a dominar el fuego. Parece que esto ocurrió durante la época del homo erectus,
hace poco menos de un millón de años. Es innecesario resaltar aquí la importancia de tan
singular descubrimiento; sorprende que haya ocurrido en tiempos tan remotos. La edad de la
piedra que le precedió, se remonta en el tiempo más de dos millones de años. En contraste, la
invención de la rueda tuvo que esperar hasta un periodo cercano, hace poco más de 5 mil
años, después de haber pasado por diversos periodos de manipulación de los metales. Por
extraño que parezca, civilizaciones tan avanzadas como las de los Incas y los Mayas se las
arreglaron sin la rueda, en el segundo caso hasta su misterioso declive, antes de la llegada de
los españoles al continente americano. El misterio puede verse en su verdadera dimensión si
se recuerda que la Maya fue una de las tres civilizaciones en la historia de la humanidad que
descubrieron el cero y la primera en utilizarlo plenamente en sus cálculos astronómicos.
Casi todos los historiadores de la ciencia coinciden en reconocer que el arte, y con él las
técnicas para perfeccionarlo, tuvieron un desarrollo mucho más temprano que el de cualquier
indicio que pudiera denominarse primeros pasos hacia la ciencia. (Jeans, 1948; Russell, 1949.)
Probablemente al arte, como forma de conocimiento, le siguió la filosofía, practicada
inicialmente desde el misticismo religioso, quizá precedido del temor a lo desconocido. La
polémica sobre el origen de la filosofía puede continuar; lo que cabe destacar es que también
en Grecia, al igual que en las culturas orientales, los primeros indicios del pensamiento
filosófico están asociados al mito y en gran medida al arte. Si en la Antigua Grecia logró un
desarrollo mayor que en alguna otra parte del mundo, ello se debió probablemente a la
ausencia de una casta sacerdotal y al enfoque holístico que predominó en su ethos cultural. A
modo de propaganda, lo que se propone la organización denominada Buinaima, como
herencia recogida de lo que se llamó en Colombia Misión de Sabios (Colciencias, 1995), es
generar en este país un nuevo ethos cultural. (Para mayor información, se sugiere visitar la
página corporacionbuinaima.org)
1.3 De Fenicia a Grecia
El origen del pueblo griego es oscuro. Todo indica que fue una mezcla de pueblos venidos de
distintas latitudes. A pesar de la penumbra que rodea la constitución de la civilización griega,
es indudable que recibió una gran influencia de las anteriores, particularmente la asiria y la
egipcia. Es también seguro que sus vecinos fenicios favorecieron su desarrollo. De estos
últimos dice el historiador Estrabón, citado por Jeans, que prestaban especial atención a la
ciencia de los números, la navegación y la astronomía. Agrega Jea s: Difí il e te ha ía
podido llegar a ser la gran potencia comercial de la Antigüedad de no poseer considerable
aptitud numérica, ni haber sido los más grandes navegantes de su tiempo a menos de haber
estudiado la navegación y la astronomía.
Si se reconoce en Tales y en Pitágoras dos de las mayores figuras de esa ciencia antigua, no
deja de ser interesante que los dos tengan reputación de procedencia fenicia, al igual que
Euclides y Zenón. Ahora bien, es indudable que un aspecto favorece al otro. Las escuelas que
fundaron cada uno de estos personajes influyeron notablemente en el desarrollo futuro de la
aritmética, la geometría y hasta las técnicas para medir tiempo y espacio, indispensables para
poder avanzar.
Es i e Fa i gto : El sa e o ga izado de Egipto y de Babilonia ha sido una tradición
manejada de generación en generación por colegios de sacerdotes. Pero el movimiento
científico que empezó en el siglo VI (antes de nuestra Era) entre los griegos era un movimiento
e te a e te segla . E todo caso, el saber acumulado en aquellas cunas de la civilización, por
ende en Fenicia, tenía un carácter pragmático. Lo nuevo de los griegos fue entender o
reflexionar sobre las causas u orígenes de lo observado.
1.4 El milagro jónico
«En el siglo VI antes de Cristo, en Jonia, se desarrolló un nuevo concepto, una de las grandes
ideas de la especie humana. El universo se puede conocer, afirmaban los antiguos jonios,
porque presenta un orden interno: hay regularidades en la naturaleza que permiten revelar
sus secretos». (Sagan, 1985; p.175.) A ese orden y las leyes que le determinan le llamaron
cosmos. Fue el descubrimiento del cosmos, en ese sentido, lo que les llevó a sentar los
fundamentos de lo que hoy denominamos ciencia.
Así, pues, la naturaleza se comporta de manera regulada y eso es maravilloso; lo más
sorprendente es descubrir que la regulación procede de la naturaleza misma. Afirma Isaac
Asimov, otro gran divulgador de la ciencia: «En la teoría de Tales y de sus discípulos no había
divinidades que se inmiscuyeran en los designios del universo. El universo obraba
exclusivamente de acuerdo con su propia naturaleza». (2001.)
Ese descubrimiento fue el detonante del amor por la sabiduría, que es la filosofía. ¿Y qué es
sabiduría? Para ellos era la persecución de la verdad, la belleza y la bondad, las 3 atracciones
que Einstein y Russell compartieron. Escribe este último: «Tres pasiones, simples, pero
abrumadoramente intensas, han gobernado mi vida: el ansia de amor, la búsqueda del
conocimiento y una insoportable piedad por los sufrimientos de la humanidad». (Para qué he
vivido, Autobiografía, 1967.) En la introducción a su texto arriba citado define la sabiduría
como «la concepción justa de los fines de la vida».
Volvamos a aquel maravilloso periodo de la historia. Se interroga Sagan acerca del porqué del
milagro jónico, sin dar una respuesta satisfactoria. Hay otra pregunta más difícil de responder:
¿qué impidió que ese apogeo continuara? La escuela griega que sucedió a la presocrática fue
maravillosa, pero declinó muy pronto. Esos periodos de ascenso y descenso que se sucedieron
desde la antigüedad clásica ocurrieron después, en distintos lugares, en ocasiones con largos
interregnos. También sucedió en América, en particular con la civilización Maya.
Probablemente la razón se encuentre en que las ciencias, también la filosofía, dependen de la
observación, sea esta empírica o más elaborada, pero la sistematización del conocimiento
científico, a diferencia del pensamiento filosófico, no puede hacerse al margen de la
experiencia. Si no se perfecciona el instrumento de observación, no se tiene un fundamento
mejorado para la racionalización. Hubo que esperar al invento del telescopio primero y del
microscopio después para lograr un avance formidable.
La Ciencia griega ha sido objeto de estudio minucioso desde comienzos del siglo pasado. Uno
de los primeros clásicos es el de Farrington (1944). Suya es esta frase que continúa vigente:
The science of the earliest Greek period resembles ours; for naive and undeveloped as it was, it
regarded man as a product of natural evolution, it regarded his power of speech and thought as a
product of his life in society, and it regarded his science as part of his technique, of the control of his
natural environment. These bold ideas made their first appearance among the Ionian Greeks shortly
after 600 B.C., and were developed in the course of a couple of centuries with a comprehensiveness of
view and an organic cohesion of design which still astonish us today. The emergence of this mode of
thought and its supersession by the more sophisticated but less scientific outlook of the age of Socrates,
Plato, and Aristotle are the special subject of our enquiry.*
Mencionemos apenas, para terminar esta descripción general, los nombres de algunas de las
más descollantes figuras del saber de aquella brillante época: Tales y Anaximandro, los dos de
Mileto, Anaxímenes e Hipócrates, y por encima de todos en matemáticas, Pitágoras de Samos.
Aristarco, también de Samos, fue prematuramente heliocentrista, ideas tan adelantadas a su
tiempo como lo fueron los conceptos de los atomistas, Demócrito de Abdera y Leucipo de
Mileto. Vendría después la época de Alejandría, con la figura descollante de Eratóstenes,
quien seguramente fue el primero en determinar el radio de la tierra.
1.5 Preconceptos y conceptos
Supondremos por simplicidad que el lector tiene muchos preconceptos clásicos y que en
menor cantidad ha adquirido algunos conceptos cuánticos. Los preconceptos pueden ser
equivocados, pero generalmente ayudan; la construcción de los conceptos es un proceso que
prácticamente no culmina; más arduo y complejo todavía es el cambio conceptual de lo
clásico a lo cuántico.
Gracias a la tecnología desarrollada durante los últimos dos siglos, los preconceptos clásicos
de la población promedio se han enriquecido. Las nuevas tecnologías, las de las últimas dos o
tres décadas, han provisto a ese promedio de algunas nociones y términos clásicos y cuánticos
que antes no existían. Expresiones como industria optoelectrónica, dispositivos diversos que
hacen uso de diversos semiconductores y del láser, técnicas espectroscópicas como los rayos
X y la resonancia magnética nuclear (RMN), la más reciente variación de esta, IRMf (imagen
por resonancia magnética funcional), tan útil para la exploración del cerebro en actividad,

*
La ciencia del más temprano periodo griego recuerda el nuestro; a pesar de lo ingenuo y
subdesarrollado que fue, asumió al hombre como un producto de la evolución natural, asumió su
capacidad discursiva y de pensamiento como resultado de su vida en sociedad y asumió a su ciencia
como parte de su técnica, del control de su entorno natural. Estas ideas sobresalientes hicieron su
primera aparición entre los griegos jónicos aproximadamente hacia el 600 A.C., y se desarrollaron en el
curso de un par de siglos desde un consistente punto de vista y una cohesión interna de su diseño que
todavía nos deja atónitos hoy. La emergencia de este modo de pensamiento y su sucesión por la más
sofisticada pero menos científica mirada de la era de Sócrates, Platón y Aristóteles son tema especial de
investigación y búsqueda todavía.
otras igualmente recientes como la TAC (tomografía axial computarizada) o las más modernas,
como PET (por su descripción en inglés, positron emmision tomography) y muchas más, o
instrumentos tan sofisticados como microscopios electrónicos o atómicos se emplean a
menudo, cada vez en ambientes más diversos. Eso no significa que los más, ni siquiera en
medios culturales privilegiados, sepan muy bien lo que hay detrás de estos términos, pero
usan a diario discos compactos, MP5, iPODs, tablets, versátiles computadores portátiles,
teléfonos celulares cada vez más sofisticados en su interior y otros adminículos de alta gama
que incorporan modernísimas t.i.c., las cuales serían impensables sin el dominio logrado y el
conocimiento adquirido sobre fenómenos a nivel submicroscópico, algunos de ellos
rigurosamente cuánticos. Ello le ha permitido a la población, más allá del confort, tener al
menos una vaga idea del uso (y el abuso) de un lenguaje que hasta hace unas pocas décadas
era visto como altamente especializado.
Las nuevas generaciones tienen ventajas (y desventajas) adicionales. Por algo se les denomina
Generación App, y empiezan cada vez a distanciarse más de los inmigrantes digitales; ni qué
decir de los padres o maestros (para el caso es similar) que no se han acercado a ese nuevo
mundo. Volviendo a los conceptos y preconceptos, esas nuevas generaciones corren el riesgo
de asimilar los términos sin haber pasado por el lenguaje; en otras palabras, pensamiento y
lenguaje, como diría Vigotsky, no han ido de la mano. Gran dificultad tendrá una persona
fuera de los campos científico y tecnológico, incluso cuando se ha formado en alguna de las
técnicas, distinguir entre fenómenos clásicos y otros que no caen en ese rango.
Si se examina con cuidado, menos impacto tienen en la vida diaria actual otros términos que
fueron de gran importancia hace algunas décadas y que de todas maneras lo siguen siendo:
esiste ia e á i a elé t i a , alea ilidad, esilie ia… á ui a de vapor, energía
trifásica, transformador, tubos o válvulas de vacío (diodo y triodo). El transistor y el diodo
semiconductor pertenecen a nuestra generación; el autor nació con ellos, pero conoció bien
los anteriores. Puede afirmarse que el bachiller de hoy no distingue claramente entre campo
eléctrico y magnético, mucho menos se preocupa por entender cómo se transmiten, propagan
y reciben ondas de radio, de televisión, etc. y mucho menos los problemas que atañen a su
transmisión. ¡Su mundo virtual le ha llevado a comunicarse en la nube sin polo a tierra!
De todos modos, alguna noción se adquiere, desde la formación media y con la experiencia
sensible, sobre espacio y tiempo, masa y carga, movimiento y energía, posición, velocidad o
rapidez, aceleraciones, interacciones o fuerzas, vibraciones u oscilaciones y ondas, etcétera.
En este capítulo no se remediarán falencias que pueden deberse al sistema educativo o al
medio cultural o ambas cosas. Pero se introducirán o reforzarán algunas nociones o conceptos
útiles para ingresar al mundo de la nueva física. Puede ser útil para algunos lectores apelar al
apéndice, en donde se habla de algunos conceptos clásicos, para que los compare con los
nuevos, cuánticos, de los cuales también diremos algo. Estado, paquete de ondas, colapso de
la función de onda, superposición, observable, operador, espín, espacio de Hilbert, no
localidad, enmarañamiento o entrelazamiento y muchos más que vendrán más adelante, son
conceptos y entidades más complejos; se definirán en términos simplificados a su debido
tiempo, sin complicaciones ni pretensiones mayores, procurando en todo caso ser precisos.
Aunque creamos saber qué se entiende por aparato de medida, realidad objetiva y otros
términos aparentemente comunes, incluido observador consciente, veremos que en el
dominio cuántico hay que redefinirlos. No sobra insistir en que la teoría cuántica,
probablemente más que cualquier otro campo de la ciencia, es contraintuitiva. Se requiere en
gran medida de la filosofía, así sea para revaluarla, si se quiere aprehender, o al menos
comparar, la nueva realidad cuántica, con la supuestamente más material, la clásica. Los
resultados cuánticos, los más precisos hasta ahora sin lugar a dudas, son inesperados, como lo
son las conclusiones que de ellos se derivan. De sus aplicaciones hablaremos en la segunda
parte.
Hay una premisa fundamental, común a los dos campos, el clásico y el cuántico, que puede
servir como punto de partida: el resultado de una medición es siempre un número o un
conjunto de números reales. Ello es consecuencia del carácter cuantitativo de una ciencia
teórico-experimental: eso es la física; se ocupa de predecir el valor de cantidades que se
pueden medir o determinar, directa o indirectamente o, a partir de observaciones y
mediciones cuidadosas, establecer reglas cuantitativas, formular leyes en un lenguaje
matemático, lo más generales que sea posible, sobre los fenómenos físicos... los de la realidad
sensorial (así los sensores sean sofisticados instrumentos), para decirlo de alguna manera. Se
hace necesario entonces introducir un lenguaje que nos permita precisar de la mejor manera
lo que se quiere medir o determinar. Por ejemplo, cuando nos referimos al todo hay que hacer
distinciones como éstas, para no caer en contradicciones: el Universo Causal es el trozo de
universo al que tenemos acceso a través de observaciones; no se puede hablar de
separabilidad, en el sentido exigido por Einstein, en los sistemas cuánticos correlacionados
(véanse la segunda y la tercera parte). A propósito de Universo, surge la siguiente pregunta
todavía sin respuesta: cuando se trata de hacer observaciones sobre el U i e so o o u
todo, ¿quién es el observador? Discutamos el penúltimo asunto, el de la separabilidad o no.
En la tradición griega y en la metódica ciencia iniciada con Francis Bacon y Galileo Galilei se ha
supuesto que para entender el comportamiento de un objeto compuesto, éste se puede
dividir en partes y analizar por separado cada una de ellas. Está implícita la hipótesis de que
cada una de las partes tiene realidad física en sí misma. Nadie la habría puesto en duda, de no
ser por las implicaciones de la nueva física. La exigencia explícita de respetar esa realidad está
contenida en una famosa publicación de Einstein, Podolsky y Rosen de 1935, conocida
usualmente como paradoja EPR. Pues bien, el problema se trasladó de la filosofía a la física
experimental con las también famosas Desigualdades de Bell: todos los experimentos
realizados desde 1982 (Aspect, 1982) muestran el carácter observable y medible de las
correlaciones cuánticas, capaces de tomar valores más grandes que los límites exigidos por
una descripción realista separable de tipo clásico; aquellos han confirmado los valores
predichos cuánticamente, valores clásicamente prohibidos.
Una cantidad física es objeto de predicción y por ende, aunque sea solo en principio, de
medición, cuando es observable. Una vez que se conoce su valor, un conjunto de números
reales, puede decirse en qué estado se encuentra (o se encontraba, porque puede ocurrir que
inmediatamente después de la observación o medición haya cambiado de estado).
Precisaremos el concepto de estado en el capítulo 4. Los instrumentos con ayuda de los cuales
se observa son extensión de los sentidos. Es el cerebro, en últimas, quien interpreta. Solía
suponerse que de eso puede encargarse a la teoría, pero no es así.
Hay un aspecto delicado que no puede evadirse: el aparato de medida (ente clásico) influye en
el resultado que se obtenga, independientemente de qué tan preciso sea aquel, o mejor, la
influencia es más fuerte en la medida en que se le exija al aparato una mayor precisión,
particularmente a escala atómica o subatómica. Ésta es una parte esencial del principio de
indeterminación, al cual ya nos hemos referido y volveremos (Caps. 4 y 5), enunciado por
Werner Heisenberg en 1927. Pero, como también se afirmó arriba, no lo es todo: hoy se
podrían hacer observaciones libres de toda interacción, lo que nos llevó a reformular ese
famoso principio.
Uno de los conceptos básicos de la física clásica (de la ED, en particular) es el de campo. Esa
fue la gran generalización que inútilmente buscó Einstein. Es extraño que, a pesar de haber
puesto la piedra fundamental de la materialización del campo con los granos de luz o
partículas del campo electromagnético, no haya sido el primero en postular el gravitón. Este
formaría parte, al igual que el fotón y otros bosones, de las denominadas partículas
mediadoras. También son conceptos fundamentales, por supuesto, corpúsculo y onda. La
fuerza no es lo mismo en el sentido aristotélico que en el newtoniano. En la nueva física, el
concepto de interacción es más rico que el de fuerza y está mediada por bosones. Veremos
que el de entrelazamiento se vuelve un concepto fundamental, desprovisto del de interacción.
Antes de ir a los de la nueva física, vale la pena examinar algunas nociones de la clásica.
1.6 Evolución de la física
El libro de Einstein e Infeld con ese título (1938), de carácter no histórico, sigue teniendo
validez en lo fundamental, a pesar de los años transcurridos desde la actualización hecha por
Infeld (1961). La razón es muy simple: desde entonces, no han surgido teorías verdaderamente
nuevas en la física que nos hagan cambiar de paradigma. Estas últimas son la QT y la GT. Un
buen complemento, más histórico que el anterior, quizá menos conceptual y menos profundo
pero más amplio y más actual, aunque centrado en la astronomía, lo constituye To explain the
world: the discovery of the modern science. (Weinberg, 2016.) La ventaja al hacer un recorrido
por la historia radica principalmente en poder examinar otros puntos de vista que en su
momento no fueron exitosos. En ocasiones las ideas reviven y, una vez corregidas o ampliadas,
tienen éxito. Así ocurrió con la teoría corpuscular de la luz debida a Newton y con el concepto
de constante cosmológica introducido por Einstein. Aunque el enfoque ondulatorio de la luz
era correcto en principio, tuvo durante mucho tiempo un grave lastre: las ondas se
propagarían en un medio sutil, el éter. Además, no era claro qué era lo que se propagaba. Fue
necesario esperar a que se disiparan las dos nubes a que hacía referencia Kelvin en 1900, a las
que volveremos más adelante. Una de ellas tenía que ver precisamente con la existencia o no
del éter. La otra, aparentemente más sencilla, tenía que ver con el problema de la
equipartición de la energía. Su solución puso de manifiesto otros nubarrones en el firmamento
clásico, a los que también volveremos.
En esta y la siguiente sección resumiremos algunas de las ideas que llevaron a una mejor
descripción de la naturaleza a partir de una nueva concepción de la materia, la energía y el
espacio-tiempo. Aunque no hemos seguido más que parcialmente la línea de los autores
anteriores, la idea central se mantiene la misma: la ciencia no se inventa, se descubre; en
palabras de Einstein, la construcción del conocimiento científico es una tarea detectivesca. Y
para ello se requiere tanto del razonamiento como de la experimentación… del olfato; en
ocasiones las pistas son falsas… a e udo las o jetu as so equivocadas; las buenas pistas se
constituyen después en avances que nos llevan por el buen camino; los avances facilitan el
diseño de nuevos experimentos y la elaboración de novedosos planteamientos, luminosas
conjeturas y pistas adicionales. Todo esto sumado hace que el avance de la ciencia, por ende
de la tecnología, sea cada vez más vertiginoso, a la vez que apasionante.
La física hoy es tan apasionante como lo fue con Galileo, Newton y sus predecesores o quizá
más. La astronomía, la contemplación de la desmesura cósmica, fue en aquella época su mayor
aliciente y para la sociedad lo fue el poder predecir la ocurrencia de algunos fenómenos
naturales de interés para la comunidad. Cuando se pudo mirar a lo que se juzgaba
infinitamente pequeño se tuvo un nuevo espacio para construir modelos y diseñar artefactos
que llevarían simultáneamente a una mejor comprensión de la naturaleza y a mejorar, en
principio, las condiciones de vida de la especie. Nos estamos refiriendo al mundo
microscópico, del que surgiría más recientemente el universo nanoscópico.
En la segunda parte trataremos el tema de la nanotecnología. Esta, convergencia de varias
ciencias en la escala nanométrica, no podría haberse desarrollado sin los descubrimientos que
condujeron a la física cuántica. Tampoco habría podido surgir la física de las altas energías,
emparentada con la cosmología.
Reparando en la acepción develar que tiene el verbo descubrir, es como si numerosos velos
cubrieran el entendimiento de la naturaleza, la comprensión de sus fenómenos y la
interrelación entre ellos. Las primeras capas, verdaderos caparazones, son difíciles de separar,
pero también lo son las más profundas. La capacidad de la ciencia, en particular de la física,
para abordar esa tarea develadora, es lo que destacamos a grandes rasgos en esta sección.
Contrástese el significado de este término con el de revelar, palabra mágica a la que apelan las
religiones.
Antes hemos presentado sucintamente los orígenes de la ciencia antigua sin detenernos en su
desarrollo. Ahora nos corresponde examinar este último desde que se puede hablar de ciencia
moderna, sin profundizar en los conceptos. A estos nos hemos referido en los apéndices,
dejando de lado la historia. Primero fue el problema de la adecuada descripción del
movimiento, un asunto que está emparentado con la geometría. No bastaba con observar los
astros, planetas o estrellas. El examen de su comportamiento condujo al descubrimiento de la
capacidad predictiva de la ciencia y de su simplicidad.
Después vino el asunto de determinar las causas del cambio de movimiento. Surgió así la
posibilidad de predecir, con la precisión de los mecanismos de relojería, el movimiento de los
planetas y de los objetos que se mueven en la superficie terrestre. Se encontró que las causas
pueden estar en esos mismos cuerpos. Si las causas están en ellos, debe haber un principio de
reciprocidad. Tal vez no fue demasiado complicado para una mente inquieta e imaginativa
como la de Newton adivinar esa reciprocidad en el llamado Principio de Acción y Reacción,
conocido generalmente como su tercera ley. La relatividad del movimiento condujo a Galileo a
enunciar el Principio de Inercia, también llamado primera ley del movimiento de Newton. Fue
mucho más complicado el enunciado de la segunda ley, la ecuación de movimiento por
antonomasia.
Galileo había estudiado el problema de la caída de los cuerpos bajo el efecto de la gravedad.
Hay indicios de que en el siglo IX un monje escocés, Duns Scotus, sugirió que la fuerza de
gravedad que hace que los cuerpos caigan decrece con la distancia a la superficie de la tierra,
mas no hizo referencia alguna al movimiento de los planetas.
Fue el cura y astrónomo Ismael Bulliardus quien expuso por primera vez (1645) la hipótesis de
que los planetas eran atraídos por el sol con una fuerza inversamente proporcional al
cuadrado de la distancia y defendió el movimiento elíptico de aquellos a partir de las
observaciones de Kepler, en contra de la suposición de Galileo y Copérnico. La tercera ley de
Kepler, que expresa la proporcionalidad entre el cuadrado del periodo y el cubo del radio
medio de la trayectoria, en particular para el caso del movimiento circular, más fácil de
examinar, lleva a la proporcionalidad con el inverso del cuadrado de la distancia, en este caso
el radio de la trayectoria. En efecto, ya era claro para Huygens (1659), aunque probablemente
Newton lo encontró por un razonamiento independiente, que existía una aceleración asociada
al cambio en la dirección del movimiento: se trata de la aceleración centrípeta, proporcional al
cuadrado de la rapidez (magnitud de la velocidad) e inversamente proporcional al radio, en
general el radio de curvatura, constante para el movimiento circular, variable para el
movimiento elíptico. (Véase apéndice I.) Pero la rapidez en el movimiento circular no es más
que el perímetro de la circunferencia dividido por el periodo. Así, pues,
v2/R = (2ΠR/T)2/R = 4Π2R/T2.
Si se recuerda que el lado izquierdo es la aceleración, proporcional a la fuerza gravitacional, y
se tiene en cuenta la tercera ley de Kepler, que nos dice que el cuadrado del periodo es
proporcional al cubo del radio para este caso, es evidente que la fuerza gravitacional será
proporcional al inverso del cuadrado de la distancia. Hemos pasado por alto la dificultad en
reconocer que la fuerza es la causa del cambio de velocidad en un sentido general, es decir,
de la aceleración. En 1665, el primer año de la peste, Newton empezó a pensar en estos
problemas, a la vez que inventaba como herramienta para resolverlos el cálculo diferencial e
integral.
Newton fue más allá y enunció la ley de atracción entre cuerpos masivos o de gravitación
universal en la forma en que hoy la conocemos:
Fg = GMm/R2,
expresión en la cual m es la masa gravitacional del objeto atraído (acelerado) y M la del objeto
que ejerce la fuerza. La situación puede describirse a la inversa, pues entre dos cuerpos
masivos hay una interacción o acción recíproca, por ende una reacción en cada uno de ellos,
de acuerdo con la tercera ley. Pero esas acciones so pe tu a io es… las pe tu a io es se
propagan o avanzan, poco a poco o muy rápidamente; no lo hacen instantáneamente. Newton
tuvo que admitir, a su pesar, la acción a distancia, una limitación del esquema mecanicista que
no podría resolverse sino dos siglos más tarde, en forma parcial.
Fue Henry Cavendish quien comprobó, mediante un experimento realizado con gran precisión,
reportado en 1798, la proporcionalidad entre la fuerza de atracción gravitacional y la masa o
cantidad de materia del cuerpo. Para entonces, la ley de Coulomb, que expresa una relación
similar (ley del inverso al cuadrado) para la interacción entre cargas eléctricas, ya había sido
enunciada. Probablemente Cavendish mismo tuvo mucho que ver con ella, aunque nunca
reclamó paternidad en este ni en otros de sus experimentos eléctricos.
1.7 Las dos grandes teorías deterministas y sus limitaciones
Newton y Maxwell tienen el privilegio de haber sintetizado las 2 grandes teorías de la física
clásica que seguirán siendo el fundamento de las aplicaciones macroscópicas, el primero de la
mecánica (debería denominarse dinámica), el segundo de la electrodinámica (ED), usualmente
llamada electromagnetismo. Einstein intentó unificar las dos teorías; ese intento continúa
vigente. El gran mérito de Einstein fue descubrir que el campo gravitatorio es una alteración de
la curvatura del espacio-tiempo, debido a la presencia de grandes masas. Otro resultado de su
teoría es la equivalencia entre la masa inercial y la masa gravitacional, o Principio de
Equivalencia, el cual en términos sencillos afirma: un sistema inmerso en un campo
gravitatorio es puntualmente indistinguible de un sistema de referencia no inercial acelerado.
Para el lector que no ha seguido un curso de nivel terciario (o universitario, si se prefiere),
hemos hecho un recuento pedagógico en el apéndice.
Los grandes avances conceptuales que superaron a la mecánica de Newton vinieron
precisamente de la investigación de los fenómenos eléctricos y magnéticos en el siglo
siguiente, particularmente en la segunda parte. Nos dicen Einstein e infeld:
«Durante la segunda mitad del siglo XIX, se introdujeron en la física ideas nuevas y revolucionarias, que
abrieron el camino a un nuevo punto de vista filosófico, distinto del anterior mecanicista. Los resultados
de los t a ajos de Fa ada , Ma ell He tz o duje o al desa ollo de la físi a ode a… a u a ue a
imagen de la realidad».

Antes de hacer una síntesis de los fenómenos eléctricos y su interpretación moderna,


volvamos a la pieza central de la mecánica. Para ello reproducimos aquí dos figuras que
pueden verse en varios textos. La primera ilustra lo que se denomina Campo Gravitatorio de la
Tierra, en la región exterior: decrece con el inverso del cuadrado de la distancia. Por dentro el
comportamiento del campo es diferente: decrece linealmente a medida que nos acercamos al
centro. (Intente dibujar por usted mismo la intensidad o magnitud del campo gravitatorio g,
teniendo en cuenta que el centro de la tierra es el origen de coordenadas. Si quisiera pensar
en números, en la superficie vale aproximadamente 10 m/s 2.) Líneas de fuerza del campo se
denominan a las flechas que apuntan hacia la superficie y el centro de la tierra e indican, en
cada punto exterior, la dirección e intensidad en la primera de las figuras.

Figura 1.1a. Campo gravitacional debido a la Tierra. Se ilustran las denominadas líneas de campo, pero
solamente para la región exterior. En el interior no es tan sencillo hacerlo siguiendo el mismo esquema.
Figura 1.1b. Experimento pensado de Newton. Desde lo alto de una montaña (irreal) se lanzan bolas de
cañón cada vez con mayor velocidad (suministrándoles más impulso inicial). Finalmente la bola dará la
vuelta a la tierra, describiendo una trayectoria circular. Eso es lo que hace un satélite artificial (círculo
interno, para un caso extremo, o el externo para una situación real).
La segunda, la de la derecha, reproduce un diagrama de Newton con el que ilustra lo que
ocurriría a una bala de cañón que se lance con rapidez cada vez mayor en dirección horizontal
desde lo alto de una montaña, si no se tiene en cuenta la atmósfera terrestre. Es evidente que
la masa del proyectil es completamente insignificante comparada con la de la tierra, por lo que
el movimiento de esta última no se considera. Ese experimento pensado lleva a la conclusión
de que en algún momento la bala de cañón describirá una trayectoria circular, con la
característica de que la dirección de la velocidad es perpendicular al campo gravitatorio. Ese es
en esencia el comportamiento de los satélites artificiales modernos, como ilustra el círculo
externo, lo mismo que ocurre con la luna, satélite natural de la tierra.
Para la trayectoria circular, caso de la luna y los satélites artificiales, se mantiene la rapidez,
por ende la energía cinética o de movimiento del objeto que gira. En general el movimiento es
elíptico para una tierra que pueda suponerse estática, y se va a conservar lo que se denomina
energía mecánica, suma de la energía cinética y de la energía potencial, siendo esta negativa y
disminuyendo su magnitud con el inverso de la distancia. (Véase el apéndice I.)
La representación del campo de fuerza tiene la ventaja de que no hace alusión al objeto sobre
el que actúa la gravedad terrestre. Aparentemente esta era la única ventaja. Pero gracias a
Maxwell, a Einstein y a sus predecesores el campo se volvió algo real. En la nueva física, está
constituido por partículas, denominadas bosones intermediarios. Para el caso del campo
electromagnético, los bosones son los fotones. Cuando se publicaron estas notas por primera
vez (virtualmente, el 15/02/2016), justo se acababan de detectar las ondas gravitacionales. Es
decir, estamos ad portas (¡aún falta mucho!) de detectar gravitones. Pero vamos por partes.
El movimiento del electrón en el átomo de hidrógeno, si se analiza clásicamente, sería similar
al de la luna o el satélite alrededor de la tierra o el de los planetas alrededor del sol. Hay, no
obstante, una diferencia esencial: siendo el electrón una partícula cargada, al girar de acuerdo
con las leyes clásicas produciría una onda electromagnética, es decir, radiaría energía, por lo
cual caería irremediablemente al núcleo atómico si se aplicaran las mismas leyes clásicas de la
dinámica y de la ED. Afortunadamente no es así, y fue ese el verdadero comienzo de la teoría
cuántica, QT, gracias a Niels Bohr.
Supongamos que no es el electrón el que va a moverse en trayectoria circular sino un conjunto
de electrones, como ocurriría al establecerse una diferencia de potencial a lo largo de un
alambre de cobre de forma circular; el resultado es una corriente eléctrica, que para el caso se
denomina corriente estacionaria. Este fue un famoso experimento realizado públicamente por
el danés Christian Ørsted en 1820, con enormes repercusiones desde el punto de vista
conceptual. La más importante conclusión: al igual que los imanes, una corriente eléctrica
produce campos magnéticos.
Cualquiera podría imaginar que con esta observación ya quedaron completos los fundamentos
del electromagnetismo: las cargas eléctricas producen campos eléctricos y las corrientes
eléctricas crean campos magnéticos. Los fenómenos no son así de simples, en particular
porque el movimiento de las cargas es variable. Eso quiere decir que los campos producidos no
serán estacionarios (estáticos), como por simplicidad hemos supuesto para el campo
gravitatorio.
Como lo señalan Einstein e Infeld, las observaciones y generalizaciones de Faraday, Maxwell y
Hertz y, una década antes que este último descubriera las ondas hertzianas, el experimento de
‘o la d, die o luga a u a ue a isió de la físi a, o duje o a u a ue a i age de la
ealidad . En resumen, con su ley de inducción electromagnética, Faraday estaba dando
cuenta de un gran descubrimiento: que un campo magnético variable en el tiempo, sin
importar el origen de esa variación, produce un campo eléctrico, por tanto es capaz de
generar corrientes eléctricas en conductores; Maxwell, intuyendo una reciprocidad en el
comportamiento, descubrió la ley de inducción magnetoeléctrica, a saber, que un campo
eléctrico variable produce un campo magnético, y Hertz unificó estos dos descubrimientos,
que teóricamente habían llevado a Maxwell a predecir la existencia de ondas
electromagnéticas, produciendo ondas de radio en el laboratorio. La generalización de los
resultados y la inclusión de las ondas de luz dentro del espectro electromagnético estaban a la
vuelta de la esquina.
Pero el experimento de Rowland tenía mucho más de fondo. Recuérdese que el experimento
consistió en hacer girar en trayectoria circular una esfera cargada, comprobándose que
producía un campo magnético, similar al de la corriente circular de Ørsted. Ese experimento,
trasladado a nivel atómico, una vez iniciado el siglo XX, llevaría a la conclusión de que las leyes
del electromagnetismo resumidas por Maxwell en sus 4 ecuaciones, tenían pies de barro.
En síntesis, a pesar de lo grandiosas, las dos grandes teorías de la física moderna, la dinámica
de Newton y la ED de Maxwell deberían modificarse. La primera modificación, que por cierto
afectó solo a la primera, provino de los resultados negativos del experimento de Michelson y
Morley (1887) y condujo en primera instancia a la teoría de relatividad especial. La segunda, a
la QT. Einstein, trabajando en solitario, con ayuda de algunos matemáticos prominentes,
produjo posteriormente la GT. Las dos teorías son tan precisas como complejas. Se entiende
conceptualmente más fácil la segunda que la primera, pero la matemática de esta última es
más complicada, sin que ello signifique que los postulados cuánticos, enunciados
matemáticamente, sean triviales. El gran éxito de la última, la predicción de las ondas
gravitacionales, acaba de verificarse en el laboratorio LIGO (laser interferometer gravitational-
wave observatory), después de un siglo de haber sido formulada la ecuación fundamental.
1.8 Lo que faltaba (y lo que falta) por descubrir
Pero ahí no termina la historia. Ahora resulta que las perturbaciones mismas son también
materiales: esas ondas son corpúsculos, y viceversa. Vista en perspectiva, la sorprendente
hipótesis de Einstein de que la luz está compuesta de corpúsculos vino a ser como la solución
práctica de un problema, y así fue concebido inicialmente. Lo mismo ocurrió con la hipótesis
complementaria, lanzada por de Broglie dos décadas después, de que el electrón es una onda.
Ahora decimos que el comportamiento de uno y otro, en general de cualquier objeto cuántico,
es dual.
Einstein meditó por más de medio siglo qué quería decir aquello de que la energía de la luz
esta a ate ializada e g a os. ¿Qué so los g a os de luz? , se segui ía p egu ta do po o
a tes de su ue te. Y ag ega ía sa ásti a e te: Lle o edita do so re esta cuestión más
de 50 años. Cualquier pillo (refiriéndose a los físicos ortodo os ee te e la espuesta… pe o
se e ui o a .
Aunque él no lo postuló de esa manera, lo que hay en las ondas gravitacionales que se acaban
de descubrir son gravitones. Parece una extensión elemental de su hipótesis sobre las ondas
gravitacionales, las perturbaciones en el espacio-tiempo provocadas por la presencia de la
materia-energía, como podría decir Wheeler. Su verificación experimental será mucho más
compleja que la de los fotones, cuya existencia no dejó lugar a dudas después del experimento
de dispersión de rayos X ideado por Compton que condujo al efecto del mismo nombre. (Para
entender lo que significa dispersión en este contexto, véase el apéndice.)
Las 4 interacciones fundamentales, a saber, la gravitacional y la electromagnética que se han
revelado desde muy antiguo y a las que se agregan las descubiertas en el núcleo, débil y fuerte
sucesivamente, están mediadas por los denominados bosones intermediarios. A estos hay que
agregar otro, postulado hace más de medio siglo y recientemente descubierto, el bosón de
Higgs. Algunos podrán creer que el fin de la historia de los descubrimientos en física está a la
vuelta de la esquina. Si así pensáramos, seríamos tan ingenuos como Maxwell y Lord Kelvin a
fines del siglo antepasado. Esos grandes descubrimientos o verificaciones experimentales a
que nos acabamos de referir, el bosón de Higgs y las Ondas Gravitacionales, no son más que el
preámbulo a nuevos velos que habrá que remover en el avance interminable de la ciencia. A lo
mejor son solo la punta del iceberg. Como sea, la unificación de las interacciones con la que
soñara Einstein se ve todavía lejana.
En esta primera parte del siglo, sin lugar a dudas, los avances más espectaculares se darán en
el procesamiento de la información, seguramente con grandes sorpresas en el procesamiento
de la información cuántica. La tercera parte de este escrito está dedicada a las primeras
exploraciones que se han hecho en este terreno. La primera gran verificación experimental en
esa dirección se dio hace ya más de 3 décadas, con el experimento de Alain Aspect (1982),
rigurosamente antes con el de John Clauser (1972). Los dos físicos que acabamos de
mencionar, al igual que Higgs, recibieron el preciado galardón Nobel. Si se es justo, la no
localidad de la teoría cuántica que hoy sigue conmocionando al mundo y produciendo
maravillosos resultados prácticos, fue probada hace ya medio siglo con el descubrimiento del
denominado efecto Aharonov-Bohm (1957). El trabajo de aquellos pioneros y de otros que han
seguido sus huellas no deja lugar a dudas sobre la rareza más descomunal de la teoría
cuántica, o su predicción más fantasmagórica, como dijeran Einstein, Podolsky y Rosen en
lenguaje sarcástico (EPR, 1935).
John Bell de seguro hubiera recibido también la famosa presea, de no haber muerto
prematuramente, por la célebre desigualdad que lleva su nombre (1964). Fue el comienzo de
las correlaciones cuánticas o correlaciones no locales, como se denominan de manera más
general.
Un físico latinoamericano poco conocido como tal, pues dedicó la segunda parte de su vida a la
literatura y a la reflexión filosófica, nos dice:
«Frente a la infinita riqueza del mundo material, los fundadores de la ciencia positiva
seleccionaron los atributos cuantificables: la masa, el peso, la forma geométrica, la posición, la
velocidad. Y llegaron al convencimiento de que "la naturaleza está escrita en caracteres
matemáticos, cuando lo que estaba escrito en caracteres matemáticos no era la naturaleza,
sino... la estructura matemática de la naturaleza. Perogrullada tan ingeniosa como la de
afirmar que el esqueleto de los animales tiene siempre caracteres esqueléticos.» (Sábato,
1951.)
Continúa Sábato: «Esta es una muestra de cómo los cientistas (cientificistas) son capaces de
entregarse a la imaginación más desenfrenada en lugar de atenerse, como pretenden, a los
hechos. Los hechos indican, modestamente, que el movimiento de la esferita cesa, tarde o
temprano. Pero el cientista no se arredra y declara que esta detención se debe a la
desagradable tendencia de la naturaleza a no ser platónica. Pero como la ley matemática
confiere poder, y como el hombre tiende a confundir la verdad con el poder, todos creyeron
que los matemáticos tenían la clave de la realidad. Y los adoraron. Tanto más cuanto menos
los entendieron.»
Ignoramos qué quiso decirnos Sábato con este último párrafo, pero el poder de la tecnociencia
no es platónico. El problema no es ese, sin embargo, la gravedad del asunto se revela
claramente en la frase de Carl Sagan sobre la mezcla peligrosa de ignorancia y poder atrás
citada.
En síntesis, nos faltará mucho por descubrir en el presente siglo y los avances más
espectaculares están por venir. Pero puede afirmarse sin reservas que en el camino hacia la
sabiduría nos resta mucho más por aprender y comprender. Para terminar este ya largo
capítulo, vayamos a los descubrimientos que rigurosamente dieron lugar a la ciencia
contemporánea: no fue la ley de radiación de Planck, con toda su importancia descomunal,
imposible de exagerar. Fue el descubrimiento del electrón, del fotón y del núcleo atómico,
además de todo lo que hay dentro de este último. Sobre el primero y el tercer descubrimiento,
se recomienda The discovery of subatomic particles de Weinberg en su edición revisada (2003);
para una historia más extensa sobre el electrón, véase (Ley Koo, 1997); para el segundo, la
literatura es más abundante; pueden verse, p.e., (Beltrán, 1992; Cetto, 1987).
Las aplicaciones de la física cuántica a la biología, por no decir los efectos cuánticos en
sistemas biológicos, incluidos los sistemas neuronales, seguramente será uno de los capítulos
más interesantes de la ciencia en los próximos años.
1.9 Descubrimiento del electrón, del fotón y del núcleo atómico
Para la electrónica del Siglo XX fue tan importante el descubrimiento del electrón hecho por
Joseph J. Thomson (1897), más exactamente el establecimiento de su carácter corpuscular,
como lo fue la verificación experimental 30 años después (1927) del comportamiento como de
onda que a menudo (complementariamente, diríamos hoy) exhiben los electrones, de la que
participó su hijo William George Paget. El primero dio lugar a la electrónica de los tubos de
vacío, predominante en la primera mitad del siglo, el último a la de los semiconductores,
durante la segunda. En el presente siglo la nano-opto-electrónica sigue haciendo de esta
partícula-onda y de su compañero inseparable, el fotón, onda-partícula, los protagonistas
principales. Rigurosamente hablando, el electrón no fue descubierto, se sabía de su presencia
y se le trataba como si fuera un continuum en el fluido eléctrico. Tampoco el fotón, presente
en las ondas luminosas. Leucipo imaginaba que la luz estaba compuesta de partículas
extremadamente diminutas y Newton elaboró una teoría sobre esas partículas, con base en
sesudos experimentos.
Recordábamos en la introducción que 2015 fue declarado Año Internacional de la Luz (IYL, por
las siglas en inglés). Es innecesario resaltar su importancia. Hoy tenemos claro que (haciendo el
papel de pillos a que aludiera Einstein), como lo afirmaron ya los griegos y después lo sostuvo
Newton, ella está compuesta de partículas extremadamente diminutas. El término fotón fue
introducido por Gilbert Lewis en 1926; el concepto moderno sobre esos misteriosos granos de
energía se lo debemos a Einstein; el IYL es un reconocimiento tardío a su aporte, no solo en la
clarificación del concepto, si es que se puede afirmar que lo tenemos claro, sino también a su
otra teoría, no reconocida adecuadamente por el Comité Nobel, la Teoría de Gravitación.
En rigor no podemos afirmar que alguien haya descubierto el fotón: fue Arthur Compton
(1923) quien dio la primera demostración inequívoca sobre su existencia, prevista desde
tiempos inmemoriales. Cuando los griegos de la escuela epicúrea afirmaron que todo está
hecho de átomos y luz, y creyeron que la luz eran partículas extremadamente diminutas,
estaban en lo cierto. La palabra átomo que ellos acuñaron fue reducida por Dalton a los
elementos entonces conocidos. Si nos atenemos a partes irreducibles o indivisibles, las
partículas elementales que hoy conocemos serían los verdaderos átomos a que se referían
Leucipo y sus seguidores. Entonces el electrón y el fotón sí que son constituyentes
fundamentales de la materia estable.
Hasta cierto punto, ocurre lo mismo con el núcleo. Desde hace cerca de un siglo sabemos que
sus ingredientes son protones y neutrones; también hemos aprendido que estos últimos son
inestables, como lo son en una mayor proporción los elementos pesados y los livianos que no
tienen el mismo número de protones y neutrones. Hace ya más de medio siglo que esos
constituyentes del núcleo dejaron de ser partículas elementales. El modelo estándar nos habla
más bien de los quarks, en 6 variedades con sus correspondientes anti-quark, y de los leptones,
cuyo representante estable es precisamente el electrón. El muón y el tauón son formas más
exóticas de leptones, y aparentemente lo son sus correspondientes neutrinos, presentes por
todas partes, aunque no los sintamos, en sus 3 variedades: electrónico, muónico y tauónico.
El descubrimiento del núcleo atómico tuvo más variantes que el del electrón. La radiactividad,
descubierta en 1896 por Antoine Henri Becquerel, sirvió de detonante a una vigorosa
investigación atómica que se plasmó en el modelo de Rutherford, presentado por primera vez
en 1911. Fue el neozelandés E est ‘uthe fo d uie autizó o el o e de adia io es α,
β γ a las emisiones encontradas en el periodo anterior; corresponden ellas a núcleos de helio,
electrones o positrones y radiación electromagnética de una energía mayor que la de los rayos
X, respectivamente, procedentes todas del núcleo atómico. De ahí surgió un vigoroso campo
de investigación denominado física nuclear. Pero el asunto no terminó ahí, por el contrario,
sigue dando lugar a investigaciones fundamentales y aplicadas de todo tipo, incluidas las que
se hacen sobre armas nucleares y las que se realizan hoy en el CERN, las cuales arrojan luz
sobre los ingredientes fundamentales de la materia-energía y los misterios que precedieron a
la gran explosión. Es imposible referirnos a estos asuntos ampliamente en el presente ensayo,
aunque no se pueden soslayar del todo.
Dada su importancia en la evolución de las ideas sobre los constituyentes últimos de la
materia, en esta última sección del capítulo describimos los experimentos que condujeron al
descubrimiento del electrón, del núcleo y del carácter corpuscular de la luz. Del primero y
tercero, con algunos de los antecedentes históricos, incluidos los mal llamados rayos catódicos
y el fenómeno de los fotoelectrones; del segundo más escuetamente: allí inicia la verdadera
historia de las partículas elementales, tema que no podremos cubrir a satisfacción. Esos
descubrimientos dieron lugar a los primeros modelos, hoy totalmente descartados, de un
átomo que dejó de ser indivisible. La explicación del efecto fotoeléctrico y las falencias de los
primeros modelos atómicos darían lugar a uno mucho más realista, a la postre también
equivocado, el cual tiene el mérito de incorporar los saltos cuánticos, tan absurdos o más que
los corpúsculos de las ondas luminosas. Nos referimos al Modelo de Bohr, a pesar de lo
erróneo, tan utilizado en textos básicos sobre el átomo. Por su importancia histórica,
volveremos a él en el segundo capítulo.
1.9.1 El electrón como partícula
A finales del siglo XIX tuvo lugar una gran controversia sobre la naturaleza de las descargas
eléctricas en gases rarificados, en particular sobre las que los experimentalistas dieron en
llamar rayos catódicos. Interesantes en sí mismos, su estudio llevó a Thomson a un problema
más básico: la naturaleza de la electricidad. El resultado fue triplemente gratificante, porque:
1) puso de relieve la divisibilidad del átomo; 2) llevó al descubrimiento de la primera partícula
elemental que se conoce, la única que ha permanecido como tal por más de cien años y la más
liviana de todas, a excepción del neutrino; 3) dilucidó el carácter de la electricidad, finalmente
corpuscular o granular, de acuerdo con los resultados del experimento, al contrario de lo que
supusieron en casi todas las concepciones precedentes, que la imaginaron como un
continuum.1 Aunque en el lenguaje diario se hable del fluido eléctrico, una persona bien
informada sabrá que el transporte de carga en los conductores lo realizan los electrones.
En realidad, la historia de tales rayos se remonta dos siglos atrás. Rigurosamente hablando,
podría rastrearse su origen al de la descarga eléctrica conocida precisamente por ese nombre
desde muy antiguo y sistemáticamente estudiada por primera vez por el norteamericano
Benjamín Franklin. Podría decirse que con los electrones ocurrió al revés que con los fotones o
partículas de luz; con estos últimos, por cerca de dos milenios, desde Demócrito hasta
Newton, se creyó acertadamente (hasta cierto punto) que eran diminutos corpúsculos; a
finales del siglo XIX se creía que los rayos catódicos y los rayos de luz eran ondas; ahora resulta
que los dos haces están compuestos por partículas que bajo ciertas circunstancias se
comportan como ondas. Pero volvamos a la historia del descubrimiento del electrón como
partícula.
En 1709 Francis Hauksbee, conocido por sus observaciones sobre la repulsión eléctrica,
reportó que cuando se extrae aire de una vasija de cristal hasta cuando la presión se reduce a
1/60 la presión del aire normal y se conecta la vasija con una fuente de electricidad de fricción,
aparece una extraña luz en el interior del recipiente. Destellos similares fueron reportados y
asociados al vacío parcial que se produce en la superficie superior de columnas de mercurio en
los barómetros. En 1748 el médico naturalista William Watson describía la luz surgida en un
tubo de 81 centímetros en el que se había p o o ado el a ío, o o u a o de lla a
la ie te . Mi hael Fa ada ha la ta ié e sus otas de tales rayos. Pero al igual que sus
contemporáneos no acertó a comprender la naturaleza de esa luz: era demasiado temprano
para realizar los experimentos que la minuciosa observación (indirecta) de tan diminutas
partículas requería.
El rayo, complejo fenómeno de descargas eléctricas que sirvió de punto de partida, tal como
lo concibieron o imaginaron destacados científicos del siglo XIX, podría ser una forma de

1
Hasta hace medio siglo se creía que la carga se presentaba siempre en múltiplos enteros de la carga del
electrón. Gell-Mann y Nishijima, en un intento por reducir a unas pocas el enorme número de partículas
hadrónicas observadas, propusieron un modelo teórico en el que se supone la existencia de algunas
partículas elementales que exhiben carga fraccionaria, 1/3 o 2/3 de la carga del electrón: éstas son los
quarks, de los cuales se han descubierto seis tipos, o mejor, tres colores en dos diferentes sabores.
radiación producida por las vibraciones del éter, en cuyo caso sería similar en su naturaleza a
las ondas de luz o bien podría ser un haz de partículas diminutas. La naturaleza del rayo que se
asocia con el trueno, una corriente de electricidad, había sido puesta en evidencia en
experimentos realizados en 1752, sugeridos precisamente por el científico y político
norteamericano, quien dedicó muchos de sus esfuerzos a estudiar las intrigantes propiedades
de esas descargas, poniendo en riesgo su vida.
El escenario adecuado para estudios más cuidadosos exigía el desarrollo de tubos de vacío, lo
que se logró por primera vez en Alemania, con los tubos de Geissler. Johan Heinrich Geissler
era un experto soplador de vidrio y encontró la manera de sellar las uniones utilizando
mercurio. Su variante, el tubo de Crookes, permitió la observación más minuciosa de los que
inicialmente se denominaron rayos catódicos. El británico William Crookes e investigadores
alemanes, entre ellos Hertz, quien tuvo el privilegio de producir en su laboratorio las primeras
ondas de radio, inicialmente pensaron que se trataba de ondas electromagnéticas, de ahí la
denominación de rayos; sus colegas franceses y británicos eran de la opinión de que se
trataba de una corriente eléctrica. En 1894 el colaborador de Hertz Philipp Lenard observó
cómo los rayos catódicos traspasaban fácilmente una delgada lámina metálica sin dejar huella
visible, lo que acentuó la creencia de que se trataba de ondas electromagnéticas. Un factor
adicional de confusión lo introdujeron los rayos X, descubiertos por Wilhelm Röntgen al año
siguiente (1895), quien por ese descubrimiento recibiera el primer premio nobel en Física en
1901. Aunque Crookes cambió de opinión después de algunos experimentos en los que
incluso logró hacer que el haz de rayos catódicos moviera una liviana paleta, correspondió a su
compatriota Thomson dirimir la cuestión. Todavía no existían razones para creer que
existieran partículas de tamaño y masa mucho menor que los átomos mismos.
La explicación hoy en día es muy sencilla: cuando una corriente eléctrica fluye a través de un
gas, los electrones que forman parte de la corriente (un enjambre de electrones libres)
golpean contra los electrones de los átomos presentes en el gas (electrones ligados)
aumentando su energía (excitándolos y llevándolos a niveles superiores de energía, diríamos
hoy), la que torna a desprenderse en forma de luz (decaimiento o desexcitación) si las
condiciones son favorables. La experiencia que realizaron Franck y Hertz en 1914 lo confirman.
Este fue uno de los experimentos claves que ayudaron a establecer la teoría atómica
moderna, pues muestra que los átomos absorben y emiten energía en pequeñas porciones o
cuantos de energía, verificándose los postulados de Bohr con electrones como proyectiles que
proveen la energía. Las pantallas fluorescentes y las señales de neón se basan en el mismo
principio; la coloración está determinada por la frecuencia de la luz (fotones) que más
favorablemente emiten los átomos del gas (en realidad, los electrones ligados, al pasar de uno
a otro nivel de energía).
Era necesario eliminar al máximo permitido por la tecnología de la época el gas residual, antes
de poder detectar al responsable del efecto; era indispensable disponer de bombas de aire
eficaces. En 1885 Geissler inventó una que reducía la presión a una diezmilésima de su valor a
nivel del mar. Julius Plücker, catedrático de filosofía natural en la Universidad de Bonn, realizó
las primeras observaciones bajo estas nuevas condiciones. Utilizando la terminología de
Faraday, se denomina ánodo a la placa unida a la fuente de electricidad positiva y cátodo a la
otra. Resumiendo las observaciones, diríase que algo salía del cátodo, viajaba a través del
espacio casi vacío del tubo, golpeaba el cristal y era recogido por fin en el ánodo. Fue Eugen
Goldstein quien bautizó esa extraña sustancia con el nombre de rayos catódicos.
Pero los rayos catódicos no eran rayos, no formaban parte de la luz, un efecto secundario. Ya
el francés Jean Perrin, más reconocido por la verificación que hizo de las predicciones de
Einstein en torno a los átomos en 1908, desde 1895, en su tesis doctoral, había demostrado
que los rayos depositaban carga eléctrica negativa en un colector de carga. Y el alemán Walter
Kaufmann, asumiendo que se trataba de átomos cargados (o ionizados) del gas residual, trató
de establecer la relación e/m, llegando a la conclusión, para su sorpresa, de que era siempre la
misma, independientemente de qué gas residual se utilizara. Para entonces Thomson había
entrado en escena, pero sus primeras determinaciones de la velocidad de las partículas
estaban erradas. El hábil experimentalista Hertz había descartado prematuramente que las
partículas estuvieran cargadas: los campos eléctricos que aplicó para desviarlas no eran
suficientemente intensos, lo que le impidió culminar exitosamente el estudio emprendido en
su laboratorio; téngase presente además que el alemán estaba influenciado por la posición
filosófica de Ernst Mach, su compatriota. Thomson, libre de ese lastre, aunque no muy hábil
con sus manos, de acuerdo con el testimonio de sus auxiliares, sabía cómo planear el siguiente
paso para poder avanzar; y lo hizo acertadamente.
Rigurosamente hablando, nadie ha visto un electrón, a pesar de que desde hace más de un
siglo su existencia está por fuera de toda duda. Con los instrumentos adecuados, hoy en día se
detecta un electrón o un fotón, o mejor, el paso de un electrón o de un fotón. El tubo de rayos
catódicos (TRC), el mismo que daría lugar a las primeras pantallas de televisión (TV),
consistente en un tubo de vidrio sellado de mediano vacío, con 2 placas metálicas (cátodo y
ánodo) que permiten la producción de una descarga eléctrica con un modesto voltaje,
condujo al descubrimiento del electrón como partícula.
Los aspectos centrales del experimento de Thomson, realizado para determinar la relación
entre la masa y la carga de las partículas responsables de los rayos, pueden verse en cualquier
texto de física y se resumen en una ecuación que sirve de paso para aplicar los conceptos de
campo eléctrico y campo magnético, novedosos para quienes no tienen experiencia previa en
cursos de física. No así las dificultades que tuvo que vencer. En abril de 1897 expuso ante la
Royal Institution su opinión de que esas partículas eran mucho más diminutas que los
denominados átomos: nadie en la audiencia estuvo dispuesto a creerle.
Echemos un rápido vistazo a todo el proceso. No se discuten los detalles por brevedad y
porque el TRC por él utilizado, del cual se ilustra un prototipo en la figura 1.2, forma parte de
la anterior generación de televisores domésticos. Sinteticémoslo de esta manera: el electrón
es previamente acelerado a través de una diferencia de potencial V negativa entre cátodo y
ánodo, ganando así una energía cinética ½mv2 = eV. Al entrar con rapidez v en una región
donde existe un campo eléctrico o un campo magnético (vertical u horizontal, según el caso,
aproximadamente uniforme) es desviado de su trayectoria horizontal una pequeña distancia δ
(δe o δb según el caso).
Lo esencial del experimento de Thomson se resume en la expresión que obtuvo para la
relación entre la masa y la carga del electrón, m/e, a partir de las desviaciones
experimentadas por esa partícula indivisible (rigurosamente a-tómica) en campos eléctrico E y
magnético B, desviaciones fácilmente evaluables a partir de la fuerza de Lorentz discutida en
el apéndice, aplicada al electrón en el estricto sentido newtoniano. Simbolizando por ℓ la
longitud de la región de desviación y por L la de la región de proyección (llamada también de
deriva), se encuentra:
m/e = E ℓ L/v2δe
o
m/e = B ℓ L/vδb,
según el caso. La rapidez de los electrones (para desviación con campo eléctrico, la
componente horizontal de velocidad) depende solamente de la energía eléctrica suministrada
a los electrones al acelerarlos en el campo eléctrico existente entre el cátodo y el ánodo,
dependiente a su vez de la diferencia de potencial aplicado entre los dos. Thomson la
encontró experimentalmente tomando la relación entre las dos expresiones anteriores:
v = Eδb/Bδe,
puesto que la rapidez es la misma en ambos casos. Es notable que el orden de magnitud de la
velocidad de los electrones así acelerados es una fracción importante de la velocidad de la luz,
alrededor de 108 m/s. Esto permite no tener en cuenta la atracción que de todos modos
ejercerá el campo gravitacional de la Tierra sobre la diminuta masa de los electrones, del
orden de 10-31 kg: el tiempo que tardan en cruzar la región de desviación es del orden de 10 -9
s, lo cual se traduce en caída gravitacional insignificante, despreciable para los cálculos.

Fuerza de Lorentz:

F = q(E + v×B)

Figura 1.2 Vista esquemática de un tubo de rayos catódicos similar al utilizado por Thomson para
establecer experimentalmente la relación entre la masa y la carga del electrón. En la parte superior se
ilustran los campos eléctrico y magnético como los utilizados por Thomson en su experimento para
desviar los electrones, salvo que en el segundo caso dispuso de dos embobinados adecuadamente
dispuestos para que produjeran un campo magnético uniforme, de acuerdo con el diseño de Helmholtz.

Juga do o oltajes a pos de a iadas i te sidades, Tho so pudo fi al e te


controlar y medir las desviaciones y probar al mundo científico de su época que el responsable
principal de los rayos catódicos era otra cosa: minúsculas partículas, mucho más diminutas
que el supuesto indivisible átomo, presentes por doquier, con manifestaciones visuales
impresionantes en las auroras boreales y australes y en todo tipo de descargas eléctricas
fuertes. En otras palabras, los tales rayos catódicos que finalmente se dejaron desviar por
campos eléctricos y magnéticos suficientemente intensos son los mismos que producen esos
campos, en condiciones usuales menos extremas. Esas partículas iban a ser los actores
principales en la electrónica de los tubos de vacío de la primera mitad del siglo XX. Unas
décadas más tarde, acompañados de los agujeros holes ue deja al se desp e didos po
campos internos en semiconductores dopados, huecos viajeros cargados positivamente, pues
son carencia de carga negativa, darían igualmente lugar a la electrónica del silicio y otros
materiales de banda prohibida (semiconductores; véase la segunda parte).
Estas últimas expresiones, tan en boga en la electrónica contemporánea, no tendrían sentido
clásicamente. No solo eso, el electrón tiene mucho más para ofrecernos que simplemente
producir las corrientes que circulan en diodos y transistores. Este ente cuántico por excelencia
habría de revelarnos otras pistas sobre el extraño comportamiento de la materia a nivel
submicroscópico. Referimos al lector a la excelente obra de Eugenio Ley Koo, El electrón
centenario (serie Ciencia para todos # 165, FCE), en donde se hace un meritorio recuento del
siglo del electrón (Siglo XX). (Ley Koo, 1997.)
1.9.2 Fotoelectrones

Figura 1.3 Efecto fotoeléctrico. Los fotones incidentes sobre el cátodo desprenden fotoelectrones.

Figura 1.4. a) Energía de amarre de los electrones y energía de los fotones incidentes. b) Variación de la
corriente con el voltaje (des)acelerador, para dos intensidades luminosas diferentes ((Ic)1 ˃ (Ic)2).
Heinrich Rudolf Hertz reformuló, con base en sus resultados, la teoría de las ondas
electromagnéticas. A él le debemos también la observación meticulosa (1887) del hoy
importantísimo fenómeno del efecto fotoeléctrico, una corriente eléctrica debida a los
denominados fotoelectrones, electrones desprendidos por la energía luminosa incidente
sobre una placa metálica que para el caso se denomina fotocátodo. Philipp Lenard, quien
había sido ayudante de Hertz, entre 1899 y 1902 estudió minuciosamente las características
de los fotoelectrones, razón principal para que fuera uno de los primeros físicos distinguidos
con el premio Nobel. Hertz había observado, en su estudio de los rayos catódicos, que bajo
ciertas condiciones se producía una chispa en una superficie metálica colocada en el tubo de
vacío iluminada con luz. Se trataba de la corriente fotoeléctrica. Así, pues, quien produjo en su
laboratorio las ondas EM por primera vez, observó también por primera vez el efecto de los
corpúsculos de luz. Hertz murió a los 36 años de edad (1894); su sobrino Gustav Ludwig
recibió, por su participación en el famoso experimento Franck-Hertz, la distinción Nobel que
con toda seguridad habría recibido también Heinrich de no haber muerto prematuramente.
Tras los resultados de Thomson, Lenard pudo comprobar que esos electrones inicialmente
confundidos con rayos podían producirse favorablemente con luz de alta frecuencia. La
explicación cualitativa del fenómeno era obvia: la luz transmitía energía a los electrones de la
placa, lo que les permitía salir despedidos. Pero un análisis minucioso del fenómeno trajo
muchas sorpresas.
Entre otras peculiaridades del fenómeno, observó que aplicando un contravoltaje adecuado
del emisor al colector, como indica la figura 1.4, se puede impedir la aparición de la corriente
para un valor Vo que no depende de la intensidad de la fuente luminosa sino del color o
frecuencia de la luz utilizada: para ese voltaje todos los fotoelectrones son frenados. Por otro
lado, por más que se aumente el voltaje acelerador, la corriente será la misma (corriente de
saturación) para una intensidad luminosa dada: para ese caso, todos los electrones que se
desprenden llegarán al colector. Esto indica que el número de electrones desprendidos sí
depende de la intensidad, como cabe esperar.

Figura 1.5. Tubo al vacío para producir fotoelectrones. El voltaje se puede invertir mediante un
conmutador para frenar los electrones desprendidos.
El equipo utilizado se esquematiza en la figura 1.5. El galvanómetro G permite detectar la
corriente producida por los electrones desprendidos por el haz de luz de frecuencia elevada. El
conmutador permite aplicar un contravoltaje que inhibe el paso de los fotoelectrones.
Lenard perfeccionó las observaciones de Hertz y llegó a 3 conclusiones importantes que no
tenían explicación clásica:

 Primero, la capacidad de la luz para desprender 1 electrón depende solamente de la


frecuencia. En otras palabras, la amplitud de la onda, que es lo que determina su
intensidad, no afecta el resultado de la emisión, como cabría esperar clásicamente,
solo del número de electrones afectados.
 Segundo, la emisión ocurre solamente por encima de una cierta frecuencia,
denominada frecuencia umbral; debería ocurrir la emisión a cualquier frecuencia,
bastaría con que la intensidad fuera lo suficientemente grande.
 Tercero, el proceso debería tomar un tiempo que puede estimarse desde la teoría
clásica. Por el contrario, se observa que el fenómeno ocurre instantáneamente.
Por estos y otros aportes, Lenard recibió el premio Nobel en 1905, precisamente el año en que
Einstein, sin que fuera el propósito principal de su hipótesis sobre los corpúsculos de luz,
lograra explicarlo. E ealidad, la de la a ió de la A ade ia di e si ple e te: po su
trabajo en ra os atódi os. “u apo te e ese te e o fue lo ue o ie tó a la post e los
experimentos que Thomson emprendió y le hicieron merecedor de tan codiciada presea.
Como nota que podría ir a un pié de página, cabe agregar que fue Lenard quien utilizó la
expresión despectiva ciencia judía, para sobreponerla a la ciencia aria, supuestamente
superior, en contra de las ideas de Einstein. Lenard, un hábil experimentalista, estuvo errado
en muchas suposiciones teóricas. En 1919 Johannes Stark, otro físico experimental defensor
de la ciencia aria pura, lo recibió por el descubrimiento del efecto que lleva su nombre,
consistente en el desdoblamiento de las líneas espectrales por influencia de un campo
eléctrico. (http://www.nobelprize.org/nobel_prizes/physics/laureates/)
Correspondió a Einstein, como ya se dijo, explicar el interesante fenómeno y el extraño
comportamiento observado en los experimentos. Su hipótesis (la luz se comporta, para el
caso, como corpúsculos de energía), a pesar de lo aparentemente absurda, no solo explicó de
paso el efecto fotoeléctrico: fue el pilar fundamental de una nueva teoría. Esta explicación no
fue muy aceptada al comienzo, a pesar de que permitía entender también la desesperada
solución dada por Planck al problema de la radiación de cuerpo negro.
Dejando de lado la denominada radiación de cuerpo negro, a la que volveremos para finalizar
este capítulo y le dedicaremos una parte del segundo, un fenómeno macroscópico de origen
cuántico difícil de entender en los cursos básicos, el efecto fotoeléctrico puede considerarse el
fenómeno cuántico más fundamental a nivel microscópico, decisivo para el surgimiento de la
nueva física, por lo demás de elemental explicación, si se acepta el contradictorio punto de
partida: la luz está compuesta de corpúsculos diminutos. No le dedicaremos más tinta por
ahora, salvo para ilustrar conceptualmente lo que ocurre sin entrar en detalles: la luz
incidente (un haz de fotones) desprende del metal electrones (se denominan fotoelectrones)
que pueden considerarse libres, salvo porque los separa del vacío una energía negativa, de
amarre; los fotoelectrones absorben de los fotones incidentes esa energía que requieren y un
poco más, si su frecuencia está por encima del umbral, por lo que van a tener una energía
residual en forma de energía cinética o de movimiento; el voltaje aplicado entre cátodo y
ánodo (colector) disminuye esta energía, logrando detener algunos; qué tantos, depende del
voltaje aplicado. La relación varía de manera rigurosamente lineal con la frecuencia de los
fotones incidentes, lo que verifica la famosa aserción de Einstein, E = hν para la energía de los
granos de energía incidentes.
Los fotomultiplicadores constituyen quizá una de las aplicaciones más importantes del efecto
fotoeléctrico. Ilustrar su funcionamiento ayuda a comprender mejor aquel y nos convence
mucho más del comportamiento dual de la luz. En esencia, se produce un efecto en cascada
de la emisión de fotoelectrones, lo que permite amplificar corrientes en varios órdenes de
magnitud y, al mismo tiempo, detectar el paso de fotones individuales. Mayores detalles
pueden verse en la monografía sobre Einstein.
1.9.3 El modelo de átomo de Thomson

El modelo atómico de Thomson,


a pesar de lo ingenuo, tiene
varias ventajas. Todavía se sigue
usando, con adecuaciones a la
mecánica cuántica, como un
modelo para metales simples,
tipo sodio, Na.

Fig. 1.6. Modelo ató i o de Tho so , o pudí o pasas"

Aunque la aceptación de los corpúsculos cargados no fue unánime, a pesar de la fuerte


evidencia experimental, Thomson fue más allá: durante los años siguientes, con la
colaboración de algunos auxiliares, entre los que destacaba Charles Wilson, el inventor de las
cámaras de niebla, determinó aproximadamente el valor de la carga del electrón y elaboró un
modelo de átomo que fue compartido por muchos (1899). En ese modelo estático,
originalmente propuesto por Kelvin, los electrones estarían colocados en una especie de jalea
con carga positiva distribuida en una pequeña región del espacio, algo así como un pudín con
pasas. El valor preciso de la carga del electrón fue determinado por Millikan mediante su
famoso experimento de la gota de aceite, una década más tarde.
El modelo de Thomson da cuenta de fenómenos bien conocidos como la electrólisis y las
descargas eléctricas a baja presión. La ionización de la materia es fácil de explicar mediante
dicho modelo. Si bien explica adecuadamente muchos de los hechos observados en la química
y el comportamiento de los rayos catódicos sometidos a campos eléctricos y magnéticos, hace
predicciones incorrectas sobre la distribución de la carga positiva en el interior de los átomos.
Desde otro punto de vista, puede afirmarse que el modelo mecanicista y electrostático de
cargas depositadas en un medio homogéneamente cargado no puede pretender explicar
fenómenos que por su naturaleza son dinámicos. A la luz de la física actual, el mayor éxito de
Thomson fue establecer con gran precisión la relación entre la carga y la masa de los supuestos
corpúsculos cargados. El p e io No el le fue e t egado e e e o o i ie to a los
méritos a sus investigaciones teóricas y experimentales sobre la conducción de la electricidad
e los gases .
En la literatura es frecuente encontrar referencias a otros modelos similares al de Thomson.
Esas variantes no agregan mucho, salvo resaltar la aceptación que inicialmente tuvo ese
modelo en ciertos círculos. Pero hay algo que sobrevive del modelo de Thomson y trasciende
en la teoría cuántica: es el gas de electrones, inmerso en una especie de jalea de carga positiva
que neutraliza el sistema, útil para representar el comportamiento de los llamados metales
simples. Debe aclararse que en el gas de electrones el comportamiento de estos es el de un gas
cuántico, más específicamente, el gas de Fermi, al que volveremos en la segunda parte.
1.9.4 Descubrimiento del núcleo y modelo planetario

Figura 1.7. Comparación entre los resultados que cabría esperar de un modelo tipo Thomson y de un
modelo nuclear como el de Rutherford.

La mayor debilidad del modelo de pudín con pasas saltaría a la vista a partir de cuidadosos
experimentos realizados en la Universidad de Manchester por quien fuera inicialmente el
auxiliar de Thomson en el laboratorio de Cavendish (Cambridge). Rutherford, ayudado por sus
auxiliares Hans Geiger y Ernest Marsden, dispuso una serie de experimentos que se realizaron
entre 1908 y 1910. A esto se agregó un modelo teórico implementado por Rutherford entre
1911 y 1913.
El experimento consistió esencialmente en bombardear finas láminas metálicas, finalmente de
oro por su peso atómico y maleabilidad, con partículas alfa (núcleos de helio). Las propiedades
dúctiles del oro permiten la elaboración de láminas muy delgadas que son fácilmente
atravesadas por la radiación (emanación del radio, le llamaron entonces). De ser correcto el
modelo atómico de Thomson, el haz de partículas debería atravesar la lámina sin sufrir
desviaciones significativas a su trayectoria; a lo sumo unos pocos grados. Rutherford y sus
colaboradores observaron que un alto porcentaje de partículas atravesaban la lámina sin sufrir
una desviación apreciable, pero un cierto número de ellas era desviado significativamente, a
veces bajo ángulos de difusión mayores de 90 grados, en raras ocasiones rebotando
frontalmente. (Véase la figura 1.7.) Tales desviaciones no podrían darse si el modelo de
Thomson fuese correcto.
Puesto que la carga positiva debería estar concentrada en una pequeñísima región (a la que
llamó Rutherford núcleo atómico), muy inferior a la de la supuesta esfera en que estaría
distribuida la carga negativa (electrones), teniendo en cuenta la ley de Coulomb de atracción
entre cargas de diferente clase, los electrones deberían girar alrededor de la carga positiva
(núcleo) de manera similar a como hacen los planetas alrededor del sol (órbitas elípticas) o la
luna alrededor de la tierra (órbita circular), para que no fueran atrapados por el núcleo.

Figura 1.8. Representación esquemática de las delgadas láminas metáli as atravesadas por radia ió α e
ilustración de trayectorias típicas en la dispersión por un núcleo de oro.

El modelo, teóricamente establecido, tenía sentido salvo por un pequeño detalle que se
consideró inicialmente irrelevante: a diferencia de la luna, con carga neta nula, los electrones
tienen una carga que sumada iguala a la del núcleo; la existencia de este se reveló
precisamente a partir de los experimentos encomendados a Geiger y Marsden; téngase en
cuenta que el experimento de la gota de aceite que permitió determinar la carga del electrón
fue realizado en 1909 por Robert Millikan y Harvey Fletcher. Una vez conocida la carga del
electrón, era posible estimar la fuerza eléctrica que ejercería el núcleo sobre él; esta debería
ser en muchos órdenes de magnitud (~1040) superior a la fuerza gravitacional: las variaciones
de estos campos al girar no podrían despreciarse, por lo que las ondas electromagnéticas que
se generarían irremediablemente harían colapsar el átomo si se cumplieran las leyes clásicas. A
pesar de lo equivocado del modelo, era un gran avance comparado con el anterior, debido a
Kelvin y a Thomson. De todos modos, la dificultad presente en el modelo de Rutherford
parecía insalvable. El modelo de Bohr, al que volveremos más adelante, postula que la
radiación electromagnética no se da, si los electrones se encuentran en ciertas órbitas
estacionarias, las cuales deberían satisfacer otros postulados que Bohr agregó al anterior.
El modelo de Rutherford estaba mal, a pesar de lo ingenioso. El danés Niels Bohr, ayudado en
gran medida y sobre todo apoyado por Rutherford, propuso algo mejor, a la postre también
equivocado, pero con ingredientes adecuados para generar las nuevas ideas que la
construcción del edificio cuántico requería. Los dos modelos eran, a pesar de todo, mucho más
realistas que el imaginado por Thomson y Kelvin, una especie de jalea con pasas, en donde las
pasas serían los electrones y la jalea contendría la carga positiva indispensable para neutralizar
el átomo; un modelo infantil para un universo que equivocadamente se supone lleno de lo que
en apariencia se deja ver, a pesar de las brillantes especulaciones de los primeros atomistas.
No, el átomo no solamente es divisible, su interior está prácticamente vacío, como previeron
los atomistas, y la materia (bariónica o hadrónica, hemos de corregir desde ya) se concentra
en una pequeñísima región, el núcleo, un núcleo en el que están firmemente ligados otros
constituyentes, los quarks. Las nubes electrónicas son solo eso: insignificantes nubarrones en
el universo nuclear; y sin embargo, de ellos depende el comportamiento de la materia que
observamos en la Tierra, la misma de la que estamos hechos.
Descubiertos los rayos X (1895), el electrón (1897) y el núcleo atómico (1909), el camino
estaba preparado para examinar más a fondo la constitución de la materia. Una de las
primeras aplicaciones de los rayos X fue precisamente la que llevó a su descubrimiento: su
difracción y la consecuente formación de espectros, no ya solamente de un elemento sino
también de un compuesto y en general de un objeto sólido. Espectroscopio de rayos X o
difractómetro de rayos X es el nombre genérico que recibe el aparato y la técnica. El fotón,
propuesto por Einstein como unidad fundamental de energía de radiación, tendría que esperar
para su aceptación hasta que los experimentos montados para refutar a aquel arrojaran los
resultados inesperados por Millikan.
1.9.5 Nubarrones y tormentas
La debilidad ya señalada del modelo de Rutherford venía a agregarse a la lista de problemas
que se habían empezado a manifestar, no solo con la radiación del cuerpo negro: el panorama
de la física clásica tendía a obscurecerse. En efecto, si se mira en perspectiva, a finales del siglo
XIX las dificultades que enfrentaba la concepción clásica mecanicista de los fenómenos
naturales eran grandes. A pesar de las fuertes evidencias en contra, algunos de los más
destacados físicos del momento creían que eran superables. Es famosa una conferencia de
Kelvin en la Royal Institution, pronunciada en abril de 1900, tal vez más destacable por su
ingenuo título que por su contenido: Nineteenth Century clouds over the dynamical theory of
heat and ligh. Afirmaba:
«La belleza y claridad de la teoría dinámica (se refiere a la ED) que concibe el calor y la luz
como modos de movimiento se ve obscurecida por dos nubes. La primera surgió con el
carácter ondulatorio de la luz, ya resuelto por Fresnel y Young, y tiene que ver con la
pregunta: ¿Cómo podría moverse la tierra a través de un sólido elástico, como debe ser
esencialmente el éter luminífero? La segunda es la doctrina de Maxwell-Boltzmann sobre la
equipartición de la energía.» No viene al caso detenerse en los intentos de Kelvin por subsanar
estas dificultades, puesto que ello no es posible dentro de los esquemas de la física clásica
conocida hasta entonces. Einstein resolvió en 1905 la primera dificultad con su nueva
concepción del espacio-tiempo y los dos postulados que sirvieron de base a la teoría de la
relatividad especial. Para la segunda el camino fue más arduo, pero la solución empezó a
vislumbrarse con la hipótesis de cuantización de la energía propuesta por Planck.
Lo que queremos concluir de esta sección, es que no solamente empañaban el panorama las
dos nubes a que se refería Kelvin. Una fuerte tormenta se avecinaba y habría de derribar toda
la concepción clásica del mundo, empezando por su fundamentación determinista. Podría
afirmarse que las primeras ideas se parecían más a paliativos, remiendos que intentaban
preservar las ideas centrales de las teorías ya establecidas.
1.10 Espectros de absorción, de emisión y en el continuo
Nos hemos referido ya a algunos modelos que explican la materia en torno a la existencia de
los átomos y a los modelos atómicos mismos. Los griegos presocráticos habían intuido que
existe una estrecha relación entre esos átomos y la luz. Era necesario entender que esa luz, la
luz visible a que ellos podían referirse, no es más que parte del denominado espectro
electromagnético, parcialmente mencionado en el apéndice II. Yendo todavía más lejos, era
indispensable entender que en últimas observamos esos constituyentes de la materia por la
emisión de luz de todo tipo, en todo el rango de frecuencias, particularmente en la que más
emiten.

Figura 1.9. Espectros de radiación en el continuo, de absorción y de emisión.

Es una ley fundamental de la naturaleza la del equilibrio termodinámico; a él contribuye la


denominada equipartición de la energía, principio o teorema clásicamente establecido que
afirma que la energía de movimiento se reparte por igual para cada grado de libertad,
contribuyendo en cada uno de ellos con la cantidad ½kT (k es la constante de Boltzman y T la
temperatura absoluta): la temperatura de los cuerpos tiende a ser la del medio circundante, a
menos que en su interior se den procesos que produzcan o consuman energía. Dentro de esos
procesos están precisamente los de absorción y emisión de radiación electromagnética, bien
conocidos por los espectroscopistas del siglo XIX en la región visible del espectro. Fue así como
pudieron identificar muchos elementos y compuestos. Nos referiremos a los espectros de
emisión y absorción en el siguiente capítulo. Lo de grados de libertad lo aclararemos en el
apéndice.
Más interesante para la discusión que sigue, es la manifestación macroscópica de esa radiación
en forma de color característico, dependiente de la temperatura, fácil de visualizar en ciertos
cuerpos calientes a medida que se eleva aquella. Es el caso del hierro o el acero a medida que
se funden: es perceptible el cambio de color entre el rojo, al comienzo, pasando por el amarillo
hasta el violeta, al aumentar la temperatura. Como veremos en la sección 2.1 (figura 2.2), dado
que la densidad espectral disminuye a altas frecuencias, es natural suponer que el máximo
ocurre a una frecuencia determinada y es de esperar que dependa también de la temperatura.
En realidad el máximo depende del producto de las dos variables, λT. Ni este desplazamiento
ni las líneas espectrales discretas tienen explicación clásica.
2. Los primeros conceptos cuánticos
2.1 Introducción al «Gran Misterio»
«La parte de la física de hoy que en mi criterio sobrevivirá sin modificaciones para una teoría
final es la Mecánica Cuántica.» Esto afirma en su libro Dreams of a Final Theory el laureado
Nobel Steven Weinberg. Los fundamentos de la mecánica cuántica seguramente seguirán
inalterados, aunque una teoría final siga siendo una utopía. En efecto: «Una teoría final puede
tardar siglos en ser elaborada y puede ser totalmente diferente de cualquier cosa que
poda os i agi a aho a…», pero no es concebible, al menos por ahora, otra teoría que
mantenga el rigor en la consistencia de sus postulados y que a la vez pueda dar resultados tan
precisos. (Weinberg, 1993.)
Física Cuántica o Teoría Cuántica es el nombre que finalmente se le ha dado a la nueva física,
ya centenaria. Ella, suponemos, es la teoría científica mejor elaborada, la única capaz de
darnos explicaciones cuantitativas, detalladas y conceptualmente coherentes sobre el
comportamiento de la materia, la energía y la información a nivel fundamental o elemental,
básico o microscópico, como suele denominarse, y en la escala universal, en la desmesura
cósmica, como escribiera el filósofo Fernando Urbina. (Urbina, 2006.) Para destacarlo aún más,
diremos que es la Teoría, con mayúscula, aunque suene jactancioso. Para subrayar su impacto
en las tecnologías del presente y del futuro, proponemos abreviarla QT, por sus siglas en
inglés. Uno de los textos que en mayor medida han guiado el curso CPTPT ha sido Enigma
Cuántico. En su idioma original Quantum Enigma (QE), el subtítulo sugiere un encuentro entre
la física y la conciencia. A este inquietante asunto volveremos después.
Hoy podemos hablar con toda propiedad de Ingeniería Cuántica, QE también por sus siglas en
ese idioma por ahora universal. Si en un futuro el idioma universal fuera el mandarín, o alguna
mezcla de lenguas como el esperanto, esa QE en ese idioma del futuro será la máxima
expresión de las aplicaciones que podamos realizar hasta entonces. Esas aplicaciones incluirán
la conexión cerebro-máquina, como lo ha logrado, por ejemplo, el neurólogo brasileño Miguel
Nicolelis (2011) y tal vez cerebro-cerebro, como propone el físico norteamericano, de origen
japonés, Michio Kaku (2013). Puede haber mucho de imaginación en las propuestas de
posibilidades concebidas por este último, pero en principio no violan los principios de la QT.
Hacemos nuestras las palabras de Murray Gell-Mann, Premio Nobel de física en 1969:
«La mecánica cuántica no es una teoría, es más bien el marco en el que debe encajar toda teoría física
moderna. Este marco, como es bien sabido, implica el abandono del determinismo que caracterizaba a
la física clásica, dado que la mecánica cuántica solo permite por principio el cálculo de probabilidades.
Los físicos saben cómo emplearla para predecir las probabilidades de los resultados posibles de un
experimento, y desde su descubrimiento en 1924 (sic) siempre ha funcionado a la perfección dentro de
los límites de la teoría y el experimento considerados en cada caso. Sin embargo, pese a que su
exactitud está fuera de toda duda, aún no comprendemos en profundidad su significado, especialmente
cuando se aplica a la totalidad del universo.» (Gell-Mann, 1994.)

Todavía incompleto, el modelo estándar de las partículas elementales, o de la física de las altas
energías, como se denomina hoy, nos habla de la estructura básica de esos ingredientes,
materia y energía, y de la forma en que interaccionan o se entrelazan, mucho de ello
contenido en la información. El perfeccionamiento del modelo, como de seguro tendrá que
hacerse, no afectará a la Teoría. Una de las búsquedas incesantes es la Teoría Unificada de las
interacciones. Ella no necesita comprometerse con el número de partículas elementales de un
tipo o de otro, ni siquiera con sus propiedades específicas, tampoco con el tipo de
interacciones posibles. La QT nos habla de características tan generales del comportamiento
de la materia-energía (y de la información que con ella podemos procesar), que no hace
diferencia entre las distintas áreas en que pueda dividirse la física (quisiera decir la ciencia, si
esta afirmación no diera lugar a malas interpretaciones) y la ingeniería de hoy o del futuro.
Resumiendo los dos párrafos anteriores, para que no haya malos entendidos, QT está en la
base de las ciencias naturales, física, química, biología y cosmología, y de sus aplicaciones
todas, no solamente las de carácter tecnológico. Ella se encuentra en los fundamentos mismos
de los procesos que tienen lugar en cada una de esas disciplinas y en otras; la teoría de juegos,
por ejemplo, de indudable valor para la economía (y la biología), tiene su versión cuántica. Es
la teoría científica más exacta y completa que haya podido concebirse hasta el presente. Sus
postulados son completamente generales, por eso se expresan en últimas en un lenguaje
matemático.
Antes de seguir adelante, es necesario aclarar que esta sección puede ser un poco
especulativa. Si todo está hecho de los mismos ingredientes, materia, energía e información,
ingredientes que a nivel básico tiene un comportamiento cuántico, se espera que finalmente
ese comportamiento y la dinámica que genera sea el responsable de: a) el de la materia-
energía organizada en la escala macroscópica que percibimos con nuestros sentidos y
describimos con nuestras facultades mentales; b) el de la materia-radiación (de todo tipo) a
escala cósmica, la que corresponde al Universo y a su evolución; c) el de los organismos vivos
en toda su complejidad, incluido el ser humano, y en su aún más compleja interacción. En
otros términos, la QT debería podernos explicar el origen de las partículas elementales con sus
interacciones y del universo en su conjunto (el Big Bang o Gran Explosión y el Universo
Inflacionario), del bit y el it o del procesamiento de la información, incluida la genética, de la
vida y de la inteligencia; debería explicarnos el funcionamiento de todo, incluidos los sistemas
neuronales y los procesos vivos y mentales, la información en su máxima expresión que
conocemos, la conciencia humana. Si esa conciencia es el fundamento de la cognición o de la
inteligibilidad (la comprehensibilidad a que se refería Einstein), la cuántica debería llevarnos a
encontrar respuestas a las preguntas fundamentales, el cómo, el por qué y el para qué
estamos aquí, muy a pesar del escepticismo de Einstein.
Desafortunadamente el paso de uno a otro nivel no es así de simple. Para empezar, la otra
gran teoría, relatividad general, Teoría de Gravitación o simplemente GT (por sus siglas en
inglés), no encaja del todo dentro del esquema de la primera, QT, a pesar de los avances
formidables de los últimos años. Esa conclusión no solo es sorprendente sino también
contradictoria, sobre todo si se tiene en cuenta que muchos de los fenómenos que se dan a
nivel macroscópico, como la superconductividad y el magnetismo, o a escala cósmica, como
los agujeros negros y la gran explosión, entre otros, son manifestaciones de las propiedades
cuánticas de la materia. En los laboratorios del CERN se pretende recrear los instantes iniciales
del universo (esta vez sin mayúsculas). Pues bien, lo ocurrido durante la gran explosión y en la
etapa denominada inflacionaria no podría entenderse sin recurrir a la fenomenología cuántica;
tampoco el comportamiento de los agujeros negros, menos aún el de los hipotéticos agujeros
de gusano. Las denominadas Fuerzas de van der Waals son el pegamento a nivel biológico que
da estabilidad a los sistemas vivos. Su origen es rigurosamente cuántico. Hay otros efectos
cuánticos triviales en la escala biológica que son de origen cuántico, tema al que volveremos
en la tercera parte.
Más complejo, seguramente, es el paso de los procesos atómicos y moleculares, digamos que
de la bioquímica, a los microscópicos que se originan en los organismos vivos, incluyendo los
virus. Nadie hoy suficientemente bien informado recurrirá a expresiones de antaño como flujo
vital: ese no existe. La fotosíntesis es vital para el fenómeno de la vida, y ese fenómeno es en
esencia cuántico. ¿Qué decir de los procesos que surgen en sistemas neuronales, por ejemplo
los procesos mentales? Por complicados que sean, abrigamos la esperanza de entenderlos
cada vez mejor desde un punto de vista científico, biológico si se quiere, al fin y al cabo desde
una ciencia que cada vez se aleja más del mecanicismo clásico. La electroquímica está en el
fundamento de las conexiones sinápticas, pero los fluidos eléctricos hoy los concebimos en
forma muy diferente a la concepción mecanicista que se tenía hace 2 siglos. Los microtúbulos y
los neurofilamentos son demasiado pequeños para entender su funcionamiento, no hablemos
de su estructura, a la luz de los modelos convencionales. Las anteriores afirmaciones no
implican que el comportamiento en uno y otro caso sea cuántico como un todo. Aclararemos
lo que se quiere decir con comportamiento cuántico en el cuarto capítulo; baste por ahora con
decir que un estado cuántico puro difícilmente se mantendrá en sistemas no ligados,
terminología que precisaremos también más adelante.
Algunos especulan que en los procesos mentales hay fenomenología cuántica. Nótese que
hemos utilizado el sustantivo procesos y el adjetivo mentales. Escribe Antonio Damasio al
comienzo de su libro Y el cerebro creó al hombre (una extraña traducción del título del original
en inglés, Self comes to mind : Po as osas e uest a iología so ta t i iales e apa ie ia
o o este p odu to ue o o e os o el o e de o ie ia… Y, si e argo, pocas
cosas de nuestro ser son tan extraordinarias y singulares, fundamentales y, en apariencia,
iste iosas o o la o ie ia. … “i o ie ia o ha o o i ie to de uest a e iste ia i
ta po o o o i ie to de ue e ista algo ás. Más adelante comenta, respecto al intento de
ela io a la e te o s ie te o p opiedades de la ate ia hasta aho a o des itas: dado
que a la mente consciente la rodea un halo misterioso, y como la física cuántica no ha dejado
de ser un misterio, quizá los dos misterios se hallen interrelacionados. A tenor del incompleto
conocimiento que tenemos tanto de la biología como de la física, nos deberíamos mostrar
p ude tes a tes de p o ede a des a ta e pli a io es alte ati as. Está po fue a del i te és
de este ensayo pedagógico ahondar en esas discusiones, pero queremos agregar que, aunque
se puede coincidir con Damasio, tiene sobradas razones el premio Nobel Erik Kandel para
afirmar ue: entender la base biológica de la conciencia y los procesos cerebrales por los
cuales sentimos, actuamos, aprendemos y recordamos es el último reto de las ciencias
biológicas . Podemos formular como principio universal que QT no es milagrosa. Por eso y por
otras razones, recurrir a la física cuántica para sustentar posiciones religiosas es tan
descabellado como sacar modelos cosmológicos de los textos bíblicos. Pero no por ello puede
descartarse su posible contribución a esclarecer la situación también en ese terreno.
El propósito del presente ensayo cuántico con darwinismo evolucionista no es, en modo
alguno, hacer claridad sobre el aún oscuro origen de la conciencia, ni siquiera de la vida; eso
sería demasiado pretencioso y está muy lejos de lograrse todavía. Tampoco lo es señalar las
diferencias (¿contradicciones?) entre esas dos grandes teorías del siglo XX, la cuántica y la
relativista, la primera de las cuales debe a Albert Einstein más de lo que usualmente se
menciona; la segunda fue, por mucho tiempo, obra exclusiva del gran genio. Einstein murió
frustrado, hasta cierto punto, al no poder darse por satisfecho con lo que él mismo inició y le
condujo al premio Nobel, negándose a aceptar las consecuencias epistemológicas y
ontológicas de las contribuciones que hizo a los quanta. No es para menos, como se sugiere a
continuación.
La frase lapidaria ya citada de uno de los grandes físicos de aquel siglo, Richard Feynman,
nadie entiende la mecánica cuántica, sigue siendo el gran reto. Eso quiere decir, en otras
palabras, que al menos por ahora son permitidas diversas interpretaciones, siendo las
predicciones exactamente las mismas en cualquier esquema de pensamiento consistente con
sus principios fundamentales, ellos sí perfectamente establecidos desde hace 90 y más años.
Esta conclusión resultó inaceptable para Einstein, quien exigía una interpretación de la
realidad acorde con caros principios clásicos, ratificados por su teoría de relatividad, entre
ellos el de la relación causa-efecto. El mismo Schrödinger, quien con Heisenberg comparte el
mérito de gestor principal de la teoría cuántica, declaró que lamentaba haber tenido que ver
con el asunto. De Broglie, responsable de la dualidad onda corpúsculo con su onda piloto
o das de ate ia , fue u o de los oposito es a la interpretación de Copenhague. Con mayor
razón puede decirse esto de Bohm y otros famosos. Eso en cuanto a las interpretaciones. En
las mediciones y/o predicciones, todos coinciden.
En cambio las aplicaciones de la revolucionaria teoría cuántica son cada vez más amplias y lo
seguirán siendo en el presente siglo, de ahí el subtítulo de estas notas. La Nanotecnociencia,
hoy en boga, es un claro ejemplo. La criptografía y la computación cuánticas y el teletransporte
(nos suena más castizo que el término teleportación, un anglicismo) pueden denominarse, con
razón, la segunda revolución cuántica, aceptando que la primera fue la que condujo a la
formulación consistente de sus principios. Empezamos a entender y procesar mejor la
información cuántica, prerrequisito para las aplicaciones esperadas o más impactantes
(algunas más resultarán inesperadas) de la segunda revolución. ¿Nos llevará ese avance a una
mayor comprensión de la conciencia y de los diversos procesos que ocurren en el cerebro?
¿Nos acercará ese avance hacia la tercera cultura propuesta por Charles Pierce Snow?
¿Podremos enderezar el rumbo que ha tomado la civilización?
Permítasenos una última especulación: si nos preguntáramos qué cantidad física (una sola)
serviría para caracterizar mejor cada uno de los tres últimos siglos, habría que responder que
la materia es el emblema del siglo XIX (hipótesis atómica), la energía lo es del siglo XX
(materializada en forma brutal en la denominada bomba atómica) y la información, la del
presente siglo (por algo suelen denominar a la actual, aunque equívocamente, era de la
información o de la informática). Algunos serán reticentes a aceptar que la información sea
algo físico. De lo que no cabe duda alguna es de que la información es neguentropía, o más
rigurosamente: organización e información van de la mano. A la información cuántica
quisiéramos volver en un futuro ensayo; lo haremos tangencialmente en la tercera parte.
Hay algo de lo que no cabe duda alguna: no estamos en condiciones, con nuestra lógica
convencional, de entender el extraño comportamiento de los ingredientes cuánticos del
Universo. Cabría entonces formular otra pregunta: ¿existe algún ingrediente fundamental que
escape a ese extraño comportamiento? La respuesta no es aún definitiva.
Si no se entiende el comportamiento de la materia, la energía y la información a nivel
elemental, ¿cuál es entonces el valor predictivo de la ciencia? ¡Es muy grande!, de ello se tiene
pleno convencimiento.
Durante la inauguración de la Cátedra Manuel Ancízar titulada «Albert Einstein, creador de
universos», celebración del centenario de las famosas teorías de quien fue Genio entre genios
(Giraldo, 2005), que nos mostraron otra forma de hacer ciencia, el profesor Johnathan R. Ellis,
para la época director del CERN (Centre de Études et de Recherche Nucleaire, donde se
pretende recrear los momentos iniciales del universo) nos decía algo como esto (la frase literal
no la recuerdo): La física es el manual de operación del Universo. Suena exagerado,
particularmente a la luz de lo anterior y de la conclusión que se desprende del párrafo citado
del libro de Einstein con Infeld. A ese manual habrá que agregar en el futuro muchas páginas,
si no varios tomos, lo cual no deja de ser una buena noticia para los futuros aspirantes a ser
físicos o a desempeñarse en cualquier campo de las llamadas ciencias naturales y exactas.
Lo contrario se creía a fines del siglo XIX, cuando grandes personajes de esa ciencia básica del
momento como Maxwell y Kelvin creían que solo faltaba afinar la medida de algunas
cantidades físicas de las conocidas hasta entonces. Hoy hay muchas más y quedan aún más por
determinar. Es bien sabido que a Planck, cuando se preparaba para ingresar a la universidad, al
consultar sobre las perspectivas de la física al profesor Phillip von Jolly, quien fuera su tutor
posteriormente, este le aconsejó dedicarse a otra cosa, porque en física lo esencial ya había
sido hecho y quedaban pocos huecos por rellenar. Afortunadamente Planck no siguió su
consejo.
En síntesis, y a pesar de que no la entendamos del todo, no obstante los avances que en las
últimas décadas hemos hecho sobre su inteligibilidad, para describir ese misterio aun no
resuelto, la física cuántica es la primera gran teoría unificadora de las ciencias. Entendiendo la
importancia de estas, no solo como comprensión del universo sino también como
transformación del entorno más cercano al nuestro mediante sus aplicaciones, vale la pena
esforzarse por conocer al menos cuáles son las radicales diferencias entre el enfoque cuántico
y el sentido común que suele aplicarse para entender el mundo clásico que percibimos con
nuestros sentidos. En otras palabras, aunque todavía no entendamos muy bien cuál es el paso
misterioso de lo cuántico a lo clásico, el punto de partida solo puede brindarlo aquella, por
descabelladas que parezcan algunas de sus predicciones.
2.2 ¿Partículas u ondas? Se debe tomar la bifurcación

Los objetos cuánticos se comportan como ondas y como


partículas. Eso fue lo que en esencia propuso un aristócrata
estudiante francés, el príncipe Louis Victor Pierre Raymond de
Broglie, en 1923. ¡Dio en el blanco! Su hipótesis ha sido
verificada en diversas formas y en los más variados
experimentos realizados desde entonces. Vale la pena
aclarar: esos objetos se manifiestan como ondas o como
corpúsculos, no con las dos características simultáneamente.
Pero hay más: los quanta están por todas partes; y sirven,
rigurosamente hablando, para todo. (Giraldo, 2009.)

Figura 2.1 Louis de Broglie (1892 – 1987).2

Excepto porque durante la siguiente década se elaboraron diferentes versiones de la misma


teoría, poco se ha avanzado desde entonces en su fundamentación matemática. La vieja teoría
cuántica nació en medio de la primera Guerra Mundial; la nueva se cuajó en el fragor de las
batallas de la segunda; muchos de sus protagonistas principales (Planck, Einstein, Bohr,
Heisenberg, Schrödinger, para mencionar solo unos pocos nombres entre los más selectos)
estuvieron involucrados en una u otra forma en las 2 y en los intensos debates que siguieron a
su formulación. Los primeros 30 o 25 años, si se cuenta desde la hipótesis de Planck sobre la
radiación de un cuerpo negro, formulada en 1900, o desde el postulado de Einstein,
enunciado cinco años más tarde, cuando este supuso que la luz estaba compuesta por
corpúsculos o granos de energía, explicando de paso el efecto fotoeléctrico, hasta cuando se
demostró que las diferentes versiones de la teoría eran equivalentes, pueden denominarse la
etapa crucial de la primera revolución cuántica. Podría afirmarse que este primer periodo
culmina con la publicación de Los principios de la mecánica cuántica, de Paul Dirac (1930). Hoy
puede hablarse con rigor de la segunda revolución cuántica, como anticipamos desde el
subtítulo. Esa segunda revolución, a nuestro modo de ver, apenas comienza. De sus inicios nos
ocuparemos en la tercera parte. Vale la pena empezar por el desarrollo de la primera.
2.2.1 Radiación de cuerpo negro
Planck había lanzado a finales de aquel famoso año 1900 una hipótesis desesperada que
consistió en suponer que un cuerpo recibe y da energía en forma discreta. Los paquetitos
(quanta) de energía serían extremadamente pequeños, por lo que para la mayor parte de los
propósitos prácticos el hecho seguiría siendo equivalente a hacerlo en forma continua, como
corresponde al comportamiento clásico conocido por todos.3 No lo era, para efectos de poder
restablecer matemáticamente el equilibrio termodinámico, roto por la catástrofe ultravioleta,
divergencia presente en la radiación térmica de un cuerpo negro según la teoría clásica. El
ajuste de Planck fue solo un primer paso, dado tímida y temerosamente, muy a su pesar, con
la esperanza de encontrar pronto un mejor raciocinio. Esa esperanza le condujo a aceptar 14
años más tarde la interpretación estadística de la entropía propuesta por el vienés Ludwig
Boltzmann, herramienta usada a regañadientes en el proceso deductivo de su famosa Ley de
Radiación. La fórmula matemática encontrada por Planck y su ajuste a los resultados
experimentales se ilustra en Figura 2.2. En 1900, y todavía en 1905, la mayor parte de los
2
http://nobelprize.org/nobel_prizes/physics/laureates/1929/broglie-bio.html
3
El valor de la constante característica, expresado en las unidades más usuales en nuestra escala,
parece ridículamente minúsculo: h  10-34 J·s (recuérdese que joule es unidad de energía y trabajo); para
efectos de comparación, un foco o bombillo de 100 watts consume en un segundo 100 J, y un fotón de
1015 Hertz (unidad de frecuencia u oscilaciones por segundo) tiene menos de 10-18 J ( 10 eV o electrón-
voltios, unidad de energía más adecuada en esta escala). La llamada escala de Planck es todavía más

aproximadamente 10-43 s. La escala de longitud,  10-33 cm, es esta cantidad multiplicada por la
diminuta; en notación científica, en las unidades convencionales, la escala de tiempo de Planck es

velocidad de la luz. Si se quiere ver a menor escala su constante, teniendo en cuenta que 1 J es 1.6×10 -19
eV, h  10 eV·s. ¡Aún en la escala del electrón, esa cantidad sigue siendo muy pequeña! Véase más
-15

adelante, sección 2.1, y consúltese el apéndice, para efectos de la notación científica y las unidades
utilizadas en este ensayo.
científicos alemanes estaban muy lejos de aceptar siquiera la hipótesis atómica, invocada con
éxito desde hacía un siglo por la mayoría de los químicos y empleada brillantemente por el
padre de la física estadística en la deducción de su famosa ecuación (1872).4
La fórmula encontrada por Planck no tiene una forma sencilla:

A baja frecuencia sobrevive la forma cuadrática prevista por Rayleigh-Jeans (cf. Apéndice). A
altas frecuencias, por el contrario, elimina su inconsistente e inobservada divergencia.

Figura 2.2 Distribución experimental de la densidad espectral de la radiación de un cuerpo negro en


función de la longitud de onda, comparada con la que predice la teoría electromagnética clásica.

Es evidente que la ley de Rayleigh-Jeans, que predice la catástrofe ultravioleta, no se cumple a


frecuencias elevadas. Por el contrario, hay dos leyes empíricas que pueden deducirse de la
fórmula de Planck, a saber, la ley de Wien y la de Stefan-Boltzmann. La primera establece que,
para una temperatura dada, hay un máximo de emisión que ocurre también a una cierta
frecuencia, el valor de la cual crece proporcionalmente con la temperatura, lo cual quiere decir
que a mayor temperatura el máximo se desplaza a una menor longitud de onda, como se
indica en la figura 2.3. Stefan y Boltzmann encontraron que la emisión para una superficie
emisora dada es proporcional a la cuarta potencia de la temperatura.
Como nota al margen, vale la pena señalar que la espectroscopia y la radiación están
estrechamente relacionadas. Esto ya había sido subrayado en la última sección del capítulo
anterior. Las líneas espectrales discretas llamaron la atención de los espectroscopistas
químicos más que de los físicos del momento. De haber reparado en ese detalle, la teoría
cuántica hubiera surgido antes del fin de siglo. Ya era claro, según Maxwell, que la luz era
energía electromagnética; las ondas electromagnéticas transportarían también cantidad de
movimiento. Un detalle pasó inadvertido: los espectros de emisión apuntaban a la

4
En la primera presentación de su resultado empírico ante la Academia de Ciencias, 3 meses antes de la
histórica disertación del 14 de diciembre de aquel mismo año, Planck no utilizó la constante h.
discontinuidad o discreticidad de la energía. A la postre la cuantización de la energía resultó
ser imprescindible, tanto para entender el comportamiento de la materia a escala atómica y
subatómica como para arrojar luces sobre nuestro origen en la escala cósmica.

Figura 2.3. Desplazamiento del máximo de radiación a altas temperaturas hacia frecuencias elevadas.

De allí a suponer que no solo ocurre tal cosa, la de la absorción y emisión discretas, sino que
también la energía de la radiación está cuantizada parece haber solamente otro modesto paso,
pero no es así. A nadie que hubiera sido formado en la exitosa escuela de la física de fines del
siglo XIX se le habría ocurrido imaginar que las ondas electromagnéticas pudieran perder su
carácter hasta ahora peculiar, ser ondas, sinónimo de continuum, para convertirse en
corpúsculos de energía, algo discreto, los hoy denominados fotones. Simultáneamente se
estaba preparando el terreno para una revolución científico-técnica sin precedentes.5
La pugna entre los dos modelos propuestos para la luz, corpuscular y ondulatorio, se había
ganado temporalmente a favor del primero en los tiempos de Isaac Newton, gracias a la
autoridad del genio entre genios, a pesar de los experimentos de su contemporáneo el
holandés Christiaan Huygens. Luego, durante el siglo XVIII, matemáticos de la talla del suizo
Leonard Euler y físicos destacados como el norteamericano Benjamin Franklin (también
político, como algunos de los científicos de aquel tiempo) reforzaron el segundo punto de
vista. A comienzos del siglo XIX, el británico Thomas Young y el francés Augustin Fresnel dieron
el golpe de gracia: no hay duda alguna, ¡la luz es una onda! Resultaba pues experimentalmente
comprobado su comportamiento ondulatorio. Lo contrario ocurriría a finales del mismo siglo

5
Véase Nanotecnociencia, J. Giraldo et al. (Ediciones Buinaima, Bogotá, 2007.)
con los denominados rayos catódicos: se encontró que estos no eran producidos por ondas
electromagnéticas sino por los responsables del fluido eléctrico, diminutas partículas cargadas
que formaban parte del átomo; el electrón, descubierto por J. J. Thomson (1897), daría lugar a
uno de los primeros premios Nobel en física (1906). La primera vez que se otorgó la distinción
(1901), le fue adjudicada a Röntgen por el descubrimiento de otros rayos, los X, así
denominados porque no se sabía a ciencia cierta qué eran, hasta cuando se comprobó que
eran ondas, que hacían parte del espectro electromagnético.
Así, pues, experimentos incontrovertibles realizados a comienzos y a finales del siglo XIX,
respectivamente, habían dejado claro que la luz es una onda y que los rayos catódicos estaban
constituidos por partículas. ¡Pero no era así de simple! Esas dos conclusiones
experimentalmente incontrovertibles rodarían por tierra durante la primera cuarta parte del
nuevo siglo; el efecto Compton, el más decisivo sobre la naturaleza corpuscular de la luz en ese
periodo histórico, fue observado en 1923. Otros resultados y descubrimientos de fines del siglo
XIX que también dieron lugar a premios Nobel en física y en química solo pudieron entenderse
a la luz de la nueva física, denominada original y equívocamente Mecánica Cuántica.
La clave que permitió a Planck, después de más de un lustro, encontrar en el espectro visible la
explicación a la forma experimental de la curva de radiación del cuerpo negro, deduciendo a la
fuerza su famosa expresión, está en el corrimiento del máximo de la densidad espectral del
rojo hacia el violeta. Si se aceptaba temporalmente, por razones prácticas, que la radiación se
emite o absorbe en dosis discretas, dado que las cantidades son extremadamente pequeñas
(dosificadas por su constante h), a muy baja frecuencia la contribución a la densidad espectral
sería muy pequeña porque la energía es muy baja, aunque la contribución proviniera de
muchos osciladores. A altas frecuencias, según la fórmula de Boltzmann, la probabilidad de
emisión disminuye de nuevo porque la contribución proviene de muy pocos osciladores que
puedan contribuir con una elevada energía a la densidad espectral. Era de esperar, con base en
argumentos físicos, el corrimiento a altas frecuencias con la temperatura. Pequeñísimos
cuantos de energía era la clave.
Figura 2.4. Radiación de fondo de microondas del universo, correspondiente a T = 2.725±0.001o K.

La denominada radiación de fondo cósmica (CMB, o cosmic microwave background) sigue


notablemente una distribución de Planck. Esta radiación es una de las evidencias más claras
del big bang o universo primordial. En efecto, de acuerdo a esta teoría, el universo se ha
estado expandiendo en un periodo de 13.7 mil millones de años, desde cuando era una densa
sopa de electrones, nucleones y radiación; los átomos no se habían formado entonces. La
radiación de fondo es ahora de solo 2.7250 K. Cuando el universo visible tenía la mitad de su
tamaño actual, la densidad de materia debió ser 8 veces más alta y la radiación de fondo 2
veces más caliente. Mas cuando el universo visible era solo una centésima de millonésima de
su tamaño actual, la temperatura de esta radiación era de 273 millones de grados sobre el
cero absoluto y la densidad de materia comparable a la densidad del aire en la atmósfera de la
tierra. A esa temperatura el hidrógeno estaba completamente ionizado.
Si bien la emisión a altas frecuencias es poco probable y la de bajas frecuencias contribuye
muy poco, hay una situación muy peculiar que favorece la emisión, no ya de energía, sino más
bien de corpúsculos materiales en láminas metálicas. Se trata del efecto fotoeléctrico,
observado por Hertz en 1887, fenómeno al que ya nos hemos referido en el capítulo anterior y
con mayor detalle en la subsección siguiente. El electrón, al absorber energía discreta de
suficiente valor, abandona el metal.
2.2.2 Explicación del efecto fotoeléctrico
Recuérdese que fue Lenard quien estudió minuciosamente el efecto fotoeléctrico, utilizando
haces de luz de una sola frecuencia cada vez. La intensidad luminosa para cada fuente de un
solo color la podía regular variando la distancia del foco a la placa metálica. Fue así como
observó que el voltaje de frenado, un contravoltaje para el cual los electrones no pueden
llegar al ánodo colector, no depende de la intensidad sino de la frecuencia.
Einstein fue en rigor el primero en buscar una explicación microscópica al fenómeno de la
cuantización de la energía, aceptado a regañadientes en la segunda década del siglo XX;
Planck, cuya propuesta provino de la termodinámica macroscópica, tuvo el reconocimiento del
Comité Nobel solo en 1918; la osada explicación de Einstein del efecto fotoeléctrico le hizo
acreedor al galardón en 1921, y le fue entregado en 1922. Extrañamente la teoría que le
convirtió en una celebridad no recibió tan merecido reconocimiento: para entonces la teoría
general de relatividad era posiblemente menos comprendida, incluso por los miembros del
famoso comité. A la postre la nueva física lo sería mucho menos, pero sus protagonistas
principales fueron galardonados uno a uno con la codiciada presea. El último entre los más
notables fue Max Born, a quien le fue otorgado el premio Nobel tan solo en 1954.
Figura 2.5. Explicación del efecto fotoeléctrico. Si el fotón no tiene suficiente energía, no logra expulsar
el electrón del metal: se requiere como mínimo una energía igual al trabajo de extracción.

En efecto, de acuerdo con la hipótesis de Einstein, la radiación consiste de corpúsculos que


tienen asociada a su frecuencia una energía hf. Por otro parte, para poderse desprender del
metal, los electrones necesitan absorber una energía equivalente al trabajo de extracción, Ф
en la figura 2.5. Esta energía no es acumulable: los electrones solo absorberán la energía de
un grano con energía igual o mayor al trabajo de extracción. Si la energía de los corpúsculos
lu i osos foto es es e o ue Ф, el electrón no podrá desprenderse del metal; si es igual,
justo se desprende. Cuando la energía de los fotones es mayor que la requerida para
desprenderlos (una frecuencia mayor que fo), el sobrante les da una energía cinética que les
permite contrarrestar el voltaje desacelerador (figura 2.6b).

Figura 2.6. Curvas de corriente contra voltaje (des)acelerador y de voltaje umbral (para frenar los
electrones y evitar el paso de corriente en la figura 1. 2 y 1.3).

En símbolos, llamando K = ½mv2 la energía cinética o excedente, K = hf - Ф, para una


frecuencia dada (f ˃fo), hay que aplicar un voltaje de frenado Vf = K/e. Esta relación permite
calcular la velocidad de emisión, evaluada en la figura 2.7. Téngase en cuenta que 1 eV =
1.6×10-19 J.

En esta figura se esquematiza lo que ocurre iluminando una placa de potasio con luz de
diferentes colores (distinta frecuencia). El potasio tiene un trabajo de extracción de 2.0 eV. Si
la luz es roja (longitud de onda de 700 nm), los fotones tienen una energía de 1.77 eV y no
alcanzan a desprender electrones. Si es verde o violeta, esta energía es superior a 2.0 eV, en
una cantidad suficiente para que los electrones sean expulsados con una velocidad máxima de
3×105 y 5×105 m/s respectivamente.

Figura 2.7. Efecto de iluminar una superficie de potasio con luz de diferentes longitudes de onda.

No obstante las evidencias experimentales a favor de la hipótesis de Einstein, transcurrió más


de una década (1916) hasta cuando un experimento cuidadosamente planeado por Robert
Millikan permitió determinar de manera muy precisa el valor de la constante h de Planck, a
partir de la relación entre la velocidad de los electrones y la frecuencia o longitud de onda de
la luz utilizada. Recuérdese que la velocidad de la luz es = λν. Si se utiliza la denominada h
barra, ħ=h/2π, la energía de los granos de luz o fotones se escribe como E = ħω.

Figura 2.8. Datos originales del experimento de Millikan para una superficie de sodio. La frecuencia
umbral fue obtenida por extrapolación.

El experimento diseñado durante muchos años por Millikan permitió medir la energía de los
electrones que eran emitidos por una placa metálica muy limpia, construida en un taller al
vacío, sobre la que incidía un rayo de luz. Así pudo determinar el valor más preciso hasta
entonces de la constante de Planck. Décadas más tarde, cuando Millikan describía su trabajo,
todavía asomaba un punto de frustración: «Empleé diez años de mi vida comprobando la
teoría de Einstein de 1905 y, en contra de todas mis expectativas, me vi forzado a afirmar su
verificación sin ambages a pesar de lo irrazonable que era». En su autobiografía de 1950,
declararía que su trabajo «difícilmente permitía cualquier otra interpretación que la que
Einstein había originalmente sugerido, concretamente la teoría semi-corpuscular o la teoría
fotónica de la luz».

Antes de terminar esta sección, conviene tener en cuenta que de acuerdo con las leyes del
electromagnetismo, la luz transporta energía y cantidad de movimiento. Ahora bien, si la luz
está compuesta de corpúsculos, los hoy denominados fotones, son ellos los que poseen no
solamente energía sino también cantidad de movimiento, p. A partir de la fórmula de Einstein
que relaciona energía y momentum y echando mano de la relación entre frecuencia, longitud
de onda y número de onda (k = 2π/λ), se tiene p = ħk, donde el vector de onda, igual en
magnitud al número de onda, es un vector en la dirección de propagación de la onda
electromagnética asociada a los fotones.

Volveremos a las relaciones que existen entre la energía y la frecuencia, la cantidad de


movimiento y la longitud de onda, respectivamente, a partir de las consideraciones de
Einstein, cuando nos refiramos al otro experimento que sin ambages demuestra la validez del
modelo corpuscular para la luz: la dispersión de Compton.

2.2.3 El modelo de átomo de Bohr

Quien supo sacar mejor provecho de la hipótesis de Einstein fue Niels Bohr, con su modelo
atómico, como veremos enseguida. Nos limitaremos por ahora a visualizar el nuevo panorama
que se abrió para la física con la hipótesis de Einstein sobre los corpúsculos luminosos y la aún
más atrevida hipótesis de Bohr sobre los saltos cuánticos. En efecto, este tomaría prestados de
aquel su hipótesis sobre los granos de luz, todavía no aceptada por los físicos más ortodoxos,
incluido Planck, y de Rutherford su modelo planetario, del que suprimió las leyes que predicen
el comportamiento clásico.
Según Bohr, los electrones sí emitirían energía, pero antes deberían absorberla de la ya
existente en la radiación electromagnética, en la forma discreta en que ya se encuentra, de
acuerdo con el postulado de Einstein. Así, pues, la energía de los electrones no variaría en
forma continua sino discreta o cuantizada. También la cantidad de movimiento angular estaría
cuantizada. Para simplificar las cosas, se limitó inicialmente al átomo de hidrógeno, que tiene
un solo electrón. Este ocuparía usualmente una órbita que tendría el mínimo valor de energía
permitido y el mínimo momentum angular (denominado en ocasiones momento cinético),
estimado en h/2π, una nueva constante de cuantización que denominó ħ (h-barra). Solo
estarían permitidas órbitas circulares que tuvieran múltiplos enteros de ese valor en su
cantidad de movimiento angular: Ln = ħ. Esas órbitas también tendrían energías discretas
correspondientes a ese número, pero la única verdaderamente estable sería la que
corresponde a n = 1.
En la sección 2.3 volveremos con mayores detalles a este modelo, punto de partida para la
nueva física, y a las modificaciones que se le hicieron.
2.2.4 Dispersión de fotones de Compton
Un cuarto de siglo después del hallazgo del electrón, se realizó otro experimento tan crucial
como el que puso en evidencia la existencia de esa partícula de carga elemental: nos
referimos al que reveló el comportamiento ondulatorio de la materia corpuscular. Poco antes
de aquel acontecimiento, Arthur Compton se había encargado de mostrar experimentalmente
que los granos de luz eran reales, no la consecuencia de una simple conjetura teórica para
explicar los resultados de algunos experimentos, entre ellos el efecto fotoeléctrico. Venía
trabajando con rayos X desde 1913 y le tomó 10 años más llegar a tan importante conclusión.
En 1909, cuando su fama le permitió dejar el cargo de empleado de patentes para convertirse
e p ofeso adju to e )ü i h, Ei stei afi ó: E i opi ió , la fase siguie te e el
desarrollo de la física teórica nos llevará a una teoría de la luz que podrá considerarse como
una especie de fusión entre la teoría o dulato ia la o pus ula . E los años siguie tes,
concentrado en su teoría general de gravitación, despreocupado en gran medida por lo que a
su lado estaba pasando con ese otro universo que él mismo ayudó a crear, el de los quanta,
Einstein daba muestras a la nueva generación de físicos de ser un ducho detective,
proveyendo las pistas que les llevaría ineludiblemente a fusionar los dos puntos de vista, el
ondulatorio y el corpuscular. A continuación se verá cómo procedió Einstein en el caso de la
luz, y cómo de paso preparó el terreno para hacerlo en el caso del electrón y de todo lo
demás.
Si m representa la masa en reposo de una partícula, su energía en reposo es la famosa
expresión de Einstein Eo = mc2. Para escribir la energía total E de la partícula en movimiento,
libre de campos o de cualquier tipo de interacción, hay que tener en cuenta que esa masa
crece en la forma prevista por la relatividad: m/(1-v2/c2)1/2. Si se adopta para la masa total
(acrecentada por la rapidez) el símbolo M, podemos escribir E = Mc2; otra manera de hacerlo
es separar las dos formas de energía, la de reposo y la de movimiento, para lo cual se recurre
a la cantidad de movimiento de la partícula, p = Mv, y a su energía, E = h. El resultado, no
solamente de extraordinaria sencillez sino también extremadamente útil para la fusión de los
dos puntos de vista, es:
E2 = m2c4 + p2c2.
Esa fórmula encierra sutilmente el teorema de Pitágoras, si se visualiza uno de los catetos
como la medida de la energía en reposo de la partícula (un cateto o base de longitud
invariable mc2; recuerde que m es la masa en reposo, propia de cada partícula); el otro (de
longitud pc) representa su energía debida al movimiento. Pero hay mucho más que eso.
Puesto que las partículas de luz no tienen masa en reposo, se encuentra para ellas una
relación de gran importancia para dar el paso siguiente: E = pc, o más nítidamente: p = E/c. Las
partículas de luz tienen energía y por ende cantidad de movimiento, como dijimos atrás. Esto
ya se había demostrado para las ondas electromagnéticas. (Véase el apéndice.)
Las relaciones anteriores no solamente son útiles sino conceptualmente muy importantes. Ya
se sabía, desde cuando se formularon adecuadamente las leyes de la electrodinámica, que la
luz transporta energía y transporta cantidad de movimiento, como ocurre con cualquier otro
tipo de movimiento ondulatorio. Ahora estamos diciendo algo que no tiene duda: cada uno de
los granos de luz lleva energía y momentum, el problema era saber cuánto de lo uno y de lo
otro. Con la hipótesis de Planck y su extensión hecha por Einstein, resulta que E = h. La
descripción ondulatoria de la luz permite reescribir la expresión anterior para m = 0 como p =
E/c, o en términos de su longitud de onda , p = h/. Esta fue una clave de trascendental
importancia para dar el siguiente paso, lo que haría de Broglie.
Después de realizar una serie de experimentos a comienzos de los años 20, Compton había
llegado a la conclusión, en 1923, de que la interacción entre rayos X y electrones solo podía
explicarse si los rayos X, ondas de luz no visible, se trataban también como partículas. Dicho
en términos sencillos: los granos de rayos X en su interacción con electrones muy levemente
ligados a la materia, como es el caso de electrones metálicos, cambian su frecuencia, por ende
su longitud de onda, reduciendo aquella o aumentando ésta en dicho proceso (ya que pierden
energía); alargan pues su longitud de onda, lo que significa que pierden cantidad de
movimiento, pero preservan su velocidad c = .
Era obvio que el haz incidente tenía que perder energía, pero ello hubiera podido significar
una disminución en la intensidad; por el contrario, el resultado experimental mostraba
claramente un aumento en la longitud de onda del haz emergente. La clave está en la fórmula
anterior, p = h/, y en suponer que el electrón, prácticamente libre como puede estarlo un
boliche sobre una superficie plana sin roce, es golpeado por un grano de luz: el fenómeno
ocurre uno a uno, un grano de luz colisionando con un electrón. Al perder el grano de luz algo
de su cantidad de movimiento, después de habérsela comunicado al electrón, el cual saldrá
despedido en alguna dirección oblicua con respecto a la del grano de luz incidente, con
velocidad comparable a la velocidad de la luz, la partícula luminosa aumenta su longitud de
onda, lo que está de acuerdo con el resultado experimental. Los cálculos cuidadosos revelaron
lo e te o del azo a ie to. Al año siguie te Ei stei afi a ía pe plejo: esulta e to es
dos teorías de la luz, a as i dispe sa les... si i gu a ela ió lógi a . La explicación del
efecto Compton fue, quizá, el mayor triunfo en la dirección de encontrarle asidero
experimental a la audaz propuesta de Einstein.
Dediquemos unas cuantas líneas más al efecto confirmado, más bien que descubierto, por
Compton, porque vale la pena enfatizar lo que hemos dicho.

Figura 2.9 Esquema de la dispersión de un fotón por un electrón, en el denominado efecto Compton. A
la izquierda se ilustran los valores iniciales de energía y momentum de las dos partículas: E1 = ħω1, p1 =
ħk1; la energía inicial del electrón es Eo = mc2, siendo m su masa en reposo; su cantidad de movimiento
inicial es cero. A la derecha se esquematizan esos valores después de la dispersión: E2 = ħω2, p2 = ħk2; la
cantidad de movimiento del electrón es p = Mv, con M = m/(1-v2/c2)1/2; su energía final es E = Mc2.

Entender lo que ocurre es muy fácil si se adopta el esquema corpuscular para la luz: entre el
enjambre de fotones que constituye la radiación incidente, uno de ellos es dispersado por
alguno de los muchos electrones cuasi-libres que hay en un metal. La energía del fotón
incidente debe ser elevada, de ahí la necesidad de utilizar cálculos relativistas, bosquejados en
la leyenda de la figura 2.9: ha de pertenecer a la región ultravioleta del espectro, por lo menos
estar en la región de los rayos X. El fotón dispersado tiene una frecuencia menor, debido a que
transfirió parte de su energía y de su cantidad de movimiento al electrón.
2.3 Ondas que son partículas y viceversa
Desde los postulados de Bohr hubo un periodo de 10 años durante el cual los avances
prácticamente brillaron por su ausencia. Hubo varias pistas que pasaron inadvertidas, en la
dirección trazada por Einstein: si una teoría válida debía combinar las características
ondulatoria y corpuscular de la luz, debería ser válido suponer que esas dos características,
corpuscular y ondulatoria, se asignaran también al electrón. Al fin y al cabo la dinámica del
átomo, por ende de la materia, dependía de estas singulares partículas, electrones y fotones.
Al cabo de 2 décadas de formulada la singular hipótesis de Einstein y 1 desde su brillante
utilización por Bohr, surgió la hipótesis igualmente descabellada formulada por de Broglie: los
electrones también exhiben características ondulatorias.
Las características ondulatorias del electrón, verificadas mediante técnicas diferentes y de
manera independiente por Clinton Davisson y Lester Germer, en Estados Unidos y por George
Paget Thomson (hijo de J.J. Thomson) y Alexander Reid, en Inglaterra, no solo fueron la
comprobación experimental de la hipótesis de ondas de materia formulada por de Broglie,
sino que establecieron claramente su comportamiento ambiguo, a la vez corpuscular y
ondulatorio, extendido después a todo sistema físico. Los resultados de esos experimentos
dieron origen a dos principios relacionados de la nueva física: el de la dualidad onda-
corpúsculo y el principio de complementariedad.
Einstein jugó un papel decisivo para que la hipótesis de de Broglie, formulada en 1923, fuera
aceptada por el jurado calificador de su tesis de doctorado en 1924. Lo más osado de este
estudiante era sostenerlo ante un exigente jurado, dispuesto a pedir explicaciones
satisfactorias, que tendrían que ser esgrimidas con argumentos tan contundentes como para
hacer cambiar de opinión a los más consagrados y ortodoxos físicos del momento, casi todos
formados en la más prestigiosa ciencia desarrollada durante los siglos XVIII y XIX.
En efecto, el triunfo de la mecánica newtoniana no arrojaba duda alguna, mientras que la
segunda mitad del siglo XIX vio surgir la más hermosa teoría hasta entonces concebida por la
mente de brillantes físicos y matemáticos, la electrodinámica (ED) clásica. Su gestor o gran
sintetizador fue el británico James Clerk Maxwell, primer catedrático del entonces recién
creado laboratorio Cavendish, donde más tarde fueron descubiertos los constituyentes del
átomo: una especie de Abdera experimental. Recuérdese que fue en Abdera, situada en la
costa de Tracia, donde a finales del siglo V antes de nuestra era, los filósofos griegos Leucipo y
Demócrito enseñaron que toda la materia está constituida por átomos y espacios vacíos. “ólo
los átomos y la luz son reales, y existe una estrecha relación entre aquellos y los
extremadamente diminutos o pús ulos de luz , p ego a a De ó ito. Maxwell, atomista
como sus predecesores en Abdera, a diferencia de los más destacados físicos alemanes,
antiatomistas, fue el gran unificador de los fenómenos eléctricos y magnéticos; pero fue más
lejos. El conjunto de la teoría predecía la existencia de ondas electromagnéticas que viajarían a
la velocidad de la luz, la más alta velocidad de propagación aceptada hoy en día, 3×1010 cm/s.
Estas ondas se propagarían en un medio muy singular, denominado éter luminífero. Era la
cumbre más elevada en el penoso ascenso del mecanicismo. Ya no habría otras cimas
comparables en las ciencias físicas, se supuso ingenuamente.
La naturaleza atómica de la materia y la relación que hay entre materia y radiación plantea de
entrada un enfoque cuántico, si cuántico se refiere a discretización. En efecto, como ya era
claro para los atomistas, los átomos de una misma substancia han de ser idénticos. Eso ocurre
también para cada una de las partículas elementales, indistinguibles entre ellas, los nuevos
átomos, como sugerimos atrás, aunque el nombre ya no podrá asignarse a esos verdaderos
ladrillos. Pero la discretización también debe darse a nivel atómico y molecular. En el caso del
átomo de hidrógeno, por ejemplo, una vez se sabe que está constituido por un protón y un
electrón, este último se encontrará a unas distancias muy precisas del núcleo. Esos son los
niveles cuantizados de los cuales nos hablará Bohr más tarde, mismos que darán lugar a las
líneas espectrales en los espectros de absorción y de emisión.
Volvamos a las ondas electromagnéticas por un momento. Imaginará cualquier desprevenido
lector, a partir de la información que tiene sobre el desarrollo del electromagnetismo, que la
confirmación de la existencia de esas ondas se hizo en Cavendish. Maxwell era un teórico y,
hasta cierto punto, podría decirse que descuidó el laboratorio a su cargo. Tal vez esa haya sido
una razón histórica para que el gran salto experimental lo dieran los físicos continentales. En
1887, ocho años después de la muerte de Maxwell, el alemán Heinrich Rudolf Hertz produjo en
su laboratorio esas ondas, posteriormente denominadas ondas de radio (u ondas hertzianas;
por algo se miden en hertzios), y las comparó con las de luz: todo cuadró espléndidamente. Las
suyas, a pesar de tener una longitud de onda  mayor en varios órdenes de magnitud,
correspondientemente una frecuencia  muchísimo menor, tienen una velocidad de
propagación que resulta ser exactamente igual a la de la luz visible, de tal suerte que el
producto de las dos, , da la misma constante c (velocidad de la luz): c = . En el otro
extremo, el de las altas frecuencias, también invisibles, se descubrieron poco después los rayos
X los a os γ ga a . La elo idad de la luz e a, pues, u a o sta te fundamental. Si algún
ajuste adicional había que hacer, afectaría a la décima cifra decimal, como supuso Maxwell.
Salvo por los nubarrones a que se refería Kelvin, la física era ya una teoría completa a finales
del siglo XIX. Por eso no era casual que los profesores aconsejaran a sus estudiantes
destacados no ahondar más en aguas cuya profundidad se conocía a satisfacción. El optimismo
cundía por doquier, a pesar de los nubarrones. La tormenta no se presentía. Millikan, entre
otros, un ferviente discípulo de Michelson, todavía fiel creyente en la existencia del éter, sería
uno de los más feroces opositores a pensar de otra manera.
Así pues la luz, una onda muy peculiar, visible en un estrecho espectro de frecuencias, se
movería en el éter a una velocidad en números redondos dada por: c = 3108 m/s. El espectro
se extiende, en principio, a todos los valores positivos de frecuencia. Dijimos que a nadie se le
habría ocurrido llevar la contraria ante tan rotundas evidencias... excepto...
Romper con puntos de vista varias veces comprobados, tanto en el terreno teórico como en el
campo experimental, fue el osado paso que se atrevió a dar el joven Einstein, todavía
pendiente de su grado, en 1905. Su propuesta parecía volver al pasado, dándole la razón a
Newton, pero difería radicalmente de este último. Para ello concibió dos modelos
diametralmente opuestos. El primero se apoyaba en recientes resultados, los del meticuloso
experimento de Michelson-Morley (1887), al que se volverá más adelante: a diferencia de
otras ondas, concluyó Einstein, la luz no necesita de medio alguno para propagarse; el éter se
esfuma; tal vez por eso sería mejor visualizarla como si estuviera compuesta de partículas, y
eso fue lo que hizo en otro escrito de aquel año memorable.
Figura 2.10. a) James Clerk Maxwell (1831-1879); b) Heinrich Rudolf Hertz (1857-1894); c) Diagrama
esquemático del aparato ideado por Hertz para generar y captar ondas electromagnéticas.

Einstein establecía, además, una nueva concepción del espacio y del tiempo: el conjunto
espacio-tiempo, en el que ocurren tanto la dilatación de los intervalos temporales como la
contracción de los segmentos espaciales en la dirección de la velocidad de los cuerpos en
movimiento, es inseparable; el tiempo y el espacio forman parte de un mismo ente, en el que
pondría a evolucionar en la siguiente década a la materia-energía. Partía, así, de una
reformulación de la mecánica; en el nuevo esquema, se ratifica un principio de relatividad que,
complementada con el principio de invariancia de la velocidad de la luz, deja intactas las
ecuaciones de Maxwell, pero modifica la segunda ley de la mecánica, y va en contra de la
concepción de Newton sobre espacio y tiempo absolutos y de su existencia al margen de la
presencia o no de la materia, materia (masa) que a partir de entonces va a ser equivalente a
energía (radiación). El postulado de que la velocidad de la luz sea la misma en todos los
sistemas de referencia, lleva a resultados contra-intuitivos. Uno de ellos es que la luz no
envejece, una propiedad que bien quisiéramos tener los que de ella vivimos y nos nutrimos,
seres vivos de todas las especies posibles.6 La adición de velocidades sufre también radicales
cambios: 2 + 2 ya no es 4. El resultado de la suma depende también de la dirección del
movimiento. Es el desbarajuste no solo de la mecánica, también de la cinemática y por ende
de la geometría. A eso conduce su primer modelo sobre la luz, el de ondas que transportan
información, además de la energía propia de la radiación. Veamos en qué consiste la osadía de
su segundo modelo.
En contra de la evidencia experimental aportada por sus predecesores alemanes, británicos y
franceses, Einstein asumió en otro de sus trabajos de aquel año milagroso que la energía de la
radiación electromagnética era transportada por corpúsculos que viajan a velocidad c en el
vacío y que por ende están provistos de cantidad de movimiento.7 Subsistía un pequeño

6
Hay organismos anaeróbicos, pero sin la luz, en alguno de sus rangos de frecuencia, es inconcebible
cualquier proceso químico, mucho menos biológico o vital.
7
Los artí ulos ue Ei stei pu li ó e fue o : Sobre el movimiento requerido por la teoría
i éti a ole ula del alo de pe ueñas pa tí ulas suspe didas e u lí uido esta io a io , e el ue
se explica el movimiento Browniano; Un punto de vista heurístico sobre la producción y transformación
de luz , e el ue se estudia e pli a el efecto fotoeléctrico; “o e la ele t odi á i a de ue pos e
o i ie to , fundamento a la teoría de la relatividad especial; ¿Depende la inercia de un cuerpo de su
o te ido de e e gía? e el ue se a aliza la e ui ale ia asa-energía con la fórmula E = mc², siendo
E la energía, m la masa y c la velocidad de la luz. Un quinto trabajo publicado fue su tesis de doctorado.
problema adicional: los avances astronómicos habían sido enormes. El efecto Doppler,
característico de fenómenos ondulatorios, mostraba a todas luces que los cuerpos celestes,
emisores de luz, se mueven a diferentes velocidades. En particular, como pudo deducir el
astrofísico norteamericano Edwin Powell Hubble unos veinte años más tarde, las galaxias se
alejan unas de otras a velocidades tanto más grandes cuanto más alejadas se encuentran (Ley
de Hubble).
Parecía aceptable, entonces, que si un objeto celeste se aleja se verá más rojo, mientras que
por el contrario, si se acerca se verá más azul, debido a que está emitiendo ondas
electromagnéticas. Einstein no tuvo inconveniente alguno en asumir que los corpúsculos de la
luz procedente de una fuente en movimiento cambiarían de color sin que por ello cambiaran
de velocidad, siguiendo en esencia el comportamiento previsto por el austríaco Christian
Doppler para las ondas de sonido, pero la razón sería diferente. En el fondo, eso es más o
menos equivalente a suponer que cuando la bola roja en movimiento sobre una mesa de billar
golpea a una cualquiera de las blancas en reposo, no solo sale esta última con velocidad
dependiente de la forma del impacto (un comportamiento muy diferente al de los extraños
corpúsculos de luz), sino que el color de la primera también cambiará, algo verdaderamente
insólito.

Según Einstein, cada corpúsculo de la luz emitida tendrá energía E = h, siendo  la frecuencia
de la luz y h la constante de Planck, 8 pero la frecuencia dependerá de la velocidad con que se
mueva el emisor con respecto al observador (recuérdese que c =, siendo c constante). El
resultado luce prácticamente igual a la fórmula de Planck, pero para llegar a él hay que partir
de hipótesis más atrevidas que la suya. Tanto que ninguno de los físicos del momento tomó en
serio a Einstein. De hecho, hay que suponer que un corpúsculo y una onda se comportan en
ocasiones de la misma manera, una afirmación que nadie, salvo el intrépido Einstein, estaría
dispuesto a aceptar. Diez y ocho años después (1923), la explicación de un experimento
conceptualmente más sencillo que el de las bolas de billar, el choque entre un fotón de alta
energía y un electrón en reposo, el llamado efecto Compton antes mencionado, no dejó lugar a
dudas: la luz, un típico fenómeno ondulatorio, está compuesta de corpúsculos que se mueven
permanentemente a velocidad c y cuya energía (léase frecuencia de la onda, ) depende del
observador. Lo notable es que el efecto Doppler en la luz sí ocurre, comportándose entonces
como onda, con consecuencias cosmológicas trascendentales.
Da la impresión, al leer los textos convencionales, que la revolucionaria propuesta de Einstein
fue motivada por la búsqueda de una posible explicación al denominado efecto fotoeléctrico.
Eso no es cierto. Einstein había estado trabajando en la estadística de un gran enjambre de
corpúsculos por espacio de varios años, lo que le permitió entender a fondo los conceptos
subyacentes en la física estadística de Boltzmann. Su familiaridad con el tema le permitió
descubrir errores conceptuales o contradicciones en el procedimiento seguido por Planck. La
explicación del efecto fotoeléctrico, al que se hará referencia más adelante, fue apenas un

8
Planck y Einstein son los protagonistas principales del presente capítulo; vale decir, para poder
concentrarnos en las implicaciones de sus postulados, no insistiremos en las aplicaciones tan diversas,
entre ellas, la física atómica, la física nuclear, la física de partículas, la astrofísica, la física del estado
sólido y tantas otras, de indudable manufactura cuántica. A ellas volveremos en los capítulos restantes
y, sobre todo, en la segunda parte. Estadísticas cuánticas se suelen llamar a los formalismos que
constituyen la esencia de las aplicaciones de la física estadística en diversos campos.
corolario de su revolucionaria hipótesis. Vale la pena señalar, de paso, que el efecto Compton
es también una consecuencia lógica de la nueva concepción sobre la luz: un rayo de luz es un
enjambre de fotones. Cuando alguno de los miembros de ese enjambre golpea una minúscula
partícula, el electrón, se recrea el juego de la mesa de billar... pero en condiciones cuántico-
relativistas. Los corpúsculos de luz (energía pura) son absorbidos por los corpúsculos de masa
(materia pura). La denominación dada a los granos de luz, fotones, fue introducida por el
químico norteamericano George Lewis en 1926.
El joven, ya graduado y en el inicio de su carrera hacia la fama, fue más lejos que Planck,
aplicando esas ideas a otros campos de la física. Descubrió, por ejemplo, que se podía explicar
el calor específico del diamante asumiendo que las vibraciones de los átomos en el interior del
cristal (sonido) están cuantizadas: introdujo así, sin darse cuenta, los fonones, aunque no haya
tenido mucho que ver con la fonología. Recuérdese que el calor específico de un cuerpo o
sustancia es la cantidad de calor que hay que suministrarle a la unidad de masa para
incrementar en una unidad (grado) su temperatura. Esa descomunal contribución de Einstein a
la física del estado sólido y de la termodinámica, en su versión microscópica la física
estadística, no ha sido aun suficientemente valorada. Habría, entonces, no solamente granos
de energía presentes en las señales luminosas sino también en las ondas sonoras. Se puede
afirmar después de Einstein: de ahí a cuantizarlo todo, hasta la supuestamente inmaterial
información, solo hay un paso. ¡Costosísimo, por cierto, desde el punto de vista conceptual!
Como si fuera poco, por la misma época (1916) sentó las bases teóricas del láser.
De Broglie haría su propuesta igualmente revolucionaria 18 años después de aquel año
milagroso, en condiciones similares a las del joven Einstein, para optar al título de doctor. Pero
en ciertos aspectos la suya sería más atrevida que la de este… ha ía de lle a las f o te as
de la física mucho más lejos. Otros jóvenes de entonces (Dirac, Pauli y Heisenberg, entre
otros), desprovistos de prejuicios, se encargarían de elaborar lo que hacía falta, el formalismo.
A las diversas hipótesis sobre los átomos, al surgimiento de la nueva teoría atómica y de lo que
ocurre en el interior del núcleo atómico nos referiremos enseguida.
2.4 De los átomos indivisibles a las órbitas cuantizadas de Bohr
Antes de la revolucionaria hipótesis de Planck, justo a finales del siglo XIX, se habían hecho
descubrimientos de gran importancia para la física. Recordemos dos de enorme relevancia.
Poco después de realizado el fallido experimento de los norteamericanos Abraham Michelson
y Edward Morley (el primero de ellos, de origen alemán), transcurrida una década desde la
producción de ondas electromagnéticas, se dio el descubrimiento del electrón (1897). 9 Poco
antes se habían descubierto, la mayor parte de autores suelen decir que por accidente, tanto
los rayos X como el fenómeno de la radiactividad y con él los rayos gamma; los nombres de
Röntgen y de Becquerel están ligados, respectivamente, a uno y otro descubrimiento. Eran
épocas en que accidentes de ese tipo ocurrían a menudo. Contrario a ese procedimiento usual,
el descubrimiento de la primera partícula elemental (el electrón; hasta donde sabemos hoy, lo
sigue siendo) fue planeado: había varias pistas.

9
Puede decirse que el experimento fue fallido, en cuanto a lo que se proponía; fue todo un éxito, como
inicio del derrumbe del imaginario éter.
Pasaron desde entonces tres años antes de que Planck se encontrara con su trascendental e
inesperada hipótesis, para él mismo increíble. El peso de lo que se anunció el 14 de diciembre
de 1900 marcó un nuevo derrotero, inclinando inesperadamente la balanza hacia una nueva
forma de hacer ciencia. Cinco años más tarde, a lo largo de 1905, se sucedieron los cinco
famosos artículos de Einstein, cada uno de ellos de singular relevancia. Para empezar, tres
teorías diferentes surgieron de esas semillas: la relatividad, la teoría cuántica de la luz y una
nueva teoría estadística de la materia.
Aunque más o menos conocido por la comunidad científica, a nivel popular no se ha hecho
justa referencia al artículo de Einstein (y a su tesis doctoral) que predice(n) cómo determinar el
tamaño de aquellas, para algunos controvertibles, partículas de materia, hipótesis de trabajo
de los químicos desde hacía un siglo, inaceptables para Ernst Mach y muchos de sus colegas y
compatriotas alemanes: los átomos y las moléculas. Su inequívoca existencia, a partir de los
experimentos del francés Jean Baptiste Perrin en 1908, sirvió de detonante para que se
intentara desentrañar el gran misterio de la constitución última de la materia, un proceso de
búsqueda incesante que continúa vigorosamente. Paradójicamente ese artículo y su tesis
doctoral, los dos trabajos que a la postre incidieron menos en la fama universal de Einstein,
fueron los únicos que en aquel momento recibieron aceptación de varios, no todos, sus
colegas.
Correspondió al neozelandés Ernest Rutherford abonar el terreno para preparar lo que
finalmente sería un modelo cercano al actual sobre los constituyentes últimos de cada
substancia. Rutherford había llegado a Cavendish en 1895, justo a tiempo para participar del
trascendental experimento de su provisional o temporal jefe, Thomson. Las investigaciones de
aquel giraban en torno al extraño fenómeno de la radiactividad, ya mencionado, para entonces
recién descubierto. No es posible en unas pocas páginas relatar detalladamente la historia de
aquel periodo decisivo, al que se han dedicado varias obras de peso histórico-documental
formidable. En resumen, la formación de Rutherford al lado de Thomson y su familiaridad con
los experimentos de sustancias radiactivas, le sirvieron para dar con el blanco perfecto en
1909, el núcleo de los elementos; se había develado nada menos que el interior del átomo. El
exterior parecía más confuso. Aunque su modelo atómico planetario, electrones orbitando
alrededor del núcleo, no cabía en el esquema clásico dominante, el de la dinámica de Newton
y la ED de Maxwell, le abría espacio a una solución más radical para los serios problemas que la
física de entonces afrontaba.
El pórtico se estremeció al abrirse de par en par la puerta de acceso al interior del átomo. Fue
un violento tirón lanzado por un joven danés que recién había recibido su grado de doctor.
Bohr viajó a Cambridge en septiembre de 1911 para trabajar junto a Thomson. Desavenencias
del tímido joven con su nuevo tutor, probablemente en parte debidas a su deficiente inglés,
agravadas por las críticas que él y su anterior ayudante, Rutherford, formularan a su modelo, le
llevaron a Manchester en marzo del año siguiente. Inicialmente motivado con el modelo
planetario, pronto descubrió las fallas y se las ingenió para imaginar una solución práctica,
aunque pareciera descabellada. Para el invierno regresó a Copenhague, desde donde continuó
su interacción con Rutherford. Su modelo, con la variante de órbitas estables, era un abierto
desafío al del neozelandés. Animado por este, regresó nuevamente en marzo de 1913 para
pulir y alargar el texto en que presentaba sus postulados teóricos. Su propuesta inicial
combinaba las ideas clásicas con las cuánticas, pero contenía un ingrediente novedoso que
parecía absurdo a primera vista: los saltos cuánticos. ¡Nada volvería a ser lo mismo!

Figura 2.11. a) Joseph John Thomson (1856 – 1940); b) Ernest Rutherford (1871 – 1937); c) Niels Bohr
(1885 – 1962).

2.4.1 Postulados de Bohr


Así pues, el siguiente paso de alto riesgo lo dio Bohr en 1913, intentando ensamblar distintas
piezas de un rompecabezas. Su creatividad le llevó a proponer que los electrones se sentirían
cómodos en algunas órbitas para las cuales sus momentos angulares serían múltiplos de la
constante de Planck, h-barra. Por simplicidad, en los textos de enseñanza media suele
definirse el momento de una fuerza con respecto a un punto como el producto de la fuerza por
el brazo. En forma similar, la magnitud del momento angular L es el momento del momentum
o cantidad de movimiento lineal p, definido éste último en magnitud como el producto de la
masa m por la rapidez v, mv.10 Para ilustrar el valor de esa nueva cantidad en un caso trivial, el
momento angular, cuando un objeto se mueve en trayectoria circular de radio r, es L = mvr.
Como ħ = h/2 y L = nħ, una consecuencia de la cuantización del momento angular es que las
órbitas atómicas están cuantizadas, con radios que dependen de n y de ħ: rn  (nħ)2. 11 Se
encuentra que la energía, negativa, en cada nivel varía en proporción inversa, (1/n2)ħ,
correspondiendo el menor valor posible a n = 1. El resultado más importante de tan atrevida
hipótesis es que los electrones sólo podrán emitir radiación al saltar de regreso de una a otra
órbita permitida, algo que echa por tierra uno de los dogmas sagrados de la teoría
electromagnética clásica. Bueno es tener en cuenta desde ya que el salto no es clásico, es un
salto cuántico: no hay posiciones intermedias en la transición, vale decir, no hay propiamente

10
En términos sencillos, se denomina momento de una cantidad física al producto del brazo o distancia
desde el punto de acción a un punto de referencia u origen por la cantidad física en cuestión; la
definición rigurosa es un poco más complicada, pues parte de lo que se denomina producto vectorial: el
momento o torque de una fuerza es rF. Para precisar aún más el lenguaje, es bueno hacer notar que
el término momento cinético, cuando alude a lo que más extensamente se denomina cantidad de
movimiento angular, es erróneo o por lo menos equívoco; momentum angular, es la denominación
adecuada; momento en la primera parte de la frase es una mala traducción del inglés momentum, pero
así lo ha establecido su uso en español. En este ensayo, se acoge por comodidad esa costumbre.
11
El nombre, h-barra, hace alusión precisamente a la división de la constante de Planck por el ángulo

dijo, de 1.05x10-34 Js.


total de la trayectoria circular, 360, expresado en radianes. Su valor en el sistema MKSA es, como ya se
una situación transitoria del electrón en el sentido clásico de la expresión. La pregunta debería
ser entonces: ¿qué fue del electrón mientras cruzaba de uno a otro nivel? La respuesta bien
podría ser: todavía no lo sabemos. O más lacónica: ¡jamás lo sabremos! A lo mejor dejó de ser
electrón para convertirse en una remota posibilidad electrónica.
Pero sí hay cosas tangibles que podemos afirmar. La energía irradiada o emitida por los
átomos al saltar el electrón de una órbita superior a otra de menor energía es precisamente
igual a la de los corpúsculos de energía postulados por Einstein, con los valores de los que
previamente había absorbido. Fue el danés quien supo aprovechar a fondo la controvertida
hipótesis de aquel. ¡Bohr había logrado que la ficha encajara perfectamente en el tablero del
rompecabezas! De paso, Einstein y él abrieron el camino a aplicaciones tan colosales como el
rayo láser.
Con su modelo de 1905 Albert Einstein no se propuso solamente elaborar un modelo
corpuscular para la luz, mucho menos explicar simplemente el efecto fotoeléctrico, como
afirman la mayoría de los textos. En realidad Einstein lo que hizo fue elaborar la estadística de
la radiación electromagnética, en forma similar a como Boltzmann la había hecho con los
átomos en los que algunos de sus colegas físicos, entre ellos Mach, no creían.
La sencilla hipótesis de Einstein resultó inaceptable para la física del momento, teniendo en
cuenta que la luz era considerada por todos como un fenómeno ondulatorio: nadie ponía en
duda la existencia de las ondas electromagnéticas, el más interesante resultado de la más
elegante y consolidada teoría del momento, la ED. Einstein resucita, hasta cierto punto, la
imagen corpuscular de la luz introducida por los griegos y sostenida por Newton, y la relaciona
en forma elegante y genial con la cuantización introducida desesperadamente por Max Planck
en 1900 para explicar el espectro de radiación de un cuerpo negro. Si la energía emitida o
absorbida por los cuerpos está cuantizada, es decir, viene en paquetes dados por una
constante natural, la posteriormente denominada constante de Planck, h, multiplicada por la
frecuencia ν a la que se emite o absorbe, E = hν, es porque esos cuantos están ya en la
radiación: la radiación está compuesta por corpúsculos de energía E = hν.
Sin quitarle méritos a su ingenio y osadía, con esta información era fácil para Bohr elaborar su
modelo, por inaceptable que resultase en opinión de la mayoría de físicos del momento. Su
modelo, además, tiene la particularidad de inspirarse en un resultado experimental que
tampoco pudo ser explicado por la física clásica: los espectros de los elementos son
discontinuos, es decir, están constituidos por líneas espectrales discontinuas.
Eso era todo lo que necesitaba Bohr para aventurarse a elaborar su modelo y confrontarlo con
los resultados experimentales. El danés no sabía mucho de espectroscopia así que tuvo que
sumergirse en un campo ajeno al suyo, pero lo hizo en tal forma que terminó convirtiéndose
en un experto en esa ciencia hasta entonces empírica. Las fórmulas empíricas descubiertas por
los espectroscopistas, entre ellos Balmer, le fueron de invaluable labor. De paso, llevaron a un
modelo de átomo en que se combinaban ideas ortodoxas clásicas con las nuevas hipótesis de
cuantización.
De acuerdo con Bohr, los electrones en los átomos sí se moverían en algunas órbitas
especiales, circulares o elípticas, alrededor del núcleo, pero para esos orbitales electrónicos no
valdría la prescripción del electromagnetismo que los obligaría, por ser partículas cargadas
moviéndose con aceleración radial, a radiar o emitir energía en forma continua. Por el
contrario, saltarían de una órbita estable a otra que lo sería provisionalmente por absorción de
un cuanto de luz apropiado, aquel con una energía exactamente igual a la diferencia de energía
entre las dos órbitas. Más tarde, en algún momento, el electrón emitiría, también en forma de
un cuanto de luz, una cantidad de energía exactamente igual a la absorbida previamente.
También podrían darse saltos intermedios, pero siempre entre los niveles permitidos por una
regla de cuantización de los momentos angulares.
A pesar de la extraña hipótesis de los saltos cuánticos, el modelo lograba explicar
cuantitativamente el espectro de emisión y absorción del átomo de hidrógeno y
cualitativamente otros espectros. Recuperaba así todas las series descubiertas por los
espectroscopistas, al menos en el caso del átomo de hidrógeno, y lo hacía a partir de un caso
extremadamente sencillo: asumiendo órbitas circulares. (Figuras 2.12 a 2.16.)

Figura 2.12. Modelo de Bohr de órbitas estacionarias para el átomo de hidrógeno. Los electrones
saltarían en forma discontinua de una a otra de las órbitas permitidas, caracterizadas por momentum
angular ħ (energías y momentos angulares cuantizados), recibiendo o emitiendo la energía
correspondiente al principio de conservación de la misma.

En síntesis, los postulados de Bohr se resumen de la siguiente manera:

Primer postulado. Los electrones describen órbitas circulares alrededor del núcleo del átomo
sin irradiar energía. Bohr no se preocupó inicialmente por órbitas de tipo elíptico. Estas fueron
retomadas más tarde por él y otros, entre ellos Sommerfeld, quien de paso introdujo
correcciones relativistas al primer modelo.
Segundo postulado. Las únicas órbitas permitidas para un electrón son aquellas para las cuales
la magnitud del momentum angular sea múltiplo entero de ħ: L = nħ. No había sido
descubierto aun el espín del electrón. Cuando esto ocurrió, se incorporaron modificaciones a
los modelos de Bohr y Sommerfeld que fueron paliativos a la denominada vieja teoría
cuántica.
Tercer postulado. Los electrones solo pueden emitir o absorber energía cuando realizan saltos
cuánticos. Estos se dan por absorción o emisión de fotones, con energías que tienen que ser
exactamente iguales a las del proceso inverso. Llamando Ef la energía del estado final y Ei la
del estado inicial, la energía emitida o absorbida en un salto cuántico será:

Ef - Ei = hν.

Figura 2.13. Series espectrales (Lyman, Balmer, Paschen, Brackett) y fórmula de cuantización obtenida
por Bohr a partir de su modelo atómico de saltos cuánticos con momentum angular cuantizado.
(Cortesía de Manuel Freddy Molina.)
Posteriormente se descubriría que no solo por absorción o emisión de fotones se darían
transiciones entre los niveles energéticos. Vendrían también reglas de selección, que surgen
rigurosamente de una formulación más precisa de la teoría cuántica, incluyendo efectos
relativistas. La formulación de una teoría atómica de la materia a partir de la física cuántica
tuvo que partir de hipótesis más osadas que la de los saltos cuánticos, introduciendo el
concepto de discontinuidad en el mundo físico y renunciando a uno de los principios más
fundamentales de la física clásica: el determinismo. Habría que renunciar, por ejemplo, al
concepto de trayectoria asociado a las órbitas. Aunque imprecisas e incompletas, las hipótesis
de Bohr dieron comienzo al abandono de los caros conceptos clásicos de la mecánica y la
electrodinámica, un camino sin retorno posible.
2.4.2 La espectroscopia: su origen y sus nuevos aportes
Sería muy extenso hacer siquiera un somero recuento sobre esta ciencia, espectroscopia o
espectroscopía, inicialmente empírica, cuyos verdaderos inicios se remontan a los comienzos
del siglo XIX, si no antes (Sánchez Ron, 2001). Probablemente fue Joseph von Fraunhofer
(1787-1826) su verdadero iniciador. Entre 1814 y 1823, reportó más de 600 líneas espectrales
para la radiación solar.
El espectro de emisión atómica de un elemento es un conjunto de líneas espectrales
observadas a determinadas frecuencias, en las ondas electromagnéticas emitidas por átomos
de ese elemento, particularmente en estado gaseoso, cuando se le comunica energía
adecuada. El espectro de emisión de cada elemento es único y puede ser usado para
determinar si ese elemento es parte de un compuesto desconocido.

Figura 2.14. Comparación de los espectros de absorción y emisión del átomo de hidrógeno

Figura 2.15. Ilustración de lo que ocurre cuando un electrón absorbe un fotón de frecuencia elevada
(hacia el violeta) y emite luego un fotón de menor energía para pasar a un nivel intermedio.
El espectro de absorción, por el contrario, muestra la fracción de radiación electromagnética
incidente que el material absorbe dentro de un rango de frecuencias. Es, en cierto sentido, el
opuesto de un espectro de emisión.
El sueco Anders Jonas Ångström y el alemán Gustav Kirchhoff, precedidos por Fraunhofer,
compatriota de este último, son algunos de los más connotados espectroscopistas de
mediados del siglo XIX. Vale la pena señalar que Kirchhoff contribuyó a la formación de Planck
y a su interés por el problema de la radiación, y que se debe al sueco el más completo mapa
espectral de radiación solar del siglo XIX y la unidad de medida que es común en la
espectroscopia, el Ångström, simbolizado por la vocal sueca Å. 1 Å = 0.1 nm.
La espectroscopia hoy es una ciencia mucho más refinada, pues utiliza sofisticados
instrumentos capaces de examinar en todo el rango electromagnético. Los avances más
recientes permiten seguir rápidos procesos inter e intramoleculares, gracias a una nueva
técnica denominada espectroscopia ultrarrápida, basada en la novedosa femtoquímica,
apropiada para estudiar reacciones que duran femtosegundos (1 fs = 10-15 s).
2.4.3 El electrón como onda
Pero las pistas y los razonamientos en la dirección de la dualidad venían de tiempo atrás.
William H. Bragg, quien conjuntamente con su hijo fuera galardonado con el premio Nobel en
física en 1915, decía en 1912 comentando las ideas contradictorias que se tejían alrededor de
los a o X: El p o le a está, o e de idi e t e dos teo ías so e los a os X, si o e
encontrar... una teoría que tenga la capacidad de a as.
Establecido experimentalmente el carácter dual de la luz, no parecía difícil hacer lo mismo con
el electrón, cuyas supuestas órbitas ya habían sido cuantizadas por Bohr. La tarea meticulosa
correspondió a de Broglie. Acogiendo la idea de la dualidad onda-partícula, la desarrolló
matemáticamente para el caso particular del electrón, describiendo de paso no solo el
comportamiento de ondas de materia sino también sugiriendo las formas bajo las cuales
podrían ser observadas. Su hermano Maurice, reconocido físico experimental, fue su gran
auxiliar en la tarea. Aprovechando el laboratorio montado en París por este último, Louis
Victor Pierre Raymond, su nombre de pila completo, desarrolló no solo algunos experimentos
sino también los primeros trabajos teóricos con el fin de demostrar su hipótesis y los publicó
en 1923. Puestas en orden sus ideas, las presentó en forma más completa para optar al título
de doctor; el examen tuvo lugar en la Sorbona en noviembre de 1924 y la tesis
correspondiente fue publicada en 1925.
De Broglie fue más allá que todos sus predecesores y postuló que la misma dualidad partícula-
onda que aquejaba a la luz se halla presente cuando se trata de electrones, protones y otras
partículas de pequeña masa. Supuso que a toda partícula de masa M (relativista) debe
asociarse una onda, cuya longitud de onda es inversamente proporcional a su cantidad de
movimiento p = Mv. Como en todos los efectos cuánticos, la constante de proporcionalidad es
la constante de Planck; así, pues:

 = h/p,
la misma fórmula para fotones, pero aplicada ahora a toda partícula material. Era el origen de
la onda piloto o, en otras palabras, el nacimiento de ondas de materia: la superposición, o
mejor, la interferencia y la difracción, no son propiedades exclusivas de las ondas, si es que
alguna vez supimos qué era una onda.

Figura 2.16 Órbitas estacionarias de de Broglie.

Figura 2.17 Órbitas estacionarias vistas como modos normales de ondas de materia.

Modos normales de vibración son los que ocurren en cualquier tipo de oscilador
clásico. Los instrumentos musicales se construyen para que puedan dar lugar a
distintos modos normales, pudiéndose generar con ellos una combinación melódica de
frecuencias y tonalidades. Una cuerda fija por los dos extremos (figura I.16), solo
permite la formación de ciertas frecuencias, armónicos, a partir de un modo
fundamental. Lo mismo ocurre con los tubos de un órgano. Este comportamiento se
discutirá en la sección 2.6. La analogía con los instrumentos musicales para el caso de
los electrones ligados al núcleo la tomó de Broglie muy en serio, y propuso que las
órbitas debían de permitir el acomodo preciso de ciertas longitudes de onda para ser
estables. Si esta comparación permite entender o no la cuantificación de los estados
de energía, no es seguro; pero esa imagen ayudó a una mejor comprensión del mundo
de los quanta o cuantos.

Figura 2.18 Onda piloto.


Tomo textualmente una frase de Lozano Leyva para relatar una anécdota citada por doquier.
Cua do de B oglie p ese tó su tesis, e 1924, el tribunal de la Universidad de París se quedó
boquiabierto. El presidente, nada menos que el insigne Paul Langevin, le envió una copia a
Einstein porque no confiaba del todo en tan extravagante hipótesis, y nadie mejor a quien
consultar que el gran pope (sic) de la física. La respuesta de Einstein fue contundente: «Creo
que la hipótesis de de Broglie es el primer débil rayo de luz sobre el peor de nuestros enigmas
e físi a».
¿Cómo pudo someterse la hipótesis ondulatoria del físico francés a la prueba experimental?
Einstein mismo había encontrado una primera prueba, pues la idea de de Broglie se ajustaba
muy bien a su modelo para explicar los valores experimentales del calor especifico de los
sólidos: ¡Las vibraciones en los sólidos están cuantizadas! Así que Einstein no solo captó la
trascendencia de la hipótesis de de Broglie, sino que pasó la noticia de su descubrimiento a
Born, en Göttingen. No olvidemos que para entonces Heisenberg alternaba su tiempo entre
Göttingen y Copenhague. Lo más importante para ese momento histórico fue que James
Frank, director del departamento de física experimental en Göttingen, sabía de los
experimentos realizados por el grupo de Davisson. A Frank no le quedaba duda de que los
experimentos de Davisson (1923) «¡ya habían establecido la existencia del efecto esperado!»
(citado por Max Jammer).
Entra aquí en escena un joven físico alemán, Walter Elsasser (1904 – 1991), formado
inicialmente en Heidelberg y München, quien finalmente se doctoró con Born en Göttingen
(1924 – 1927). Por esa época debió llegar copia de la tesis de de Broglie a Born, quien había
seguramente tomado lo esencial de ella antes de entregarla a la biblioteca de la universidad.
Cuenta Elsasser en sus memorias (1978) que se enteró del experimento de Davisson y
Kunsman (1923) en un seminario ofrecido por Friedrich Hund, asistente entonces de Born.
Otros físicos en Göttingen estaban interesados en el asunto. Lo que Davisson y su colaborador
habían hecho consistió en lanzar electrones acelerados en voltajes moderados sobre una placa
de platino en un tubo con alto vacío: los electrones fueron difundidos con una intensidad que
mostraba máximos y mínimos, dependientes del ángulo de incidencia. Born intentó una
interpretación en términos de átomo con múltiples capas electrónicas, sin mayor éxito.
Elsasser, quien siguió interesado en el asunto, encontró en mayo de 1925 dos artículos
recientes de Einstein en los que daba cuenta de un comportamiento como de onda de ciertos
gases y citaba además la tesis de de Broglie que, por fortuna, encontró también en la misma
biblioteca. ¿Y si los máximos y mínimos de Davisson y Kunsman fuesen fenómenos similares a
los de difracción de rayos X?, se preguntó. Un cálculo sencillo con la fórmula de de Broglie le
permitió concluir que la posición de los máximos podía cuadrar, pero los experimentos
mostraban resultados muy preliminares. Animado por Franck escribió una nota que llegó a
manos de Einstein, para su revisión, antes de ser publicada en Die Naturwissenschaften.
Al año siguiente Davisson asistió a un congreso en Oxford en donde, para su sorpresa, Max
Born presentó los primeros resultados de su experimento con Kunsman como indicativos de la
validez de la hipótesis de de Broglie. Allí se enteró de los intentos en esa dirección hechos por
Elsasser y el grupo de Göttingen. Al regresar a su laboratorio de la Bell Telephone en New York,
con Lester Halber Germer como colaborador, hizo las modificaciones necesarias que
condujeron a los inequívocos resultados de 1927, a los que volveremos en el tercer capítulo:
los electrones forman un patrón de difracción al incidir sobre una placa cristalizada de níquel.
La historia quedaría incompleta si no se aclara que fue gracias a un accidente como Davisson y
su grupo descubrieron la difracción de electrones. En efecto, cuando estudiaban la forma en
que se reflejaban los electrones después de chocar con un blanco de níquel metálico dentro de
un tubo al vacío, el tubo se dañó y rápidamente se depositó una capa de óxido sobre el níquel.
Para salvar su muestra, los físicos americanos la recalentaron, con lo cual, sin saberlo,
formaron superficies cristalinas. Einstein y Born, por otra parte, andaban a la caza de la
evidencia experimental.
Al observar los electrones en los experimentos más cuidadosos de 1927, hallaron que el haz de
electrones no sólo se reflejaba sino que también ¡se difractaba! Y la difracción es uno de esos
fenómenos típicamente ondulatorios, como bien lo sabían los físicos desde muchas décadas
atrás.

Figura 2.10 a) Comparación de los patrones de difracción de rayos X y de electrones al atravesar una
delgada lámina de aluminio. La imagen de la derecha fue resultado del experimento de Thomson-Reid.
Figura 2.10. b) Electrones difractados por una hoja de aluminio (detalle).

El experimento de Davisson fue realizado en forma diferente e independientemente por


George Paget Thomson —hijo de sir J. J. Thomson y Rose Paget— y los resultados de difracción
confirmados por Stern para haces moleculares y por otros investigadores para neutrones y
otras partículas. En todos los casos, la ecuación de de Broglie se cumple con alta precisión, con
lo cual la mecánica ondulatoria de Schrödinger, como siguiente paso, pudo finalmente abrirse
camino.
Como conclusión, el comportamiento ondulatorio de la materia, a partir de los granos de luz y
luego de los electrones, se abrió paso primero en el terreno teórico y luego experimental. Nace
así uno de los principios básicos de la nueva física, a saber, el de la dualidad onda-corpúsculo.
2.5 Los principales responsables de la confusión iluminante
Desde las hipótesis de Bohr que daban por sentado las de Einstein y Planck, transcurrieron
todavía un par de años antes de que el norteamericano Robert Millikan, tratando de mostrar la
falsedad de la de Einstein, verificara su acierto. Los cinco personajes de esa primera etapa de
la gran revolución cuántica ya mencionados (Bohr, de Broglie, Einstein, Planck y Rutherford), al
igual que Heisenberg, Schrödinger, Dirac, Born, Jordan, Pauli y varios pioneros más, entre los
que se cuentan Millikan y otros renombrados físicos de esa etapa, quizá la más revolucionaria
de la física de todos los tiempos, fueron galardonados con el premio Nobel por sus
contribuciones al surgimiento de la nueva teoría. En el presente siglo asistimos a una nueva
revolución, quizá más impactante desde el punto de vista tecnológico, pero ya estamos mejor
preparados para el cambio de paradigma en ese terreno.
Max Karl Ernst Ludwig Planck nació el 23 abril de 1858, en Kiel, Schleswig-Holstein, Alemania.
Su atrevida, no por desesperada menos valiosa y revolucionaria, propuesta sobre los quanta le
llevaría a ganar el premio Nobel de física en 1918, un tiempo en apariencia muy extenso para
una contribución sin precedentes a la física, pero comprensible precisamente por lo
revolucionario de la idea, la de mayor impacto en el desarrollo futuro de la física al lado de la
relatividad; él mismo no se aventuró a hacer interpretaciones de su trascendental acertijo,
emparentado necesariamente con la hipótesis atómica, repudiada ésta por los más destacados
físicos alemanes. La arena del debate de las nuevas ideas que surgirían habría sido más fácil
imaginarla ubicada en Inglaterra o Francia, menos en Alemania. No obstante, ocurrió lo
inesperado.

Figura 2.11. Planck (1858-1947) y Einstein (1879-1955), los mayores responsables de iniciar una
revolución todavía en efervescencia.

El siguiente avance público de la teoría cuántica se produjo, como ya lo advertimos, cinco años
más tarde, no en Alemania pero cerca de allí, y estuvo protagonizado por Albert Einstein,
quien para entonces había renunciado a la ciudadanía alemana y adquirido la suiza. Nacido en
Ulm de padres judíos el 14 de marzo de 1879, a diferencia de Planck, este era un joven
desconocido...
Pero Einstein había seguido meticulosamente, desde muy temprano, los pasos de Planck y de
otro gran físico de su tiempo, Ludwig Boltzmann. Su mérito consistió en aplicar otra hipótesis
cuántica, similar pero más revolucionaria, a una intrigante cuestión, el efecto fotoeléctrico, al
que nos hemos referido profusamente en la monografía divulgativa ya mencionada y en el
capítulo anterior. Algunos avances significativos ocurrieron en el transcurso de las dos décadas
siguientes. Pero los resultados teóricos más consistentes de la cocina cuántica surgieron con
posterioridad a la hipótesis de de Broglie, en menos de un lustro. Ni siquiera los resultados
iniciales de Bohr y su explicación de las líneas espectrales del átomo de hidrógeno pueden
verse como el logro de una verdadera teoría física, más bien son el resultado de complejos
malabarismos.
En 1915 Einstein había concluido su Teoría General de Relatividad y prestó nuevamente
atención a lo que se estaba cocinando. Para entonces, los resultados y las posibles
explicaciones de lo que ocurre en el núcleo estaban de moda. Einstein vislumbró la similitud
entre las transiciones electrónicas en los átomos y los decaimientos en los núcleos radiactivos.
Uno de sus mayores éxitos del momento (1917) fue deducir la fórmula de Planck para la
radiación del cuerpo negro utilizando solamente ideas cuánticas y sentando los cimientos
teóricos de máseres y láseres. Echando mano de las ideas estadísticas de Einstein, Bohr
extendió su modelo atómico intentando explicar, no solamente la presencia de las líneas
espectrales, sino también su intensidad. ¡No tuvo mayor éxito! Lo intrigante del asunto es que
se puede hacer una buena predicción estadística con su modelo, pero no se logra saber la
causa última que ocasiona el decaimiento del núcleo o la des-excitación electrónica, también
denominada en esa época emisión atómica.
En la búsqueda de la explicación a tantos interrogantes surgió una «ruptura con el principio de
causalidad» que de ahí en adelante no dejaría en paz a Einstein. Ese largo periodo histórico se
ha cubierto profusamente por los historiadores de la ciencia. Se aconsejan en particular las
bien documentadas obras Quantum generations (Generaciones cuánticas) e Historia de la
física cuántica, escritas respectivamente por Helge Kragh (2007) y Jesús María Sánchez Ron
(2001). Más reciente, la recopilación de Jim Baggot cubre un largo periodo. (Baggot, 2011.)
Un breve ensayo, centrado en uno de los personajes más geniales y controvertidos de esta
historia, Werner Karl Heisenberg, de gran valor histórico-epistemológico, es el de Antonio
Fernández-Mañada: Ciencia, incertidumbre y conciencia. Heisenberg (2004). La antítesis de
Heisenberg se puede ver en el bonachón Erwin Rudolph Joseph Alexander Schrödinger, de
quien John Gribbin hizo recientemente una valiosa antología. (Gribbin, 2013.)
Cuando se menciona a Heisenberg, es imposible no recordar su famoso principio, según
muchos el más fundamental de la nueva física. A él tendremos que referirnos frecuentemente
y, por supuesto, a la ecuación de onda de Schrödinger, equivalente a la segunda ley de Newton
en la mecánica cuántica.

Figura 2.12. Werner Karl Heisenberg (1901-1976) y Erwin Rudolph Joseph Alexander Schrödinger (1887-
1961), dos figuras icónicas y contrapuestas de la mecánica cuántica.

Se insiste con demasiada frecuencia en que una de las implicaciones más trascendentales del
cuanto de acción es la de que la observación afecta toda medida. Por tal razón, a lo mejor un
poco ingenuamente, se afirma que si no se requiere invocar los principios cuánticos para todo,
es porque, como escribió el británico Paul Audrian Maurice Dirac en el primer capítulo de su
monumental obra Principios de mecánica cuántica: “i el o jeto o side ado es tal ue la
alteración límite inevitable se puede despreciar, se dice que el objeto es grande en sentido
absoluto; si, en cambio, dicha alteración no es despreciable, el objeto es pequeño en sentido
a soluto... . Más adela te se eafi a esta jui iosa o se a ió , la ue o du e al lla ado
principio de correspondencia. Pero...
2.6 Una revolución que continúa siendo molesta
Por lo dicho atrás, Dirac se quedó corto. No solo porque el origen del Universo no es clásico; al
menos no podremos imaginarlo sin recurrir a los quanta. Como afirma Ramón Lapiedra (2008):
si hoy no dispusiéramos de tan poderosa herramienta, tendríamos que inventarla de algún
modo; de hecho, la revolución del transistor de mediados del siglo pasado habría sido
imposible sin esa herramienta. Los fenómenos colectivos, presentes en muchas de las
aplicaciones de lo que se denomina física de la materia condensada, es decir, de trozos de
materia en la que están participando coordinadamente del orden de, para dar una idea, un
cuatrillón (la unidad seguida de 24 ceros) de partículas o entes cuánticos concentrados en un
volumen no superior a un centímetro cúbico, para todos los efectos un tamaño macroscópico,
tampoco tienen una explicación clásica; y si el trozo de materia es mucho menor, hay aún
menos razones para esperar que la lógica clásica pueda permitirnos entender su
comportamiento.
(No es solo que la observación afecte toda medida: es que no se pueden medir
simultáneamente 2 cantidades conjugadas canónicamente. Hoy sabemos también de efectos
cuánticos en sistemas biológicos, tema que será parcialmente cubierto en la tercera parte.)
Pero hay todavía más, como se desprende de cuidadosos experimentos realizados durante las
dos últimas décadas: si bien es cierto que la medición o la observación, casi siempre una
interacción con el sistema, altera el objeto observado, esa no es la única consecuencia de
aceptar los principios cuánticos. Aceptarlos y, sobre todo, materializarlos, ha llevado a lo que
muchos reconocen como la segunda revolución cuántica. Investigadores de la Universidad de
Innsbruck fueron los primeros en observar lo que denominan «interaction-free-
measurements» (medidas libres de interacción). Parodiando a Einstein, la consecuencia es
tajante y, hasta cierto punto, cruel: ¡el sentido común y la sensatez han sido refutados!
También la noción misma de realidad... a menos que sea redefinida, o estemos dispuestos a
aceptar que es un mito más: Einstein se revolcaría en su tumba. Es aquí donde los
embaucadores, siempre tan abundantes y acuciosos o astutos, pueden aprovechar la ocasión
para hacer de las suyas.
(El borrado cuántico.)
Algunas frases del párrafo anterior requieren de una explicación para el lector no familiarizado
con estos temas. La propuesta de Planck, presentada ante la Academia en 1900, más que
respuestas claras, creó más confusiones. Él mismo escribiría 20 años después a un amigo:
Puedo a a te iza el p o edi ie to e te o o o u a to de desespe a ió ...
Personalmente Planck, no solamente sus contemporáneos, siguió pensando en términos
clásicos. Más abierto a nuevas ideas, Einstein vislumbró mejor que aquel el valor intrínseco de
la constante de acción, puesto que encajaba muy bien en su espacio tetradimensional. Pero
sucumbió también ante la incertidumbre. La probabilidad generada por los principios
cuánticos no encajaron en su romántica idea de concebir el universo como si fuera
comprensible.
De acuerdo con la teoría de relatividad, observadores que se muevan por el espacio unos con
respecto a otros, describen de manera diferente, aunque utilizando las mismas leyes, los
mismos fenómenos, cada uno desde su propio marco de referencia. No estarán de acuerdo,
por ejemplo, en la longitud de un metro que, con respecto a otros observadores, se mueva a lo
largo de la dirección en que se mide su longitud; tampoco en los intervalos de tiempo de sus
diferentes relojes y, por ende, en la edad de sus contemporáneos. Pero la contracción de la
longitud y la dilatación del intervalo temporal en cierto sentido se compensan: el intervalo
espacio-temporal sigue invariante, como lo era antes la longitud de una barra rígida. La acción,
una cantidad poco usual en la física newtoniana, envuelve energía y tiempo: resulta ser la
misma para todos los observadores. Por extraño que suene, la teoría de relatividad es una
teoría de invariantes. Esta aclaración permite hacer una afirmación más: están equivocados
quienes opinan que las teorías de Einstein les permite relativizar en forma absoluta el
conocimiento y sus consecuencias. En otras palabras, el pensamiento complejo a veces no es
tan complejo, o mejor, algunos de sus propulsores dejan de utilizar los criterios de la ciencia
para convertirla en otra cosa.
Einstein abonó el terreno para continuar cuantizando cantidades físicas. Aunque sus aportes a
la teoría cuántica en aquel cuarto de siglo fueron muchos, podría decirse que más tarde se
desentendió del asunto... excepto porque él mismo supuso que algunas de las hipótesis eran
solo eso: hipótesis de trabajo, ideas momentáneamente útiles a las que después se les podría
dar una adecuada interpretación, cuando la teoría de relatividad y la teoría cuántica encajaran
perfectamente. Transcurridos cien años, su sueño no se ha hecho realidad. Las nuevas
generaciones de físicos se han apartado del escepticismo de Einstein con respecto a la teoría
cuántica. La interpretación de la teoría se aleja cada vez más de la prevista por aquel.
2.7 Si no siente vértigo, es porque no ha entendido
Algunos de los expertos más reconocidos en el tema han llegado a afirmar, con sobrada razón,
que nadie comprende la mecánica cuántica.
Se dirá que lo mismo ocurre con la relatividad. Puede afirmarse que muy pocos la entendían
antes de 1920. Era una época en la cual los físicos estaban todavía muy aturdidos con la nueva
concepción del espacio-tiempo, ya no digamos curvo, pero incluso la que se deriva de la
relatividad especial. A hacerla asequible para un número amplio de aficionados se han
dedicado grandes esfuerzos, con mucho éxito. Einstein mismo publicó, al año siguiente de
publicada su TG, un ensayo divulgativo. (Einstein, 1917.)
No puede decirse lo mismo de la teoría cuántica. En los últimos años, quizá en la última
década, las cosas se han invertido: ahora se escribe más sobre física cuántica, y las referencias
tomadas casi al azar en la sección anterior lo atestiguan. Pero la confusión sigue al acecho, en
forma por demás peligrosa. Un ejemplo protuberante lo constituye la película What the bleep
do we know?, pseudociencia llevada a la pantalla con gran éxito. Con esfuerzos más refinados,
el Biocentrismo de nuevo tipo (Lanza, 2009) antepone la existencia de la conciencia a la de la
materia misma. No entraremos aquí en esta polémica, pero se invocan los principios de la
nueva física para dar soporte a las más disparatadas propuestas.
Al margen de las interpretaciones, en ocasiones verdaderas tergiversaciones, el formalismo
cuántico es bien entendido, no así sus implicaciones, las cuales hasta ahora han sido
fi e e te o o o adas. …
3. Los primeros experimentos con electrones
Para seguir con la analogía de la novela de misterio citada en la introducción, las primeras
pistas en la búsqueda de explicaciones o hipótesis para la construcción de una buena teoría
eran datos totalmente dispersos sin aparente conexión. Una cosa es afirmar que los objetos
físicos emiten o absorben energía del campo electromagnético (del medio circundante, para
ser más clásicos y precisos o exactos) en cantidades discretas y otra muy diferente llegar a
establecer mediante experimentos que esa energía ya está cuantizada en la radiación misma.
La radiación de un cuerpo negro en su conjunto es un fenómeno rigurosamente macroscópico
y la emisión de fotoelectrones por una superficie metálica lo es en el dominio microscópico.
Debe haber, no obstante, una conexión entre los dos fenómenos, precisamente a través de la
constante h que establece un puente entre ambas hipótesis, la de Planck y la de Einstein.
Encontrar una relación entre los electrones pertenecientes a un átomo, dicho en forma más
rigurosa, entre los electrones ligados al núcleo atómico, y los electrones libres, como aquellos
que al ser desprendidos del metal dan lugar a la corriente que se produce entre cátodo y
ánodo, es un reto mayúsculo. Bohr se refería a los primeros, cuando en un golpe de audacia
resolvió parcialmente el problema de las líneas espectrales del átomo de hidrógeno, mientras
que el esquema de de Broglie, aunque propuesto tentativamente para los primeros, se aplica
en rigor a los segundos. Bohr conecta certeramente la relación existente entre electrones y
fotones dentro del átomo; de Broglie establece el paralelismo en el comportamiento entre
electrones libres y fotones, granos de energía cuya existencia ya había sido claramente
demostrada por el experimento de Compton.
El misterio, aunque no se resuelve, se percibe en su plena dimensión cuando se concluye que
unos y otros, electrones y fotones, se comportan de la misma manera. ¡Esta es una conclusión
insólita! Atreverse a proponerlo, como lo hizo el doctorante de Broglie, es una osadía
descomunal. Pero como lo señalamos desde el comienzo del capítulo anterior, el futuro doctor
conde adivinó lo que sucede a nivel elemental. Ante las evidencias experimentales, como
veremos a lo largo de este capítulo, no queda otro camino que aceptar que todos los objetos
cuánticos, como les denominaremos genéricamente, se comportan de la misma manera.
Cuando se encuentran algunas características comunes entre los objetos bajo estudio, se
puede suponer que se va por buen camino. El paso más difícil es imaginar que pueden existir
esas características comunes entre objetos que suponíamos tan diversos. Los experimentos
que describiremos muestran fehacientemente que observaciones tan diversas caen bajo un
mismo manto teórico.
Transcurrió más de una década entre la formulación de la hipótesis de Bohr sobre los saltos
cuánticos y la propuesta sobre las ondas de materia (ondas piloto para los electrones)
formulada por de Broglie. La observación del comportamiento ondulatorio de los electrones no
se hizo esperar, pero el resultado lo fue más por accidente que por una planeación en la
búsqueda del mismo. Volvamos a los electrones ligados a los átomos. Si estos saltan de un
nivel a otro al recibir la energía adecuada, no importará de dónde provenga la energía; es
irrelevante si la suministra un fotón con la frecuencia apropiada o un electrón que ha sido
acelerado, impulsado sería más riguroso, hasta adquirir la energía de movimiento necesaria
para provocar un salto cuántico. Esto último, como veremos, fue el experimento que hicieron
Franck y Hertz en 1914, y a él nos referiremos en la primera sección de este capítulo. En la
segunda sección abordaremos la manifestación de un concepto que no tiene parangón en el
mundo clásico y en la tercera la manifestación ondulatoria del electrón, la única explicación
posible a los aparentemente absurdos resultados experimentales.
Si los electrones se comportan como ondas, deben manifestarlo así en las situaciones que son
más características del comportamiento ondulatorio; entre estas, el fenómeno de
interferencia es el más notable y el más sencillo de realizar con ondas mecánicas (véase el
apéndice I); en principio, es el experimento de la doble rendija o de interferencia mediada por
dos ranuras el más fácil de llevar al laboratorio en una cubeta de ondas. Desafortunadamente
no ocurre lo mismo con las ondas de electrones, las cuales se manifestarían a longitudes de
onda demasiado pequeñas. Por eso es fácil de entender que entre la realización del primer
experimento realizado con electrones en un cristal de níquel (típico experimento de difracción
de electrones) y el de las dos ranuras (también con electrones), al que hemos hecho varias
veces referencia, transcurrieron más de tres décadas; entre el experimento que probó los
niveles cuantizados en los átomos (1914) y el de la doble rendija (1961), transcurrió casi medio
siglo. En uno y otro, a su debido tiempo, los resultados no deberían causar mayor sorpresa, a
pesar de lo inesperados. Del primero, había evidencia de líneas discretas en los espectros de
los elementos desde hacía casi un siglo y se acababa de formular una posible explicación con
los postulados de Bohr. Del segundo, las imágenes obtenidas con haces de rayos X cuando se
pensó acertadamente que esos rayos eran de la misma naturaleza que las emisiones luminosas
de los átomos, no eran más que el preludio de una nueva física de la que se podría sacar
información hasta entonces oculta.
Las imágenes que se obtuvieron con haces de electrones enviados contra una superficie
cristalina comprobaban la aventurada hipótesis de de Broglie. No obstante, lo que ilustran uno
y otro experimento, con rayos X y con electrones, es la esencia de lo que describe el
formalismo cuántico. Se trata, en últimas, del principio de superposición, al que volveremos
reiteradamente, en particular en el próximo capítulo. Ese principio, la esencia de la nueva
física, fue verificado una y otra vez desde entonces. Por eso, cuando finalmente Jönsen realizó
en 1961 el experimento de un haz de electrones atravesando dos ranuras, experimento
equivalente al de Young con luz visible (1802), la publicación de su resultado pasó totalmente
desapercibida para la comunidad de habla inglesa (e hispana, por supuesto). No obstante,
Feynman tenía razón: el misterio cuántico está plenamente ilustrado con el experimento de
las 2 ranuras. Por eso le dedicaremos varias páginas, al final del capítulo. La conclusión, ya
conocida por el lector, no dejará de sorprenderlo.
Del otro experimento que discutiremos (el segundo), sus resultados pueden formularse
igualmente recurriendo a lo que se denomina combinación, mezcla o superposición de estados;
servirá de paso para ilustrar la naturalidad de la formulación matricial de la mecánica cuántica,
la otra formulación equivalente de la física cuántica, en muchos aspectos más conveniente que
la ondulatoria. Se trata del experimento de Stern y Gerlach, el cual llevó además al concepto
de momentum angular intrínseco, característica interna de toda partícula, al igual que su masa
en reposo, su carga y otros observables que le son propios. La formulación matricial fue
resultado del trabajo conjunto de Jordan, Born y Heisenberg (el trabajo de los tres hombres), al
que se unieron Pauli y Dirac. Sin entrar en detalles, el mérito principal del esfuerzo conjunto de
tantas mentes brillantes fue dar con la no conmutatividad de las llamadas variables
canónicamente conjugadas y explotar matemáticamente ese hecho.
3.1 Experimento de Franck y Hertz
El denominado experimento de Franck-Hertz fue el primer experimento con electrones que
demostró la naturaleza cuántica del átomo. Recuérdese que en 1913 se publicaron los dos
artículos de Niels Bohr que postulaban la cuantización de los niveles energéticos de los
electrones en los átomos (órbitas, en el lenguaje de Bohr, denominación que
desafortunadamente ha sobrevivido después de un siglo). James Franck y Gustav Hertz
realizaron al año siguiente, por primera vez, este sencillo experimento que les valdría el
premio Nobel en 1925. Su experimento consistió en hacer chocar con átomos electrones que
han sido acelerados mediante un campo eléctrico a lo largo de un tubo de vacío que contiene
gas de mercurio.
Como ilustra el montaje y la figura adjuntos (figura 3.1), al acelerar electrones en un tubo de
descarga en el que se varía el potencial acelerador, ocurre que para ciertos valores del voltaje,
la corriente en vez de aumentar disminuye. Estos valores corresponden a regiones en que los
electrones pierden energía cinética al chocar inelásticamente con los átomos de mercurio,
dejando por tanto de contribuir a la corriente. Ellos entregan la mayor parte de su energía a
los átomos, o más precisamente a los electrones más externos, que pueden pasar así a un nivel
excitado, para el caso el más bajo o primer nivel excitado. Este corresponden a 4.9 eV. Los
descensos también se dan en la región cercana a 9.8 y 14.7 eV, que son múltiplos del valor
anterior. En estos últimos casos, los electrones incidentes han servido para excitar 2 y 3
átomos, respectivamente, dejando de contribuir a la corriente. Si los electrones tienen una
velocidad inferior a 1.3x106 m/s, el choque es elástico y estaremos en la cumbre del ascenso
de corriente. Para ese valor preciso de velocidad, los electrones forman parte del promedio y
quedarán prácticamente en reposo antes de continuar su recorrido nuevamente, acelerados
por el potencial: no ha ocurrido nada especial. Si el promedio de los electrones lleva una
velocidad un poco mayor, habrán cedido casi toda su energía a electrones de los átomos que
se excitan.

Figura 3.1. Montaje para el experimento de Franck y Hertz y resultados obtenidos para gas de mercurio.

Del experimento, comentan Rice y Jortner en su opúsculo : Nuest a o p e sió del


mundo se transformó por los resultados de este experimentos; es sin lugar a dudas uno de los
fundamentos más importantes de la verificación experimental de la naturaleza cuántica de la
ate ia.
Para el presente ensayo, visto desde una perspectiva humanística, es importante rescatar el
papel que jugó Frank en el terreno político, no solo en oposición al régimen nazi sino también
al poder que adquirieron los militares con el Proyecto Manhattan. Al asunto volveremos más
adelante. (Ver Rice y Jortner, 2010.)
3.2 Experimentos de Stern y Gerlach
Muchas otras sorpresas nos tenían reservadas los electrones en su comportamiento no
clásico. Una de ellas, quizá la más espectacular, es la propiedad cuántica fundamental,
compartida con todo tipo de partículas, denominada espín. Aunque la imagen de ese
concepto surgió clásicamente, del giro de un trompo o un giroscopio alrededor de su eje
principal, la verdadera imagen solo provee una remota analogía con el efecto de ese giro
sobre sí mismo. En efecto, teniendo en cuenta el posible tamaño máximo del electrón, si ese
observable, como se le llama en Mecánica Cuántica, fuese giro interno, debería hacerse a
velocidades que superan en cientos de veces la velocidad de la luz, la máxima permitida, así
que no puede tener ese origen; es una cantidad de origen rigurosamente cuántico-relativista,
como demostraría Dirac posteriormente.
Haciendo caso omiso de ese asunto y aceptando el espín electrónico con su extrañeza
cuántica, para lo que sigue su característica más importante es que en presencia de un campo
magnético que lo detecta puede tomar únicamente dos valores, paralelo o antiparalelo al
campo.
Las primeras indicaciones provinieron de los desdoblamientos de ciertas líneas espectrales,
inicialmente en el hidrógeno, después en los metales alcalinos, los cuales, como se sabe,
tienen un electrón en la denominada capa externa, por tanto son parecidos al hidrógeno. La
explicación definitiva vendría mucho después, pero antes se hizo una observación
experimental que de paso ayudaría a la formulación de la denominada mecánica matricial.
El experimento al que nos estamos refiriendo fue diseñado y realizado por los físicos alemanes
Otto Stern y Walther Gerlach, en 1922, sin que pudieran explicar el resultado. Stern participó
después en los experimentos que exhibieron claramente por primera vez la difracción de
átomos y moléculas y fue galardonado con el premio Nobel en 1943.
La particularidad del espín es la de poderse alinear con la dirección de un campo magnético
externo, algo similar a lo que ocurre con las limaduras de hierro. Si se piensa en cada pequeña
limadura como si fuera un imán diminuto, al que se le asignan polos norte y sur, como es
usual, la analogía es más directa: espín hacia arriba es la orientación del momentum angular
intrínseco en la dirección del campo; espín hacia abajo lo es en dirección opuesta. Si se
compara esta situación con la orientación de las dos caras de una moneda, puede construirse
una imagen mental más sencilla: cara o sello (Colombia), águila o sol (México), cara o ceca
(Argentina), etcétera, dependiendo del país en que se realice el juego, son los resultados
posibles del lanzamiento de la moneda; aunque no conduce a valores positivos o negativos,
característicos de la orientación del momentum angular intrínseco con respecto a un eje que
indica la dirección del campo magnético externo, sólo hay dos resultados posibles. Por ende,
¡solo habrá un ganador!
Nótese que, a diferencia del experimento con la moneda en tierra, en el caso de la partícula
con espín el experimentador puede orientar el campo magnético externo a voluntad, lo que
no puede hacerse con el campo gravitacional de la Tierra si el experimento de la moneda se
hace en las condiciones usuales. Hay otra característica muy interesante en el caso de la
moneda que vale la pena resaltar: al tocar tierra, la moneda tendrá casi siempre una cierta
inclinación, es decir, es poco probable que lo haga con su superficie en dirección horizontal. La
superficie que toca, una vez termina su caída, la obliga a mostrar uno de los 2 resultados
posibles. En el caso del electrón, uno podría suponer que la dirección del espín formará
cualquier valor con respecto a la orientación del campo magnético. Pues bien, eso es cierto
mientras no se detecte la partícula.

Figura 3.2 Esquema del aparato utilizado por Stern y Gerlach en su experimento y del resultado. (Ojo: en
la figura de la izquierda se habla de campo homogéneo, pero el campo tiene que ser inhomogéneo,
como la misma figura lo sugiere.)

El experimento de Stern-Gerlach consistió en enviar un haz de partículas de plata a través de


un campo magnético inhomogéneo. La variación espacial de la componente del campo
magnético se denomina gradiente en la dirección escogida (rigurosamente componente del
gradiente en una cierta dirección, para el caso de la figura la vertical, pues esa cantidad es un
vector). El campo magnético se hace crecer en intensidad en la dirección perpendicular a la
que se envía el haz, y obliga a desviar partículas que tengan momento magnético. El gradiente
de la componente del campo fuerza a las partículas de espín positivo +½ħ a ser desviadas
hacia abajo y a las partículas de espín opuesto –½ħ a ser desviadas hacia arriba, en la dirección
contraria, pudiéndose así determinar el momento magnético de las partículas.
En el caso clásico, se espera que una partícula cualquiera entre en el campo magnético con su
momento magnético orientado al azar. El efecto del campo haría que fueran desviadas
dependiendo del grado de deflexión del ángulo inicial entre el momento magnético y el
campo magnético al que se somete el haz. Ese efecto se puede graduar mediante la variación
de la intensidad del campo en la dirección escogida. En consecuencia, algunas serían
desviadas fuertemente, otras de manera más débil y en principio se encontrarían cubriendo
todo el espectro de intensidades posibles.
El resultado del experimento revela que esto no es así y se observa que las partículas son
desviadas o bien hacia arriba o bien hacia abajo, con igual probabilidad, pero en ambos casos
con la misma componente de momentum angular (magnitud ½ħ siempre), proporcional éste al
momento magnético. Las partículas exhiben o bien espín (momentum angular intrínseco
solamente, dadas las condiciones del experimento) –½ ħ o +½ħ, en el sentido del gradiente del
campo, sin valores intermedios.
El experimento de los pequeños imanes se hizo con átomos de plata, asumiendo que tanto el
momentum angular nuclear, que no cuenta para el caso, como el de los 46 electrones internos,
los cuales se anulan exactamente debido al principio de exclusión al que volveremos después,
no hay que tenerlos en cuenta. Queda así un electrón periférico, responsable de los resultados
que se observan. El experimento se bosqueja en las figura 3.2; por supuesto que hoy en día
este experimento podría hacerse con electrones individuales. Los detalles del sistema físico se
dejan de lado, para concentrar la atención del lector solamente en los resultados. La
disposición de los imanes que hacen desviar los átomos o electrones hacia un lado o hacia el
otro (hacia arriba o hacia abajo), debido a la variación espacial del campo magnético que
producen, es tal que las probabilidades de orientación final en cualquiera de las dos
direcciones son iguales. Lo que sería de esperar clásicamente es que se tenga una distribución
continua de valores, digamos entre –½ o +½ (por simplicidad, se suele prescindir del factor
proveniente de la constante ħ). Sin embargo, en el experimento se detectan dos haces
finamente diferenciados de igual intensidad, con la misma desviación en magnitud pero en
sentido contrario.
El resultado del experimento es contundente: el momentum angular intrínseco del electrón en
el sentido del campo puede tomar solamente dos valores; se le asigna valor negativo cuando
coincide con la dirección del campo y positivo en dirección contraria.
Cuando se realizó el experimento, ya se había detectado que los valores de la componente z
de los momenta angulares orbitales de los átomos eran valores discretos, dados por mħ, en
consonancia con el postulado de Bohr, donde m es un entero positivo o negativo. Más tarde se
observó que a estos valores enteros había que agregar el valor semientero proveniente del
espín.
Dado que la orientación del espín puede tomar solo dos valores y ese es el caso más sencillo
que cabe concebir para los denominados valores propios de un observable (técnicamente se
dice valores propios de un cierto operador), describiremos lo que suele pasar cuando ese
observable se examina bajo diversas circunstancias, en una serie de experimentos.

El experimento de Stern y Gerlach muestra claramente cómo la medición u observación de


ciertas variables afecta los valores del observable y cómo en general los estados cuánticos hay
que describirlos por medio de números complejos. El experimento permitió formular el
principio de superposición, tema del próximo capítulo, uno de los principios más
fundamentales de la teoría cuántica, y puso de relieve las peculiaridades de esa nueva
cantidad, por ellos descubierta: el espín del electrón.
3.2.1 Secuencia de experimentos de Stern-Gerlach
El resultado de cualquier medida del momentum angular intrínseco del electrón, no importa
lo que hagamos, es como ya se dijo +½ o –½, en las unidades que se convino utilizar.
Recuérdese: lo que permite medir el aparato de Stern-Gerlach (SG) es la componente del
momentum angular de espín en la dirección de un campo magnético inhomogéneo producido
por unos imanes; se escoge que los imanes y el campo vayan en la dirección perpendicular a la
dirección de propagación del haz: para ello basta orientar el gradiente del campo que generan
los imanes en la dirección que se desee; ese gradiente o inhomogeneidad de la componente
del campo ocasiona, desde el punto de vista clásico, una fuerza deflectora. Marquemos el eje
de propagación del haz con la dirección y. La dirección de inhomogeneidad del campo coincide
con la orientación del campo de los imanes utilizados en el experimento, esquematizado en la
figura 3.2. Puede ser z o x, dependiendo de la dirección en que se oriente el SG. Escribiremos
(SG)z o (SG)x según el caso.
Precisemos la nomenclatura: denominemos por S el valor del momentum angular intrínseco
del electrón (es un vector) y Sz + o Sz- (Sx+ o Sx- respectivamente) los valores posibles que tome
su componente z (o x). (La componente Sy no puede observarse en este experimento.) Así,
podremos incluso hacer combinaciones y sobre todo mediciones sucesivas. Eso es lo que se
hará; empecemos. De acuerdo con los resultados del experimento que acabamos de describir,
tendremos los siguientes valores posibles: Sx+ = Sz+ = +½; Sx- = Sz- = –½.
En un primer experimento, supóngase que se selecciona uno de los dos haces en que se divide
el haz inicial, digamos el haz de electrones con el valor de espín en la dirección z+, es decir el
valor de espín de los electrones que conforman el haz seleccionado es ½ en dirección z
positiva. Si ese haz puro lo obligamos a pasar por un segundo SG orientado en la dirección z,
no debería ocurrir nada extraño: el valor que se determine será nuevamente +½. Ese es
ciertamente el resultado, esquematizado en la figura 3.3a.

a) Primera Secuencia

b) Segunda Secuencia

c) Tercera Secuencia
Figura 3.3. Secuencias de experimentos de Stern-Gerlach (SG). La imagen es esencialmente la misma
utilizada en el clásico texto de Sakurai.
¿Qué ocurrirá si en vez de orientar el segundo SG en dirección z+ lo orientamos en dirección
x+? El resultado es sencillo, pero sorprendente: el haz se separa en dos nuevos haces, iguales
en intensidad, con valores de espín +½ y –½, pero esta vez en dirección x, positiva y negativa;
en otras palabras, el haz original Sz+ se ha convertido en dos haces Sx+ y Sx-, con igual
intensidad. El esquema se muestra en la figura 3.3b. Si tomáramos un tercer SG orientado en
dirección x para medir el valor de espín de cualquiera de los dos haces resultantes,
comprobaríamos que los electrones de cada uno de los haces tienen el valor de espín que
esperamos: +½ y –½.
Hasta aquí el lector no tendrá mayor problema: supondrá que, así como hay una componente
de espín en dirección z, habrá una componente de espín en dirección x. Ya se ha dicho que el
valor va a ser +½ o –½ siempre, por lo que podrá concluir que ahora la descripción de los
haces resultantes es la siguiente: para el primero, los electrones tienen tanto una componente
Sz+ = +½ como una componente Sx+ = +½; para el segundo, Sz+ = +½ y Sx- = –½. Esta hipótesis,
plausible, puede comprobarse o negarse con un tercer experimento para el cual nuestro
tercer SG se orienta en dirección z. El resultado es negativo, como indica la figura 3.2c: en la
dirección z obtenemos otra vez dos haces de igual intensidad, uno con Sz+ y otro con Sz-, como
si al electrón se le hubiera olvidado la preparación que se le hizo de un estado puro Sz en el
primer SG antes de hacerlo pasar por el segundo SG. Efectivamente, ¡esta información se
borró!
Examinemos esto con mayor detalle. En física lo que estamos haciendo se denomina colimar
o seleccionar partículas preparadas de determinada manera, y consiste en la preparación de
haces o racimos de partículas que tengan todas ellas las mismas propiedades iniciales. Cuando
salen del horno, los electrones salen aleatoriamente, con las orientaciones de sus dipolos
magnéticos intrínsecos completamente al azar. El primer SG nos separa los electrones que
tienen espín Sz+ de los que tienen espín Sz-, o al menos eso creemos. El segundo SG nos
permite separar los electrones que tienen espín Sx+ de los que tienen espín Sx-; hasta ahora se
ha asumido que las medidas en z y en x son independientes. Si esta suposición es correcta,
cuando regresemos a observar la componente Sz la debemos encontrar en el valor anterior.
Pues bien, no es así, como revela la figura 3.2c. En el haz Sx+ que antes había sido seleccionado
con electrones que tenían Sz+ encontramos ahora electrones con las dos componentes
posibles en dirección z, como cuando salieron del horno.
El resultado del experimento anterior plantea algunos interrogantes. Una forma sencilla de
responderse a la mayor inquietud consiste en reconocer que la fuerza ejercida por el campo
magnético sobre el momento magnético (digamos más bien que la interacción entre el campo
magnético del SG y el momento de dipolo magnético del electrón) lo modifica a tal punto que
la preparación previa se echa a perder. En realidad, lo único que se puede afirmar es que en el
segundo experimento se han preparado las condiciones para observar componentes de espín
en la dirección x positiva o negativa. El resultado de la observación deja a las partículas
observadas en un estado de espín determinado, sea este Sx+ o Sx-. Eso significa, de paso, que
cuando queramos determinar la componente Sz el sistema ha olvidado por completo su
estado anterior. Estamos en presencia de dos observables no compatibles, para los cuales vale
el principio de indeterminación.
Para resumir y sacar conclusiones, examínese la siguiente situación en la que participa un solo
electrón, ilustrada en la figura 3.4. Hágase abstracción del movimiento del electrón y
considérese solamente el valor del espín. Supóngase que en un experimento previo se ha
determinado que éste apunta en dirección horizontal positiva, +½ (figura 3.4a). Cuando se le
mida su espín con un aparato que detecta la proyección del espín en dirección vertical, del
resultado del experimento anterior es claro que el resultado tiene que ser, con igual
probabilidad, +½ o –½ en dirección vertical, nunca cero, contrario a lo que cabría esperar
clásicamente. En otras palabras, después de analizar un gran número de situaciones con la
misma condición inicial (espín en dirección horizontal +½), el aparato de detección vertical de
espín ha registrado 50 % hacia arriba y 50 % hacia abajo. Ahora bien, nada impide orientar el
aparato un ángulo de por ejemplo 45º con respecto a la orientación inicial del espín. La
situación se ilustra en la figura 3.4b. Los cálculos cuánticos dirán, y los experimentos
confirmarán, que aproximadamente 85 % de las veces se obtendrá +½ y 15 % de las veces –½
en dirección vertical. Por último, supóngase que la orientación del aparato coincide con la del
espín, como ilustra la figura 3.4c. En este caso, se obtendrá con toda seguridad el valor +½.
Figura 3.4. Aparato Stern-Gerlach vertical fijo que examina electrones preparados inicialmente en
distintos estados de espín. a) Preparación inicial con espín horizontal. b) Preparación inicial con espín
oblicuo. c) Preparación inicial con espín vertical.

Como conclusión de los dos casos anteriormente examinados, puede afirmarse que: no es
posible, a partir de una sola medida, saber con precisión cuál era el estado previo del electrón;
qué resultado se obtendrá, es algo que solo puede predecirse con cierto grado de
probabilidad; hay solo un caso en que es posible predecir el valor exacto de la medición: si la
orientación del espín coincide con o es opuesta a la del aparato y en una medida mediante un
experimento previo se ha determinado que esa era la dirección del espín; por otra parte, si al
medir nos da todas las veces (100 %) una cierta dirección para el espín, concluimos que antes
de la medida ese era el estado de espín del electrón.
3.3.1 Experimentos de Davisson, Germer y otros
Interrogado de Broglie sobre la posibilidad de verificar en la práctica su hipótesis, apuntó en la
dirección correcta: cristales metálicos, en los cuales la distancia de separación entre los
átomos es del orden de los Å. Efectivamente, para voltajes de aceleración modestos, su
relación da longitudes de onda del electrón en esa región. Por ejemplo, para V = 10 eV, resulta
λ se ap o i ada e te de × -8 cm. No es de extrañar entonces que en Göttingen se
estuviera buscando con afán ese camino. Ya nos hemos referido ampliamente en el capítulo 2
a los experimentos de difracción de electrones, en particular a los de Davisson-Germer y los de
Thomson-Reid de 1927, pero quisiéramos ilustrar sus impactantes resultados con mayor
detalle. Realizadas las primeras verificaciones de la hipótesis con electrones, extenderlas a
otros sistemas más complejos sería cuestión de tiempo.

Figura 3.5. Difracción de electrones en el experimento de Davisson y Germer. a) Esquema de la


superficie cristalina: b) pico de difracción a 50o.

Figura 3.6. Variación de la intensidad de la señal del haz difractado a 10o en función de la raíz cuadrada
del voltaje acelerador en el experimento de Davisson y Germer.

En el reporte de su experimento, publicado en las memorias de la Academia Nacional de


Ciencias (PNAS), ponen particular atención al pico que observan en su cristal de níquel para un
potencial de 54 eV; la longitud de onda de de Broglie es de 1.67 Å y la distancia interatómica es
d = 2.15 Å, muy apropiada para observar un máximo principal en θ ≈ 50°; ellos midieron la
cantidad (normalizada) N(θ ) de electrones dispersados a distintos angulos θ, como indicativo
de la intensidad. Esta fue medida cuidadosamente también como función de la raíz cuadrada
del voltaje acelerador, a la que es proporcional la cantidad de movimiento.
3.3.2 Experimento de Thomson-Reid
Como ya se dijo, G. P. Thomson en Inglaterra (Universidad de Aberdeen) realizó con su
asistente Alexander Reid experimentos tendientes a verificar la hipótesis de de Broglie (1927),
utilizando láminas de oro y aluminio, obteniendo de manera independiente resultados
equivalentes a los de Davisson y Germer. Los resultados, publicados en Nature y reproducidos
en la figura 2.10a, tienen sobre estos últimos la ventaja de que muestra explícitamente los
patrones de difracción obtenidos sobre las láminas y los compara con los de rayos X de similar
longitud de onda (un orden de magnitud por debajo de la utilizada en el experimento de
Davisson-Germer).

Figura 3.7. Esquema del experimento de Thomson-Reid, mediante el cual se obtiene el patrón de
difracción , haciendo incidir electrones sobre una fina lámina de oro.

Las características ondulatorias del electrón, verificadas mediante técnicas diferentes y de


manera independiente por Davisson y Germer, en Estados Unidos y por Thomson y Reid, en
Inglaterra, no solo fueron la comprobación experimental de la hipótesis de ondas de materia
formulada por de Broglie, sino que establecieron claramente su comportamiento ambiguo, a la
vez corpuscular y ondulatorio, extendido después a todo sistema físico. Los resultados de esos
experimentos dieron origen a otros dos principios de la nueva física: el de la dualidad onda-
corpúsculo y el principio de complementariedad. Los resultados fueron confirmado por Stern
para haces moleculares y por otros investigadores para neutrones y otras partículas. En todos
los casos, la ecuación de de Broglie se verifica con alta precisión, con lo cual la mecánica
ondulatoria de Schrödinger, como siguiente paso, pudo finalmente abrirse camino.
3.3.3 Difracción de átomos: Experimento de Estermann, Stern y colaboradores
La demostración experimental de las propiedades ondulatorias de los átomos, fue llevada a
cabo por Stern y colaboradores en 1930, quienes evidenciaron el carácter ondulatorio de la
materia, en este caso átomos de helio, midiendo la difracción de un haz atómico de helio
cuando incidía sobre la superficie de un cristal del LiF (fluoruro de litio). El montaje
experimental y los resultados se bosquejan en la figura 3.8.
Figura 3.8. (a): Esquema experimental del experimento de difracción de átomos de helio usado por Stern
y colaboradores. (b): Resultados mostrando la intensidad del haz en función del ángulo. Nótese el pico
central reflejado a cero grados y los dos picos satélites difractados a ± 11,5º.

Cabe anotar aquí que el mismo tipo de experimento se ha hecho recientemente con fullerenos
(buckyballs), con resultados equiparables más modernos.
Sin lugar a dudas, el experimento más relevante sobre el comportamiento cuántico de la
materia, el que nos lleva al meollo del asunto, el comportamiento dual de la materia y la
energía, es el experimento de la doble ranura que discutiremos en el siguiente capítulo. No
obstante, su versión original envuelve el equivalente a múltiples ranuras, más explícitamente
el dispositivo óptico conocido con el nombre de rejilla de difracción. Rejilla de difracción fue el
nombre que se le dio a ese sencillo y versátil dispositivo que permite observar el
comportamiento de la luz procedente de diversas fuentes o múltiples ranuras. La rejilla de
difracción original es un vidrio transparente sobre el cual por algún mecanismo que puede ser
químico o fisicoquímico se hacen diminutas hendiduras o muescas en un número que suele ser
de varios miles por cm. Este dispositivo es el que generalmente se utiliza para obtener los
espectros de emisión y de absorción descritos en el primer capítulo (Figura 1.9). Los enrejados
cristalinos que forman los átomos son rejillas de difracción naturales adecuados para las
longitudes de onda de electrones con velocidades térmicas y de fotones en la región de los
rayos X. El fenómeno básico es el de interferencia a través de dos ranuras, discutido en el
apéndice I. A continuación discutiremos el experimento de las dos ranuras con electrones y
fotones, de posible realización con electrones y fotones individuales hoy en día.
4. De vuelta al gran misterio
«El eterno misterio del mundo es su comprehensibilidad», decía Einstein en Física y realidad
(1936). La frase fue utilizada como entrada en la contraportada del libro que ofrecemos al
lector, terminando el párrafo con esta otra afirmación tomada de Einstein e Infeld (1938): «El
gran misterio permanece aún sin explicación». Pero a diferencia de estos, quienes la aplican a
una situación más general, nosotros nos referimos al misterio cuántico, el único misterio, de
acuerdo con lo que nos dice Feynman en Comportamiento cuántico. (Capítulo 37 en el tomo I y
Capítulo 1 en el III.) La primera sección del libro Evolución de la física, el cual inspiró varias de
este, se titula EL GRAN MISTERIO (sic en la versión en español; THE GREAT MYSTERY STORY en
inglés), y sus autores comparan allí la física con una novela de misterio. John Gribbin publicó
recientemente un breve ensayo cuyo título, The quantum mystery (2015), dimensiona y
precisa la frase que escogimos, citando a Einstein, para diferenciar este capítulo de los demás.
El ensayo de Gribbin, hasta donde tenemos información, no ha sido traducido y se encuentra
solamente en kindle. Algo más sobre el misterio cuántico puede verse en su página:
http://www.lifesci.sussex.ac.uk/home/John_Gribbin/quantum.htm
Feynman dice explícitamente en Comportamiento cuántico, refiriéndose al experimento de las
2 ranuras: ese es el único misterio. Y si abrigábamos la esperanza de que algún día lo
entenderíamos, los resultados recientes, ilustrados con versiones cada vez más novedosas,
utilizando la tecnología más sofisticada de que disponemos hoy, la nanotecnología y fotones
entrelazados, nos dicen que vamos ahora en dirección contraria: el experimento de la elección
retardada, propuesta de Wheeler, ya es un hecho. El único misterio no tendrá explicación
alguna, al menos dentro del esquema de pensamiento y de lógica que hemos ensayado por
milenios.
En su fundamentación conceptual, para efectos de su descripción cuántica, los dos
experimentos, el de las dos ranuras con electrones o fotones (para la luz, el experimento de
Young, que resulta ser también un experimento con partículas) y el de los dos estados de espín
(experimento de Stern-Gerlach para electrones) son equivalentes. En general, cualquier
sistema físico que pueda estar en dos estados diferentes, sirve para ilustrar de manera sencilla
el efecto conocido con el nombre de superposición. El fenómeno de polarización de la luz es
quizá al que más se recurre para ilustrarlo, salvo que al hacerlo hay que enfatizar que es
también un experimento con partículas cuánticas. El Principio de Superposición es uno de los
principios fundamentales de la física cuántica. Esa será la conclusión del presente capítulo. Por
eso, a cambio de gran misterio, misterio cuántico o único misterio, éste bien podría titularse
Principio de superposición, como hizo Dirac con el primer capítulo de su famoso libro
introductorio, al cual también volveremos a su debido tiempo. Echemos primero una rápida
ojeada a la historia de la óptica.
4.1 De Arquímedes a Higgs y de Newton a Einstein, largas historias de luz
En el año 2002 Robert Crease, historiador de la ciencia, hizo una encuesta entre los lectores
de la revista Physics World indagando cuáles eran, en su opinión, los experimentos más bellos
de la ciencia. Del título de la revista se infiere que se estaba haciendo referencia a
experimentos en física. Entre los más sobresalientes estuvo el de interferencia de la luz,
denominado como casi todos ellos por el nombre de su realizador, Young. Arquímedes de
Siracusa hubiera podido quedar en la lista entre los 10 mejor clasificados, con uno o más de
los ingeniosos experimentos que llevó a cabo y de los prácticos dispositivos que diseñó con
base en sus descubrimientos. El famoso descubrimiento del empuje hidrostático ocupó el
undécimo lugar. Algunos podrían llamarlo el hallazgo en la bañera o eureka, o la corona del
rey Hierón, pero invariablemente se asocia con el sabio siracusano. Por la genial forma en que
vislumbró el resultado, hubiera podido compararse, guardadas proporciones, con el que llevó
al descubrimiento del bosón de Higgs. Hay un baño de bosones, el campo de Higgs, que da
lugar a la masa de las partículas, así como hay un baño de agua o de aire que ocasiona el
empuje
En torno a Arquímedes se han tejido historias que resultaron ser falsas. Pero la mayor parte
de los aportes que se le atribuyen han resistido las pruebas de la historia. Por el tema que
estamos tratando, nos interesa más destacar el reconocimiento a su conocimiento y manejo
de las leyes de la óptica. Dice la leyenda que, con unos espejos parabólicos, Arquímedes
derrotó la flota de Marcelo, terciando el resultado de la batalla a favor del Tirano de Siracusa.
Todo parece indicar que este es uno de los grandes mitos o leyendas de la historia de la
ciencia, aunque hoy en día los rayos láser, en realidad un manojo de fotones coherentes,
pueden diseñarse para fundir rápidamente enormes moles de acero, cortar las más duras
láminas metálicas, hacer microcirugías, medir con precisión enormes distancias, como la de la
tierra-luna, y otras proezas. Al láser regresaremos más adelante. Su principio fundamental, la
razón de ser de su funcionamiento, fue previsto teóricamente por Einstein en 1916. Su diseño
y construcción en su primera versión (el máser) tuvo que esperar cerca de medio siglo.
En los libros de texto, a Isaac Newton se le conoce por la mecánica. Puede afirmarse, sin
temor a errar, que Newton no realizó experimento alguno que fuera de trascendencia para el
desarrollo de sus Principia. No obstante afirmó: Hypothesis non fingo. Recurrió a menudo a
experimentos pensados, como lo hiciera Einstein 250 años después. Debe aclararse que en su
adolescencia sí utilizó prácticas experimentales sugeridas por otros, con gran éxito.
Con tan solo 23 años y un retiro forzoso debido a la peste, en poco más de año y medio aportó
a la ciencia prácticamente todo lo que le haría famoso, entre otros el cálculo de fluxiones, la
ley de gravitación, la dinámica y algunos principios sobre la luz. Aunque su Óptica no fue la que
le llevó a la gran fama que ostenta su nombre, fue en ella en la que realizó sus más
escrupulosos experimentos en física. Luego siguió un extraño periodo dedicado a la alquimia.
Su convicción de que la luz estaba compuesta de corpúsculos muy livianos y rápidos la
defendió con ahínco hasta su muerte. En gran medida, Einstein le daría la razón, aunque desde
otro punto de vista que, de paso, llevaría a la revisión de los conceptos de la mecánica
pregonados por aquel.
4.2 El experimento más bello de la física
Volviendo a los resultados de la encuesta de Physics World en 2002, de la lista se escogieron
los diez experimentos que fueron citados por los lectores con mayor frecuencia; la lista se
publicó primero en la revista (1º de septiembre de 2002), luego (24 de septiembre de 2002)
en The New York Times, posteriormente en otras revistas y ha dado lugar a algunos libros.
Entre esos 10 experimentos destaca, sin lugar a dudas, uno que fue apenas pensado
(gedanken) durante mucho tiempo: I terfere ia de ele tro es al pasar por u a re dija
do le. A diferencia de casi todos los experimentos famosos, citados por el nombre de su
autor, físico o intelectual, el que ocupó el primer lugar no tiene nombre propio. Fue
materializado por primera vez por Claus Jönsson en Tübingen en 1961, 34 años después de
que hubiera sido realizado uno que arroja resultados equivalentes, a saber el experimento de
difracción de electrones, descrito someramente en el capítulo precedente, realizado por dos
grupos independientes, dirigidos respectivamente, por Clinton Davisson en Estados Unidos y
por George P. Thomson, hijo de J. J. Thomson, en Inglaterra. Los dos compartieron el premio
Nobel en 1937. El experimento de Jönsson pasó desapercibido para los lectores de habla
inglesa (y por supuesto hispana) hasta 1974, cuando fue publicado en inglés por el American
Journal of Physics, una revista de carácter didáctico. La versión original lo fue en alemán. No es
pues nada extraño que Feynman, en su conferencia citada (1961), precisamente en el año en
que se realizó por primera vez el experimento, afirme que no se ha hecho y que es de muy
difícil realización. No así el de difracción, equivalente a un número muy grande de ranuras,
fácilmente realizable con un cristal de cuarzo. El de difracción de electrones es en el fondo tan
fácil de realizar, que sin percatarse de ello ya lo habían realizado Davisson y Kunsman en 1923.
Aunque más difícil de materializar, el de 2 ranuras es de una enorme sencillez conceptual, a
más de ser en extremo ilustrativo. Sin lugar a dudas, del experimento se concluye que los
ele t o es puede o po ta se o o pa tí ulas… o o o o das, depe die do de ó o,
cuándo y dónde se observen o detecten.
El experimento de Young es un experimento de doble ranura, pero hecho con luz; fue llevado a
la práctica 150 años antes que el de Jönsson (1801), aunque los resultados solo fueron
publicados unos años más tarde (1807). El experimento claramente demuestra que la luz es
una onda. Al final del capítulo relataremos algunos detalles de un experimento similar, más
sofisticado, en el que se muestra el carácter dual de la luz, como onda y como corpúsculo,
igual que el electrón, y volveremos al del electrón y otras partículas, logrados gracias a los
últimos avances tecnológicos. En todos los casos, se trata de partículas que interfieren consigo
mismas y que conocen de antemano cómo deben comportarse, adivinando las intenciones del
experimentador.
Al lector que ha seguido previamente la discusión sobre el efecto fotoeléctrico en los capítulos
anteriores, no le cabe la menor duda que la luz está compuesta de corpúsculos. Los
experimentos de Millikan (1916) y de Compton (1923) fueron más contundentes. Vale la pena
subrayar, para efectos históricos, que en 1909 Geoffrey Ingram Taylor realizó un experimento
minucioso con el que comprobó que la luz más tenue (de la que se desprenden con seguridad
fotones uno a uno), bajo condiciones apropiadas, produce el fenómeno de interferencia. El
resultado de ese experimento, conocido por Dirac, le lle ó a e la a ue ada fotó
i te fie e sola e te o sigo is o . El de Ta lo es, pues, el p i e e pe i e to he ho o
fotones individuales. Hoy en día la manipulación de fotones individuales y el entrelazamiento
de fotones es un hecho cotidiano. Se ha logrado así lo que se denomina el borrado cuántico, al
cual dedicaremos una sección.
El experimento con ele t o es i di iduales ue i te fie e sola e te o sigo is o , pa a
utilizar el lenguaje de Dirac, tuvo que esperar hasta comienzos de los 70, cuando un grupo
italiano en Bolonia produjo biprismas para la interferometría de electrones; una forma más
sofisticada para el mismo experimento la lograron en los Laboratorios Hitachi en 1989. Estos
resultados sirvieron de referencia a Physics Word para su edición del 1º de septiembre de
2002, sin que se dieran los créditos adecuados al grupo de Bolonia. El editor de Physics World
publicó de nuevo el artículo sobre el experimento seleccionado, con las aclaraciones
pertinentes.
Grupo de Bolonia que realizó el primer experimento de doble rendija con electrones individuales.

Un detallado inventario sobre la historia del más bello experimento, incluyendo el borrado
cuántico y la escogencia retardada propuesta por Wheeler en los 70 puede verse en:
https://en.wikipedia.org/wiki/Double-slit_experiment#cite_note-Hillmer2007-41
4.2.1 La descripción de Feynman
Aunque la descripción del experimento pensado, hecho realidad justo cuando Feynman decía
que no podría realizarse, ha sido espectacularmente materializada, primero por Jönsen y
luego por el Grupo de Bolonia, el texto de Feynman sigue siendo exquisitamente agradable y
didácticamente extraordinario. La seguiremos en la primera parte del capítulo.
Nos di e Fe a : La «mecánica cuántica» es la descripción del comportamiento de la
materia en todos sus detalles y, en particular, de lo que sucede a escala atómica. Las cosas a
una escala muy pequeña no se comportan como nada de lo que ustedes tengan experiencia
directa. No se comportan como ondas, no se comportan como partículas, no se comportan
como nubes, o como bolas de billar, o como pesos colgados de muelles, o como nada que
ustedes hayan visto algu a ez . Después de examinar lo que se pensaba sobre la luz,
partículas en el siglo XVII, ondas durante los siglos XVIII y XIX, nuevamente partículas desde
1905; de recordarnos que el electrón, partícula descubierta por Thomson padre, con
propiedades ondulatorias en ocasiones, como lo comprobó, entre otros, Thomson hijo,
ag ega: Ha , o o sta te, u a feliz i u sta ia: los electrones se comportan exactamente
igual que la luz. (Subrayado por el autor.) El comportamiento cuántico de los objetos atómicos
(electrones, protones, neutrones, fotones y demás) es el mismo para todos; todos son
«partículas-ondas», o como quiera que ustedes prefieran llamarlos. (A mis estudiantes les
suelo decir: partondas u ondículas, como lo prefieran. JG.) Así que lo que aprendamos sobre
las propiedades de los electrones (que utilizaremos como ejemplo) se aplicará también a
todas las «partículas», inclu e do los foto es e la luz .
Los experimentos que propone a continuación establecen claramente la diferencia entre el
comportamiento de corpúsculos y de ondas en la fenomenología clásica. Veámoslo, en forma
resumida, ligeramente modificada.
He os es ogido e a i a u fe ó e o ue es i posi le, a soluta e te i posi le, de
explicar en términos clásicos y tiene en sí el corazón de la física cuántica. En realidad, contiene
el ú i o iste io. Para mayores detalles, se aconseja ir a la fuente original. Véase también un
reciente texto que contiene una descripción ampliada del famoso experimento (Gao, 2013).
1. Un experimento con balines o municiones

Figura 4.1. Reproducción del experimento con balas propuesto por Feynman.

Figura 4.2. Esquematización del experimento con balas propuesto por Feynman.

Para facilitar el relato de este experimento pensado, es preferible hacer referencia a los
perdigones que utilizaban las escopetas de cacería antiguas, más bien que a las balas de una
ametralladora. La dispersión de esas municiones, balines de plomo de forma esférica, era
enorme. Imaginemos, pues, una lluvia continua de balines, supuestamente indestructibles
para poder comparar posteriormente con la lluvia de electrones que salen de un metal al
calentarlo. Al frente, como muestra la figura 4.1, hay una pared o pantalla de contención.
Conviene imaginar que el cañón de la escopeta no está firme y los proyectiles salen en
cualquier dirección hacia adelante. En frente hay un par de agujeros, los únicos espacios por
donde pueden atravesar las balas. La forma de los agujeros, por extraño que parezca, no
importa mucho, pero sí su tamaño. Esto es particularmente cierto en el caso del cañón de
electrones del que hablaremos más tarde (figura 4.3). En la primera parte del experimento con
balas se cubre el agujero inferior; la distribución estadística de las municiones es más o menos
como la que se muestra en la parte media superior de la figura 4; si, por el contrario, se
impide el paso por el agujero superior y se deja abierto el inferior, lo que se observa es la
distribución de la parte inferior, reflejo especular fiel de la anterior.
Vamos a repetir el experimento con los dos agujeros abiertos. El resultado depende de la
separación entre los agujeros. Supongamos que esta separación es pequeña, suficiente como
para que los dos máximos de cada agujero por separado se puedan superponer dando lugar a
un máximo en el centro; si la separación fuera muy grande, los dos máximos al superponerse
darían lugar a dos máximos separados. Cito a Feynman, para las condiciones consideradas en
su o fe e ia: Las probabilidades simplemente se suman. El efecto cuando ambos agujeros
están abiertos es la suma de los efectos con cada agujero abierto por separado. Llamaremos a
este resultado una observación de «ausencia de interferencia», por una razón que verán más
adelante. Hasta aquí lo relativo a las balas. Ellas llegan en porciones, y su probabilidad de
llegada o uest a i te fe e ia . La figura 4.5 muestra más claramente lo que ocurre con
baliness o perdigones.
2. Un experimento con ondas

Figura 4.3. Esquema del experimento con ondas en un cubilete de agua. (Reproducción del texto
citado.)

Imaginar u observar lo que ocurre con ondas es muy simple, si se recurre como ejemplo a
ondas en un cubilete de agua. El recipiente puede ser, para efectos prácticos, un molde de
base rectangular con profundidad suavizada en los bordes, para evitar reflexiones indeseables.
Figura 4.4. Ondas de agua de forma circular, producidas en fase.

Como «fuente de ondas» puede usarse una barra plana que se hace oscilar en forma armónica
verticalmente por medio de un motor, produciendo ondas planas; o para comparar más
fácilmente con el experimento de las balas, una punta que produce ondas circulares a cierta
f e ue ia. A la de e ha de la fue te te e os de ue o u o stá ulo o dos aguje os , ás
bien ranuras verticales. Cada ranura actúa como una fuente de ondas de agua circulares. Una
forma más limpia de realizar el experimento es utilizar dos fuentes de ondas circulares,
producidas por ejemplo por unas puntas vibrantes accionadas por un motor de tal manera
que vibren en fase (figuras 4.3 y 4.4).
Esta vez, más que la distribución de probabilidad, nos interesa la intensidad de la onda;
veremos que están relacionadas; la intensidad de una onda es proporcional al cuadrado de la
amplitud, o perturbación máxima, para el caso la altura de la columna de agua a partir del
nivel de referencia o superficie horizontal.
Sin entrar en detalles, en todos los casos el resultado es como el que se muestra en la figura
3.7, si el ancho de la ranura es comparable a la longitud de onda de la onda generada, De
nuevo, si una de los ranuras se obstruye, la intensidad de la onda resultante se va
desvaneciendo hacia los lados. Pero si las dos ranuras permiten el paso de las ondas
simultáneamente, se presenta un fenómeno característico de las ondas: ¡habrá interferencias,
constructivas y destructivas!
Se ha supuesto que la distancia entre las ranuras, o entre las fuentes primarias si se utilizan
dos fuentes puntuales, es comparable a la longitud de onda. La intensidad resultante se puede
escribir como
I12 = I1 + I2 + 2 (I1I2)1/2 cos δ.
El último término se suele llamar término de interferencia, y δ es la diferencia de fase con que
llegan las dos señales desde los dos agujeros, dependiente de la diferencia en recorrido: en el
centro, la diferencia es nula, de ahí el máximo de interferencia que se observa. Observe que
Cos δ toma todos los valores posibles entre -1 y +1, como corresponde a las funciones seno y
coseno.
El comportamiento de la luz no estuvo claro hasta cuando Thomas Young demostró con su
célebre experimento en 1801 (otro experimento con 2 ranuras, incluido en la lista de los 10 ya
mencionada) que se producía interferencia. Desde los griegos predominó la imagen
corpuscular, imagen que la autoridad de Newton logró imponer durante el siglo XVIII. La
escuela francesa no se plegó del todo a las explicaciones de Newton y su imagen corpuscular.
Esta imagen habría de resurgir, pero en forma completamente diferente.
3. Un experimento con electrones

Figura 4.5. Experimento con electrones (reproducción del texto de Feynman).

Figura 4.6. Ilustración de lo que ocurriría con los electrones al detectarlos en la pared,
si no se sabe por cuál de los agujeros atraviesa cada uno de ellos.

Tomemos otra vez textualmente a Fe a : I agi e os aho a u e pe i e to si ila o


electrones. Se muestra esquemáticamente en la figura 4.5. Tenemos un cañón de electrones
que consiste en un filamento de tungsteno calentado mediante una corriente eléctrica,
rodeado por una caja metálica con un agujero. Si el filamento está a un voltaje negativo con
respecto a la caja, los electrones emitidos por el filamento serán acelerados hacia las paredes
y algunos pasarán a través del agujero. Todos los electrones que salgan del cañón tendrán
(aproximadamente) la misma energía. Frente al cañón hay de nuevo una pared (simplemente
una placa metálica delgada) con dos agujeros. Detrás de la pared hay otra placa que servirá de
«pantalla». Delante de la pantalla colocamos un detector móvil. El detector podría ser un
contador geiger o, quizá mejor, un multiplicador electrónico, que está conectado a un
alta oz.
Di e Fe a : C ee os e te de lo ue pasa o las o das: el f e te de o das se di ide, de
tal manera que una parte atraviesa la ranura 1 y otra atraviesa la ranura 2. ¿Estará pasando lo
mismo con los electrones? La respuesta es ¡no! Los electrones atraviesan enteros, no se
dividen en una parte que va por la ranura 1 y otra que va por la ranura 2. Lo único que se está
haciendo, desde el punto de vista de la observación de los electrones, es detectar los
electro es ua do llega a la pa ed. No he os seguido sus t a e to ias. I te te os ha e lo .
(La discreticidad en el experimento de las 2 ranuras.)
4. Observando las partículas
Feynman describe un experimento pensado, mediante el cual podemos observar el paso de
los electrones. Puede pensarse que para el caso de los electrones la propuesta de Feynman es
difícil de realizar, aunque se pueden hacer modificaciones que materialicen dicho experimento
mediante transistores de un solo electrón, como los que se describen en el capítulo séptimo de
Nanotecnociencia (Giraldo et al., 2007.) Podríamos recurrir, para simplificar las cosas, a un
experimento con átomos: haciendo pasar átomos en vez de electrones, el resultado es
esencialmente el mismo: ¡hay interferencia cuando no se observa el paso de ellos! Con
fotones, el experimento es sencillo de hacer, como se mencionará al final de la sección.
¿Qué ocurre cuando se espía el paso de electrones o de átomos o de fotones a través de las
ranuras, de tal manera que podemos decir por dónde pasa cada uno de ellos? Para los
electrones, dice Feynman, el espionaje se puede hacer colocando una fuente de luz,
imagínensela muy tenue, entre la placa que contiene los agujeros por donde cruzan y la placa
o pared donde se detectan. Los átomos, con mayor facilidad que los electrones, dispersan la
luz de la fuente luminosa, permitiendo determinar por dónde pasó cada uno de ellos. ¡El
misterio desaparece! Los electrones o los átomos se comportan ahora como los proyectiles
del primer experimento: en otras palabras, mediante la observación ¡se ha destruido el patrón
de interferencia! El resultado se muestra en la figura 4.7.

Figura 4.7. Observando (espiando) el paso de los electrones. (Reproducción del texto citado.)

Los electrones (también los átomos) son muy sensibles y alteran sus trayectorias cuando se
observan, lo que no ocurre con las balas. ¿Qué ocurre si se disminuye la intensidad de nuestra
fuente de luz todavía más, gradualmente? Puede suceder que algunos de los electrones o
átomos no sean observados al cruzar: nos hemos quedado sin saber por dónde pasaron,
solamente supimos, por el detector en la pantalla, que llegaron a ésta. Para las partículas que
no pudieron ser observadas, el resultado es el mismo que para el de la figura 8: exhiben un
patrón de interferencia, como las ondas.
Los argumentos de Feynman nos llevan a descartar teorías extrañas sobre el comportamiento
de los electrones cuando los observamos. No hay electrones que se dividan; tampoco los hay
que puedan pasar a través de am os aguje os. Cua do los o se a os, los ele t o es
atraviesan (los agujeros) simplemente como esperaríamos que los atravesasen. Ya estén los
agujeros abiertos o cerrados, aquellos electrones que vemos pasar a través del agujero 1 se
distribuyen de la misma forma independientemente de que el agujero 2 esté abierto o
cerrado. La o se a ió ha a iado el o po ta ie to de los ele t o es.
¿No hay alguna forma de que podamos ver los electrones sin perturbarlos? Aprendimos en
un capítulo anterior que el momento transportado por un «fotón» es inversamente
proporcional a su longitud de onda (p = h/). Ciertamente el empujón dado al electrón cuando
el fotón es dispersado hacia nuestros ojos depende del momento que transporta el fotón.
¡Ajá! Si sólo queríamos perturbar ligeramente a los electrones no deberíamos haber
disminuido la intensidad de la luz, sino que deberíamos haber disminuido su frecuencia (que
es lo mismo que incrementar su longitud de onda). Utilicemos luz de un color más rojo.
Podríamos entonces utilizar luz infrarroja, o radio ondas (como el radar), y «ver» dónde fue el
electrón con ayuda de algún equipo que pueda «ver» luz de estas longitudes de onda más
largas. Si utilizamos luz «más suave» quizá podamos evitar el perturbar tanto a los electrones.
Intentemos el experimento con ondas más largas. Seguiremos repitiendo nuestro
experimento cada vez con luz de una mayor longitud de onda. Al principio, parece que nada
cambia. Los resultados son los mismos. Luego sucede algo terrible. Recordarán ustedes que
cuando discutimos el microscopio señalamos que, debido a la naturaleza ondulatoria de la luz,
hay una limitación a lo próximos que dos puntos pueden estar y seguir viéndose como dos
puntos separados. Esta distancia es del orden de la longitud de onda de la luz. Por ello, ahora,
al hacer la longitud de onda más larga que la distancia entre nuestros agujeros, vemos un gran
destello borroso cuando la luz es dispersada por los electrones. ¡Ya no podemos decir por qué
agujero pasó el electrón! ¡Simplemente sabemos que fue a alguna parte! Y es solamente con
luz de este color cuando encontramos que los empujones dados a los electrones son
suficientemente pequeños para que P'12 empiece a parecerse a P12, que empezamos a
obtener algún efecto de interferencia. Y es sólo con longitudes de onda mucho más largas que
la separación de los dos agujeros (cuando no tenemos ninguna posibilidad de decir dónde fue
el electrón) cuando la perturbación debida a la luz se hace suficientemente pequeña para que
obtengamos de nuevo la curva P12 mostrada en la figura 4.5.
4.2.2 Experimento real: el más bello de la física
Para la fecha en que Feynman elaboró su conferencia, este experimento ya había sido
realizado por Jönsson, aunque en los países de habla inglesa seguía siendo un experimento
pensado; lo más interesante es que, a pesar ello, nadie tenía duda alguna sobre el resultado.
Pero el experimento de Jönsson tiene una limitante: no se puede controlar el haz de
electrones ni hacerlo suficientemente débil para que llegue solo un electrón cada vez.
El é ito o espo dió al g upo de Bolo ia di igido po Pozzi. …
Un experimento como éste, con las adecuaciones apropiadas, se ha realizado múltiples veces
desde entonces, y tal vez el más nítido durante el siglo pasado fue el de los laboratorios
Hitachi (puede verse en http://www.hqrd.hitachi.co.jp/em/doubleslit-f1.cfm). El resultado es
siempre el mismo: los electrones, cuando pasan simultáneamente por los dos agujeros,
¡muestran señales inequívocas de interferencia! Recientemente se ha hecho, no ya acudiendo
al biprisma como en los casos anteriores, sino con agujeros nanométricos.

Figura 4.8. Resultados del experimento de Jönsson.


Innecesario (¿?) decir que cuando los electrones pasan solamente por un agujero se
comportan como los proyectiles del primer experimento, con una salvedad que en el siguiente
párrafo mencionaremos. La distribución de probabilidades para uno u otro agujero es la
misma y sigue la distribución de corpúsculos «normales». Pero cuando pasan
simultáneamente por los dos, sin que sepamos por cuál de los agujeros pasó cada electrón, la
distribución de probabilidades no es la suma de probabilidades: P12 ≠ P1 + P2. En algunos
puntos el resultado es prácticamente cero; en otros puntos el resultado es mayor que la suma
de los dos por separado, algo en verdad sorprendente. Efectivamente, ¡hay un término de
interferencia! En lenguaje matemático, todo el misterio desaparece cuando se recurre al
término de interferencia de la expresión de intensidades para ondas.
4.3 Un experimento con fotones
Nos hemos referido al experimento con ondas de luz, pero desde el capítulo anterior hemos
señalado que la luz, según Einstein, es un conjunto de partículas denominadas fotones. No solo
eso: hoy existe la manera de lograr que la intensidad sea tan pequeña, como para que los
foto es e u haz a a u o a u o , pudie do dete ta los de esa a e a.
La serie de figuras adjuntas ilustra una situación hipotética posible hoy, cuando se controla la
intensidad de la luz «fotón a fotón». Se envían los fotones uno a uno a través de una pared con
2 ranuras. Los fotones que pasan (otros han sido absorbidos por la pared o han rebotado),
llegan a una pantalla en la cual son detectados. Tampoco sabemos por cuál de las ranuras
pasará. Imaginamos ingenuamente que por alguna de las 2. Al comienzo la distribución de
fotones parece normal. Pero cuando ha pasado un número grande de ellos, se observa el típico
patrón de interferencia de ondas. Como los fotones se han enviado individualmente, es
imposible que haya ocurrido el patrón clásico de interferencia, propio de las ondas, incluidas
las ondas de luz clásicas que predice la teoría electromagnética. Si efectivamente los fotones
pasaran aleatoriamente por cualquiera de las dos ranuras, pero solo por una, el patrón
resultante debería ser similar al de proyectiles, por pequeños que fuesen.

Figura 4.9. Un experimento pensado, con fotones individuales. Se concluye que cada fotón ha pasado
por las 2 ranuras simultáneamente, interfiriendo consigo mismo.

Ilustramos ahora un experimento real hecho con fotones, cuando se puede controlar la
intensidad del láser a voluntad hasta el punto de enviar un fotón cada vez.

Figura 4.10. Un experimento real, con fotones individuales ue o ha sido espiados e su t a e to ia.
Con las técnicas que hoy tenemos, es posible examinar por dónde pasa cada fotón, o cada
electrón en el caso precedente. Al hacerlo, el patrón de interferencia desaparece.
Examinemos la situación en un caso más sencillo.

Figura 4.11. Simulación por computador de un experimento realizado con fotones individuales. Aunque
por las condiciones del experimento es imposible que esos fotones hayan interferido entre ellos, se
siguen produciendo franjas de interferencia. La única explicación posible es que un fotón puede pasar
de manera simultánea a través de ambas franjas e interferir consigo mismo. (Reproducido de Walborn
et al., 2004.)

Si espiamos el paso de los fotones o de los electrones, de alguna manera, incluso sin
perturbarlos, como se ilustra en la siguiente sección, el resultado es como el de proyectiles
clásicos. La conclusión es que cada fotón ha interferido consigo mismo.
4.4 Borrado cuántico
Pero no solo la observación directa cambia el comportamiento. Basta con tener la posibilidad
de decidir por dónde pasaron los electrones, o los átomos, o los fotones, aunque no les
sigamos la pista, para que cambie el comportamiento. En efecto, es importante aclarar algo
que no tuvo en cuenta Feynman pero que ha sido resultado de recientes avances en la
formulación del principio de incertidumbre de Heisenberg. Nos referimos a las denominadas
medidas libres de interacción. La más sencilla da lugar a lo que se llama borrador cuántico. El
experimento se ilustra en la figura 3.11; como por falta de espacio no podemos explicar en
detalle el procedimiento, remitimos a la fuente original. (Walborn et al., 2000.)(Una versión
didáctica se encuentra en http://grad.physics.sunysb.edu/~amarch/)

Figura 4.11. (Tomado de http://grad.physics.sunysb.edu/~amarch/).


Para entender el experimento de Walborn y colaboradores, hay que tener en cuenta 2 cosas.
En primer término, la afirmación de Feynman al inicio de su conferencia: la buena noticia es
que electrones y fotones (también átomos, moléculas, virus, etc.) se comportan de la misma
manera. Exhiben, dependiendo del experimento que se realice, comportamiento dual, como
de onda o como de partícula. En segundo lugar, los fotones, al igual que los electrones, tienen
una propiedad intrínseca que los separa claramente en dos grupos. En el caso de los
electrones, esta propiedad es el espín, que puede ser paralelo o antiparalelo a un campo
magnético determinado previamente por el observador; en el de los fotones, es la dirección
de polarización, paralela o antiparalela a un eje también determinado de antemano: el eje de
polarización, o en términos clásicos, la dirección de oscilación del campo eléctrico asociado a la
onda electromagnética. La polarización puede ser horizontal o vertical, y por combinación
lineal de estas dos, también circular, a derecha o a izquierda. (Figura 4.12.)

Figura 4.12. Campo electromagnético que da lugar a ondas planas, polarizadas linealmente. La
polarización está en la dirección del campo eléctrico, plano vertical para la figura de la izquierda (campo
magnético en el plano horizontal), para una onda que avanza hacia la derecha (dirección X). A la derecha
se ilustra la polarización circular, dextrógira(a derecha) o levógira (a izquierda) , según el caso, giro
positivo o negativo.

Para el caso que nos ocupa, los fotones se han preparado de manera especial, y forman lo que
se denomina parejas de fotones entrelazados, o con polarizaciones correlacionadas. Si uno
está polarizado en dirección vertical, el otro lo estará en dirección horizontal y viceversa; si el
uno tiene polarización circular a derecha, el otro la tendrá a izquierda. Los dos forman un solo
ente, no pueden considerarse como dos objetos separados o separables, por lejanos que se
encuentren. Ellos forman lo que se conoce con el nombre de estado de Bell. Volveremos a
este asunto más adelante. La preparación de fotones entrelazados se hace en lo que se
denomina un cristal no lineal, de borato de beta-bario (BBO). En resumen, un fotón de un
láser de bombeo de ión argón (de 351.1 nm de longitud de onda) se convierte en 2 fotones
idé ti os del do le de lo gitud de o da λ de . , de la itad de f e ue ia e e gía
cada uno; los dos fotones producidos en el BBO son emitidos en las direcciones indicadas en la
figura 11, de tal manera que pasen luego a través de detectores D 1 y D2, según el caso, y se
llevan a un detector común denominado contador de coincidencias. Para diferenciar
claramente las dos trayectorias, a los fotones que siguen la que los obliga a pasar por el
sistema de 2 ranuras (detector D1) les denominan s en la figura, mientras que se denominan
fotones p a los que siguen la otra trayectoria (detector D 2).
En un experimento previo que no se ilustra en las figuras, llamémoslo E 1, se han hecho pasar
fotones s por las 2 ranuras, con el típico resultado de las franjas de interferencia. En la figura
12 se ilustran otros 2 experimentos sucesivos E2 y E3, similares, que arrojan resultados
completamente diferentes. En los dos casos, a y b (E 2 y E3), justo enfrente de las ranuras,
antepuesta a ellas, se colocan placas de un cuarto de onda (QWP por sus siglas en inglés) cuyo
único propósito es volver circular una polarización horizontal o vertical. Marquemos QWP1 y
QWP2, respectivamente, a la placa que se antepone enfrente de la ranura 1 o 2, según el caso.
No hace falta seguir el proceso completo, pero si desea más detalles puede ir a la fuente
original; baste con decirle que si el fotón que sigue el camino del detector D2 está polarizado
horizontalmente, el otro tendrá polarización vertical antes de pasar por la placa; si lo hace por
la QWP1, en cuyo caso pasará por la ranura 1, lo hace con polarización circular positiva, es
decir, a derecha; si lo hace por la QWP2 (pasará por la ranura 2), adquiere polarización circular
negativa, es decir, levógira; lo contrario ocurre con el fotón entrelazado a otro que sigue el
camino del detector D2 con polarización vertical. Con el arreglo de la figura 12a, sin haber
hecho intento alguno por determinar la polarización en el detector D 2, lo que podemos
asegurar es que estamos en condiciones de averiguar por qué ranura pasó el fotón s. Pues
bien, sorpréndase el lector, esa sola posibilidad fue suficiente para destruir por completo el
patrón de interferencia.
En el experimento final se borra esta posibilidad, y con ese solo hecho se recupera el patrón de
interferencia. Para ello se coloca enfrente del detector D 2 un polarizador que permite el paso
de fotones con polarización horizontal o vertical (un polarizador inclinado). Ya no podemos
saber por cuál de las dos ranuras pasará el fotón s. Obsérvese que del experimento 2 al 3 no se
ha hecho ningún cambio en el entorno de los fotones s.
4.5 Comportamiento Dual de la Materia y Principio de Incertidumbre
Recordemos ahora lo que ya sabemos acerca de la luz: aunque nos la imaginábamos como una
onda, en realidad está compuesta de corpúsculos o granos de luz, cuantos de luz denominados
fotones. Hoy en día es posible controlar el flujo de fotones, para manipular fotones
individuales. En el experimento de detección de electrones (o de átomos) mediante luz,
podríamos utilizar fotones individuales: en tal caso, habrá circunstancias afortunadas en que
el fotón y el electrón (o átomo) se crucen: habrá, pues, dispersión de un fotón por una
partícula. Si eso ocurre, la partícula habrá sido «observada»: su comportamiento al cruzar la
doble ranura es como de partícula: pasará solamente por una de las dos. Caso contrario, su
comportamiento es como de onda: tendremos que aceptar que pasó simultáneamente por las
dos. En la pantalla observaríamos la superposición de dos patrones, uno de suma de
probabilidades como ocurrió con los balines, otro de suma de intensidades, como ocurrió con
las ondas de agua.
El experimento con electrones o con átomos se puede realizar hoy con sumo detalle, enviando
un electrón o un átomo cada vez, con la periodicidad que se desee: digamos que uno cada
cierto número de segundos, o de femtosegundos, no importa, de tal suerte que con la
espectroscopía ultrarrápida de que se dispone en la actualidad el anterior ya haya sido
detectado cuando el siguiente se envíe; es decir, podemos estar seguros de que no hay una
interferencia directa entre la trayectoria del uno y el siguiente. Lo mismo puede hacerse, en
principio, en un experimento con luz. Los resultados serán esencialmente los mismos. Esto
quiere decir que si se presenta una interferencia, es la inteferencia del electrón (o del fotón, o
del átomo) consigo mismo.
4.6. Función de onda y principio de complementariedad
Una de las formulaciones de la mecánica cuántica es describir los objetos cuánticos mediante
la denominada función de onda. Cuando se hable de la descripción del electrón mediante una
función de onda apropiada, se concluirá que la función de onda lleva la siguiente información:
nos da la probabilidad de que el electrón se deposite en uno u otro lugar sobre la pantalla; la
distribución de probabilidad, intensidad en el lenguaje de ondas, es lo que se ha representado
en las figuras anteriores. Se volverá a la discusión del significado de esta afirmación más
adelante.
La luz en la región visible o fuera de ella se suele representar mediante una onda, sobre todo
en cierto tipo de experimentos: los de difracción, en particular. La difracción de rayos X abrió
un campo extraordinariamente rico al estudio de los sólidos cristalinos. El experimento es muy
fácil de entender cualitativamente: basta considerar planos cristalinos adyacentes a los que
llega una onda plana de rayos X, como ilustra la figura 4.13. Hay interferencia constructiva, en
este aso u a efle ió o dispe sió ohe e te, ua do el á gulo Ø que forma el rayo
incidente con el plano cristalino es tal que para una separación d entre planos cristalinos
adyacentes se cumple la relación
2d sen Ø = nλ.

Figura 4.13. Esquema de la difracción de rayos X por un enrejado cristalino.


Aquí λ es la longitud de onda de los rayos X empleados, con longitudes en la región de unos
pocos ångströms, y n el orden de interferencia. Su pequeña longitud de onda garantiza que la
relación anterior pueda satisfacerse para n pequeño: n = 1, 2, etc.

El experimento puede ser realizado con igual éxito difractando electrones. Los espectros que
se obtienen son muy similares. El resultado comparativo de los dos experimentos se muestra
en la figura 3.7.
En síntesis, esto es lo que quiere decir el denominado Principio de Complementariedad y lo
que se deriva de los experimentos que acabamos de discutir:
1. Los componentes elementales del Universo, partículas elementales y partículas
mediadoras, exhiben características de corpúsculo y de onda.
2. Los agregados de partículas, sean estos quarks, núcleos, átomos o moléculas,
presentan comportamiento ondulatorio y corpuscular.
3. Esta dualidad onda-corpúsculo no se puede poner de manifiesto en un mismo
experimento: o preparamos mediciones mediante aparatos para observar o poner en
evidencia una naturaleza o la otra. Ambos caracteres son complementarios.
4. Es imposible saber cómo se está comportando un sistema cuántico a menos que lo
observemos; pero el proceso de observación lo altera en una forma que no podemos
anticipar.
5. Mientras no lo observemos, un sistema evoluciona normalmente, en una forma
prevista por un ente matemático que nos permite hacer predicciones.
Sobre el ente matemático que nos permite hacer predicciones volveremos en el siguiente
capítulo.
Hay algo maravilloso en todo este proceso experimental que hemos estado analizando a lo
largo de este capítulo: la última palabra la tiene el experimento. La mejor ciencia que
podemos construir es aquella que nos permite hacer predicciones en concordancia con los
experimentos. Lo demás es especulación. Pero hay una confianza plena en los resultados
cuando los fundamentos son firmes. El caso más destacado en la historia de la ciencia
reciente, la del siglo XX, lo constituye precisamente el experimento de interferencia de
electrones a través de dos ranuras. Hacerlo en el laboratorio tomó más de tres décadas, pero
los resultados eran completamente previsibles.
El experimento de difracción de rayos X ocurre en un arreglo cristalino en donde la separación
entre los átomos es una fracción de nanómetro. Cuando se hicieron los experimentos de
difracción de electrones primero y luego de átomos, las condiciones fueron las mismas. El
experimento de las dos rendijas es otra cosa: las condiciones experimentales son más
exigentes, pero actualmente se pueden satisfacer en un buen laboratorio.
Como hemos insistido desde el comienzo del capítulo, los resultados del experimento de las
dos rendijas es conocido prácticamente por todos los que se han acercado al más elemental
curso de física moderna, así no lo hayan tomado. Con razón fue escogido como el experimento
más bello en la historia de la física, una ciencia experimental por excelencia, teórico-
experimental para ser precisos, la prueba está en que nadie dudaba del resultado cuando el
experimento pudiera materializarse. La primera versión de ese experimento lo realizó, como
dijimos, Claus Jönsson en la Universidad de Tubinga, Alemania, en 1961, cuando ya el
experimento equivalente de difracción había sido inmortalizado con el premio Nobel otorgado
a Thomson y Davisson en 1937. Publicado, al igual que los 5 trabajos de Einstein que lo
inmortalizaron en aquel memorable 1905, en Zeitschrift für Physik, a diferencia de los de este
último, el reporte sobre el experimento pasó desapercibido para la comunidad científica
universal por más de una década. Posteriormente fue publicado en una revista de carácter
pedagógico.

Figura 4.14. Simulación del experimento de la doble ranura.


4.7 Principio de Heisenberg y tunelamiento cuántico
El experimento pensado por Feynman que acabamos de ilustrar, nos permitirá entender el
significado que suele asignársele a la llamada función de onda. Esta surge de la mecánica
ondulatoria, formulada por Schrödinger en 1926. Nuevas técnicas, entre otras las que surgen
de la nanotecnología, han permitido hacer experimentos más persuasivos en los últimos años.
Uno de ellos fue realizado en 1983, aprovechado la versatilidad de uno de los microscopios
electrónicos más poderosos con que se cuenta hoy, el denominado microscopio de
tunelamiento y barrido, e i glés de o i ado s a i g tu eli g i os ope e o o ido
por sus siglas en ese idioma: el STM.

Figura 4.15. Micrografía de tunelamiento y barrido, lograda con el STM, mostrando las ondas
electrónicas que aparecen cuando 48 átomos de Fe se sitúan formando un círculo sobre una superficie
de cobre. En realidad, lo que se está midiendo con el experimento es la amplitud de probabilidad
(siguiente capítulo). Para más detalles, véase el libro ya referido sobre Nanotecnociencia. (Figura
tomada de la página de IBM; se muestra y explica en muchos textos de física general.)

Para terminar esta sección nos referiremos brevemente al denominado Principio de


Incertidumbre de Heisenberg, el cual está en perfecta armonía con la dualidad onda-
corpúsculo, o de manera más general, con la descripción mediante una función de onda de los
entes cuánticos. Lo haremos en la forma que más a menudo se aplica en la región nanoescalar.
Figura 4.16. Esquematización del efecto túnel.

El tunelamiento es uno de los efectos cuánticos de mayor aplicación en las tecnologías que
involucran semiconductores. Es consecuencia del principio de incertidumbre, el cual suele
enunciarse haciendo referencia a lo que en mecánica clásica se denominan dos variables
conjugadas. Son conjugadas la posición y el momentum lineal, el ángulo y el momentum
angular, la energía y el tiempo de que se dispone para medirla, y muchas otras variables que
no tienen análogo clásico, como las componentes de espín. El principio mismo es consecuencia
de los postulados básicos de la mecánica cuántica, los cuales hacen referencia a observables y
operadores. En lenguaje elemental, un observable es una cantidad física que se puede medir
como resultado de la observación. Dos variables conjugadas no se pueden determinar
simultáneamente con absoluta precisión. Ello es consecuencia de que sus operadores no son
conmutables, no es lo mismo aplicar uno y después el segundo que hacerlo en orden inverso.
Más que enunciar el principio, es mejor ilustrar sus consecuencias y eso es lo que hacemos en
la figura 4.16.
Aceptando que un objeto cuántico, generalmente una partícula, por ejemplo un electrón, se
puede describir mediante una función de onda, la figura representa la amplitud de una onda
(partícula) que incide desde la izquierda sobre una barrera de potencial, un obstáculo para que
esa onda o partícula continúe hacia la derecha. Lo que se observa clásicamente es que la
partícula o el objeto rebota contra el obstáculo, para el caso ilustrado mediante una pared. En
la práctica la pared puede ser el espacio vacío entre dos metales o entre dos semiconductores
o entre un semiconductor y un metal. El electrón forma parte del trozo de materia a la
derecha, pero hablando en términos probabilísticos puede entrar a formar parte del trozo de
materia a la izquierda. La línea discontinua representa la energía que tiene la partícula. La
altura de la barrera representa la energía necesaria para que el objeto dé el salto, pasando de
uno a otro material. El efecto se da también en los núcleos atómicos: un nucleón (el neutrón,
por ejemplo), puede abandonar el núcleo, espacio en el que usualmente está confinado, por
efecto túnel. La amplitud de la onda a la derecha, menor que la de la izquierda, representa la
probabilidad de encontrar la partícula del lado derecho. El espacio entre las dos regiones está
representado probabilísticamente por una intensidad decreciente de izquierda a derecha. Si la
pared o el obstáculo es muy extenso, es en la práctica imposible que se dé el paso de una a
otra región. Por el contrario, una pared muy delgada facilitará que se dé el tunelamiento. En el
caso de los semiconductores, usualmente esa región suele ser de unas cuantas decenas o
centenas de nanómetros.
El enunciado del principio de incertidumbre suele hacerse con referencia a la posición y el
momentum de una partícula. Se dice entonces que ninguna de ellas, en principio, puede
determinarse con absoluta precisión. El producto entre la incerteza Δs en la posición y la
incertidumbre Δp en la cantidad de movimiento es mayor o igual a h-barra:

ΔpΔs  ħ.

En rigor matemático, tanto el momentum p como la posición r son cantidades vectoriales, y las
cantidades anteriores se refieren a una de las componentes. Más rigurosamente, la relación de
incertidumbre para posición y momentum se escribe como xpx – pxx = iħ, y de manera similar
para las otras dos componentes. La relación se generaliza a cualquier pareja de variables
conjugadas.

Feynman, R., Leighton, R., and Sands, M. (1963). Lectures on physics. (Addison-Wesley, New
York.) Nota: Este es el único texto que aparece incluido dentro de los 25 libros más editados en
lengua inglesa. Por extraño que parezca, fue en realidad una recopilación de las conferencias
que Feynman hiciera a los estudiantes de todas las carreras del primer curso de física,
recopilación y redacción hecha por Leighton y Sands. La serie ha merecido una página webb:
http://www.feynmanlectures.info/)
Paquete de ondas

Figura 4.17 Paquete de ondas y principio de incertidumbre.


5 Principios y postulados
5.1 Los principios son el fundamento
«Los malentendidos a que ha dado origen el principio de incerteza
se deben a que deriva de la hipótesis cuántica, que tiene la
desgracia de ser oscura cuando es rigurosa y de ser totalmente
falsa cuando todo el mundo la comprende.» (Sábato)
Primeros principios ha de ser un pleonasmo. ¡O son principios o no lo son! Cuando se invocan
los principios de una doctrina, se está diciendo lo esencial de ella. En ocasiones se confunden
los principios con las leyes. En las religiones se suele hablar de mandamientos o preceptos que
regulan las acciones o actuaciones de sus seguidores. En las sociedades se establecen normas
de comportamiento. En las ciencias naturales, se empieza por escoger el sistema que se va a
estudiar; dentro de ese sistema, se observan los fenómenos, se analizan los procesos y se
intenta separar las partes involucradas para entender mejor el comportamiento global a partir
del comportamiento de las partes. Surgen así las leyes y principios que conforman o dan lugar
al modelo o teoría. El gran éxito de la física radica en que esas leyes o principios se expresan
mediante ecuaciones matemáticas que determinan o dan información sobre la evolución
posterior del sistema bajo estudio.
En ciencias, los principios no son inamovibles, pero las leyes casi siempre se cumplen. En física
estamos acostumbrados a cambiar de paradigma, como diría Kuhn. El principio de relatividad
es de vieja data: se le atribuye inicialmente a Galileo; en su forma definitiva, para la relatividad
general, fue enunciado por Einstein. Su enunciado, trasladado a otras áreas, ha dado lugar a
malos entendidos y a teorías subjetivad.
Uno de los principios fundamentales de la nueva física, para algunos el más esencial, es el de
indeterminación o incerteza, usualmente conocido en español como principio de
incertidumbre de Heisenberg; permite violar momentáneamente el principio de conservación
de la energía, durante un intervalo de tiempo que satisfaga la desigualdad de Heisenberg, a la
que casi nunca denominan de esa manera: ΔEΔt ≥ ħ/2.
El principio de incertidumbre, como se conoce popularmente, tampoco suele enunciarse así.
Se apela más bien a dos cantidades (variables se les llama en lenguaje matemático) que son el
fundamento de la física clásica: posición y velocidad, o mejor, una componente de la cantidad
de movimiento y su coordenada asociada (px y x, p.e.); gracias a la interrelación entre esas dos
variables, manifiesta en la ecuación de Newton denominada segunda ley, es posible
determinar con precisión absoluta la trayectoria de un objeto (en general el comportamiento
de un sistema) clásico. Un ejemplo trivial es el movimiento de la luna alrededor de la tierra. Si
consideráramos un objeto que cae en el campo gravitacional de la tierra, cerca a su superficie,
podríamos afirmar que la coordenada y (altura) y su cantidad de movimiento asociada (mvy)
son variables conjugadas. Obedeciendo el principio de indeterminación, no podríamos conocer
con certeza su altura y su velocidad simultáneamente; dicho en lenguaje matemático, Δ Δpy ≥
ħ/2.
Pero la física clásica va más allá y su elaboración definitiva es una magistral pieza matemática
en la formulación de Hamilton o de Hamilton y Jacobi. En la primera, más sencilla, existen
siempre dos variables conjugadas, es decir, estrechamente relacionadas, precisamente por las
ecuaciones de Hamilton. Un ejemplo adicional al ya mencionado (px y x) lo constituyen una
componente del momentum angular (momento cinético, le llaman en algunos países de habla
hispana) y el correspondiente ángulo de giro. En mecánica cuántica surge una nueva cantidad
física que se mide en unidades de cantidad de movimiento angular: el espín. Pues bien, dos
componentes de espín están tan estrechamente relacionadas, que no se pueden determinar
simultáneamente. Ese fue el resultado del experimento de Stern-Gerlach, realizado en 1922 y
discutido en el capítulo 3. El espín, cuyo origen es relativista, no tiene análogo clásico. (Véase:
http://la-mecanica-cuantica.blogspot.com.co/2009/08/el-experimento-stern-gerlach.html).
La energía y el tiempo son también variables conjugadas, y da la casualidad de que en la
relatividad, al hablar de cuadrivectores o vectores en cuatro dimensiones (el tiempo sería la
cuarta dimensión), la energía es la 4ª componente del vector cantidad de movimiento. Ilustrar
la desigualdad de Heisenberg con las dos cantidades conjugadas o estrechamente
relacionadas, energía y tiempo, lleva de paso a un fenómeno característico de la física
cuántica: el tunelamiento cuántico, del cual se ha hablado en capítulos precedentes y se
echará mano frecuentemente en la segunda parte de este volumen, aplicaciones de la física
cuántica.
Otro de los principios básicos, atrás discutido ampliamente, es el de dualidad onda-corpúsculo,
también llamado de complementariedad. A veces se enuncia como si fueran 2; igual ocurre
con el de incerteza. Rigurosamente hablando (léase en términos matemáticos), el principio de
Heisenberg se refiere a la no conmutatividad de dos variables canónicamente conjugadas,
pero evitamos ese lenguaje para hacer este texto comprensible a un lector no iniciado. Uno
más es el llamado principio de correspondencia, una especie de transición entre lo cuántico
(general) y lo clásico (particular, en cierto sentido, como discutiremos posteriormente).
Los principios de la QT son muy generales y muy sencillos; aunque algunos son de difícil
aceptación, no pueden ser violados. Einstein ideó muchos experimentos pensados, con los que
supuestamente se violaría, por ejemplo, esa famosa desigualdad, y nunca tuvo éxito; la última
vez que lo intentó, con sus colegas Podolsky y Rosen, proponiendo la ahora famosa paradoja
EPR, a la postre logró que se creara otra desigualdad que jamás se cumple, la desigualdad de
Bell. La no localidad de la teoría cuántica se constituye en realidad en un principio inamovible,
una característica de la naturaleza que da lugar a fenómenos aparentemente absurdos pero
que se presentan por doquier. Dada su importancia en la nueva revolución cuántica, a la no
localidad dedicaremos el siguiente capítulo. Volvamos nuevamente al punto de partida.
El sistema bajo estudio en el caso de Planck era el cuerpo negro. Planck pudo sintetizar en una
fórmula matemática el comportamiento de dicho sistema, supuestamente un continuum, y la
contrastó con la que predecían los anteriores modelos y la teoría clásica. Si se mira hacia atrás,
se recordará que había serias dificultades en el modelo clásico. No se trataba solamente de los
dos nubarrones a que hacía referencia Kelvin en su discurso de 1900 ante la Royal Institution.
Uno de ellos daría lugar a la relatividad especial. Pero había otros; la discontinuidad en las
líneas espectrales de los elementos era el más antiguo; a este se agregaba el efecto
fotoeléctrico, sin posibilidad de explicación clásica, y el ya conocido problema de la catástrofe
ultravioleta. Si se mira hacia adelante, surgieron nuevas observaciones experimentales con las
que aparecieron otras tantas dificultades que obligaron a replantearse el modelo y, en últimas,
la teoría. Sin pretender ser exhaustivos, agreguemos a la lista el fenómeno de la radiactividad y
los rayos X.
Todo lo anterior, como lo hemos ilustrado y continuaremos haciéndolo en los capítulos
venideros, dio lugar a otra manera de interpretar la realidad. Los efectos son todavía mayores
a los que cupo imaginar en los albores de la mecánica cuántica. Volveremos a los menos
esperados en el siguiente tomo. ¡Es posible imaginar otros universos!
5.2 Otros mundos posibles
En este capítulo haremos una modesta síntesis de los fundamentos como principios. No nos
proponemos formular las ecuaciones matemáticas, nuevas leyes que supuestamente pusieron
fin a esas dificultades, pero cuyo solo enunciado desborda los objetivos de estas notas; solo
pretendemos ilustrar los principios fundamentales para concluir finalmente que, por exacta y
precisa que sea la teoría resultante, esos nuevos principios no dejan de crearnos nuevas
dificultades conceptuales. A la formulación matemática nos referiremos escuetamente al final
del capítulo.
Lo que ahora resulta claro es que hubo que reexaminarlo todo. Inicialmente se pensó que
bastaba con descubrir primero y explorar después lo que simultáneamente se manifestó como
constituyente último de la materia. Ese ingrediente fue el átomo, con él los electrones que
daban lugar al fluido eléctrico y los fotones que constituían la luz; también el núcleo,
descubierto con posterioridad. Más tarde se descubriría que en el núcleo, donde está
concentrada casi toda la materia, hay otros ingredientes, responsables de los que hoy se
siguen llamando adia io es o a os α, β γ, y todavía más, protones y neutrones. Mucho
después, en la segunda mitad del siglo, se encontró que estos últimos no eran las partículas
elementales que inicialmente se creyó, sino corpúsculos compuestos de los ahora llamados
quarks. Volveremos a este asunto en la segunda parte. El comportamiento nuclear, las
interacciones débiles y fuertes que rigen las partículas elementales, no son los principios de la
mecánica cuántica. Esos ingredientes obedecen a tales principios, pero se rigen por unas leyes
que resultan de lo que se denomina el Modelo Estándar, el modelo matemático más
consistente con los resultados experimentales que de paso ha predicho anticipadamente
otros. Todavía no se llama teoría: ¡hay piezas faltantes!, a pesar de los avances espectaculares
de las últimas décadas y de los últimos años.
En la búsqueda de una teoría consistente que explicara lo que el modelo clásico no podía
hacer, se encontraron los primeros principios (seguiremos utilizando el pleonasmo por razones
que quedarán claras más adelante y en el epílogo) y las leyes o ecuaciones que de manera muy
general determinan el comportamiento de esos ingredientes fundamentales y sus
interacciones. Las matemáticas son relativamente sencillas si se las compara con las del
modelo estándar. No obstante, están por fuera de las que se aprenden en los cursos
fundamentales de matemáticas. Ellas no son tampoco los principios matemáticos (recuérdese
el título de la obra cumbre de Newton), principios que trataron de construir Russell y
Whitehead hace poco más de un siglo. Incidentalmente en uno y otro campo, en las ciencias
físicas y en las matemáticas, surgieron incertidumbres o incertezas que pusieron fin a la utopía
de poder conocerlo todo y poder demostrarlo todo. Los cursos formales de la mecánica
cuántica empiezan con cuatro postulados que debe satisfacer la descripción de cualquier
sistema físico. A ellos nos referiremos al final, como corolario, pero desde ya podemos ratificar
que la física cuántica es en esencia un formalismo riguroso en extremo, al margen de cualquier
interpretación que pretenda hacerse de ella.
Volviendo la mirada al pasado de la física, recuérdese que en las teorías clásicas también hay
unas ecuaciones que sirven de enunciado a las leyes y de marco a los principios generales;
pues bien, algunas de las leyes pierden por completo validez en el nuevo marco teórico,
mientras que otras ganan fortaleza al convertirse en principios más generales. Para empezar,
la segunda ley de Newton se suele enunciar mediante una ecuación que ya no será válida, no
solamente en el nuevo esquema impuesto por la teoría de la relatividad, tampoco en la forma
aproximada que antes tenía (F = ma): al no poderse determinar la posición y la velocidad de un
objeto simultáneamente, por ende su trayectoria, pierde sentido el concepto mismo de
aceleración, como un auxiliar para encontrar la velocidad, y de esta manera poder determinar
la nueva posición. La posición y la velocidad quedan desprovistas de la importancia que tienen
y del papel protagónico que juegan dentro de la obra de Newton, por eso Philosophia Naturalis
Principia Mathematica ya no es la fuente de los nuevos principia.
Algunas leyes de la mecánica dan lugar a principios que a la postre son válidos en otros marcos
más generales. Aplicando rigurosamente la segunda ley y teniendo en cuenta la primera
erigida en principio, el de inercia, es posible obtener lo que se denomina principio de
Conservación de la Energía, uno de los más caros principios de la física. Hay que escarbar muy
hondo para entender las implicaciones de la conservación de la energía, si se queda en el
marco de la mecánica newtoniana. Allí solamente puede hablarse de la energía mecánica,
suma de la energía de movimiento y de la energía de posición o potencial. Aplicando la tercera
ley y la segunda, por ende la primera, se obtiene un nuevo principio que es también de
trascendental importancia para toda la física: el principio de Conservación del Momentum, o
de la cantidad de movimiento. La generalización de la mecánica newtoniana en la denominada
Mecánica Lagrangiana nos acerca a una formulación más general de esos viejos principios de
conservación y al descubrimiento de otros nuevos. Esa generalización permite entrever la
nueva formulación que se requiere para la mecánica. Fue así como surgió la Mecánica
Hamiltoniana y posteriormente la más general ecuación de Hamilton – Jacobi. Ese fue en
esencia el camino seguido por Schrödinger para encontrar su ecuación de onda.
Las leyes del electromagnetismo o ED Clásica, las Ecuaciones de Maxwell, nos permiten una
formulación de los fenómenos eléctricos y magnéticos en términos de campos eléctricos y
magnéticos, o mejor, del Campo Electromagnético, la más bella y completa teoría que pudo
concebirse antes del siglo XX. La ratificación de los principios de conservación de la energía, de
la cantidad de movimiento lineal y angular es una de sus consecuencias, mientras que la
conservación de la carga resulta ser uno de los nuevos principios esenciales de la física. Pero
quedan otros principios de conservación por descubrir, algunos de los cuales solamente
pueden surgir de la teoría cuántica. Nace así una nueva teoría, la Electrodinámica Cuántica
(QED, por sus siglas en inglés), la teoría más precisa de la física.
Cuando se habla de los primeros principios de la Física Cuántica, se hace referencia a algunos
postulados básicos, sin los cuales es imposible avanzar. Principios de la Mecánica Cuántica de
Dirac sigue siendo un excelente punto de referencia para alguien que quiera estudiar física a
fondo, a pesar de que la primera edición es casi centenaria. El primer capítulo, titulado
Principio de Superposición, examina lo que en su opinión es el principio fundamental de la
nueva física. Esto no es contradictorio con el Principio de Incertidumbre, el nuevo punto de
partida. Los dos, incertidumbre y superposición, van de la mano, pero el de superposición es
en cierto sentido más esencial. Es el punto de partida para la construcción de las diversas
formulaciones. En el caso especial del escenario de funciones de onda, nos da una imagen del
fenómeno de interferencia aplicable a las partículas, tal como lo discutimos al final del capítulo
anterior. El paquete de ondas, allí examinado, facilita a su vez visualizar la aplicabilidad del
principio de incertidumbre para el caso particular de posición y momentum.
Para ilustrar lo que acabamos de decir con un ejemplo tomado de las matemáticas,
reconozcamos que el concepto de punto es esencial para la Geometría Euclidiana; viene luego
el de línea, entendido como un continuum de infinitos puntos, fundamental para la
construcción de la geometría plana. Pero el mundo no es plano, tampoco simple. Deja de serlo
cuando se intenta desbordar la experiencia cotidiana. Respetar el punto de partida, la
incerteza, significa que todo lo demás tiene que satisfacer ese principio. Einstein trató
inútilmente de derogarlo. Gödel, por el contrario, lo extendió a las matemáticas con sus
teoremas de incompletitud.
Los principios de la nueva física se pueden visualizar en múltiples formas. Chad Orzel es autor
de uno de los libros más fascinantes para legos. En inglés, How to teach quantum physics to
your dog (2011). Si se busca su traducción al español (Conversaciones de física con mi perro), la
encontrarán precedida de una amena reseña que transcribimos a continuación:
«La física es una de las disciplinas científicas más interesantes y escurridizas: ¿quién iba a
decirnos que explicar física a un perro iba a hacerla tan clara como divertida? Cuando el
profesor Chad Orzel fue a la perrera a adoptar a un perro, nunca imaginó que encontraría a
Emmy. Además de ser una perrita simpática que necesitaba un hogar, descubrió que era muy
parlanchina y que tenía mucha curiosidad por saber cómo se ganaba su nuevo dueño la vida y
cómo podía sacarle partido. Derrochando humor y claridad, Chad Orzel explica a Emmy y a los
lectores qué es la mecánica cuántica, cómo funciona y por qué sigue siendo extraña,
sorprendente e importante para cualquier perro o humano aunque no pueda usarse para cazar
ardillas o comer carne. A lo largo de estas charlas, también se tratan algunos momentos clave
de la historia de la física, como los experimentos que permitieron descubrir que los electrones
son ondas y partículas al mismo tiempo o el debate que Albert Einstein y Niels Bohr
mantuvieron durante décadas para determinar el verdadero significado de la teoría cuántica
(Einstein quizás fuera más listo, pero Bohr tenía razón más a menudo).» (Autor anónimo.)
Una poderosa razón para enseñar la nueva física a un can amigo es el carácter práctico de este
y su poderoso sentido del olfato: hay que ser práctico para utilizar la mecánica cuántica en
beneficio propio (o de la humanidad), sin estarse cuestionando si tiene o no sentido lógico. Al
fi al a o, el se tido o ú es el e os o ú de los se tidos .
Para lo que sigue, nos hemos inspirado en un blog del que participa Orzel,
http://scienceblogs.com/principles/2010/01/20/seven-essential-elements-of-qu/ subtitulado
principios inciertos. No es coincidencia que en ese blog se toquen a menudo temas de la
política, quizá la más incierta de todas las ciencias. También hemos echado mano de otro blog,
esta vez más universal: http://www.astromia.com/astronomia/principioscuanticos.htm
Sin más comentarios, vamos a los que el autor considera los principios más fundamentales de
la nueva física, empezando por el que Feynman y otros reconocen como el gran misterio.
5.3 Principio de dualidad onda-corpúsculo: el misterio cuántico
Todo objeto en el mundo cuántico exhibe propiedades de onda y de partícula, aunque no se
manifiesta a los ojos del observador con las dos características simultáneamente. En otras
palabras, no podemos decir que un objeto cuántico sea onda o que sea partícula: todo
depende del tipo de observación o experimento que hagamos. Para ilustrarlo con dos objetos
de manifestación macroscópica cotidiana, la luz y el electrón, creíamos de la primera que era
una onda, y así lo habían demostrado tanto el experimento de Young de 1802, como la síntesis
teórica del conjunto de ecuaciones de Maxwell; por otra parte, en el experimento de Thomson
de 1897 el electrón, una mínima parte del átomo, no deja lugar a dudas acerca de su
comportamiento corpuscular. Pues bien, a la postre resultó que no es así de sencillo: los
electrones exhiben propiedades ondulatorias, como se demostró con los experimentos de
difracción en cristales, realizados por los grupos de Davisson y de Thomson, de manera
independiente, y se ha comprobado una y otra vez con más sofisticados experimentos, entre
ellos los de dos ranuras, primero de Jönsson y después de muchos más; por otra parte, una
onda monocromática de luz se manifiesta como partículas de determinada energía bajo las
condiciones apropiadas, como se reveló de manera inequívoca en el experimento de
dispersión de Compton y en los experimentos hechos con luz de muy baja intensidad.
¿En qué sentido se manifiesta uno y otro, el fotón y el electrón, como partícula o como onda?
Como lo primero, en cierto sentido, lo mismo que en la vida diaria. Al detectar la llegada de un
solo fotón o de un solo electrón, lo que hoy en día es posible, no hay duda de que se trata del
uno o del otro, no de una fracción del objeto. La detección es una medida, llamémosla directa.
Ahora bien, si de ninguna manera observamos el paso por una de las dos ranuras de uno u
otro, no queda otra alternativa que concluir que ha pasado por las dos simultáneamente. Eso
es sin lugar a dudas un comportamiento típicamente ondulatorio.
En síntesis: 1) Los objetos cuánticos se comportan como partículas, en el sentido de que son
discretos y por ende contables en principio. La materia y la energía (los átomos y los fotones,
por ejemplo) se manifiestan a nuestros ojos o frente a nuestros instrumentos como trozos
discretos, en ocasiones tan diminutos que ha sido imposible tener siquiera una vaga idea de su
tamaño. Siempre y cuando uno intente localizar un átomo de determinado elemento o
detectar un fotón de luz de cierta frecuencia, uno lo encuentra en un lugar, bien localizado y
solamente en un lugar. 2) Pero los objetos cuánticos también se manifiestan como ondas, en el
sentido en que exhiben efectos de difracción e interferencia. Si se envía un haz de electrones o
un haz de fotones a través de una ranura estrecha, el haz se ensancha cada vez más al alejarse
de la ranura (figura ); téngase en cuenta que el resultado final es el mismo cuando los
electrones o los fotones se envían uno a uno: entre más pequeña la ranura, más se dispersa el
haz. Y si se envía un haz a través de dos ranuras o de múltiples ranuras, preferiblemente muy
pequeñas y cercanas, se observará un patrón de franjas alternadamente brillantes y oscuras
del otro lado de las ranuras, en una pantalla en la que se detectan de algún modo. Las franjas
brillantes y oscuras van apareciendo poco a poco cuando se detectan los electrones o los
fotones uno a uno, como partículas, pero el patrón es el de ondas de interferencia, siempre y
cuando se les permita tomar más de una opción (dos o más ranuras) y con el aparato de
medida se haya renunciado a saber cuál de las opciones pudo ser la elegida: el objeto cuántico
tomó todas las opciones que le fueron ofrecidas.
5.4 Principio de complementariedad
El principio de complementariedad en su enunciado más sencillo es debido a Bohr. Se parte de
la visión clásica, según la cual el comportamiento ondulatorio y el comportamiento corpuscular
son intrínsecamente antagónicos. En mecánica cuántica, en cambio, son complementarios. Eso
quiere decir que los objetos cuánticos exhiben comportamiento corpuscular o
comportamiento ondulatorio según los intereses del observador. La observación (medida) nos
revela uno u otro, pero no puede revelarnos ambos simultáneamente.
Aunque en ocasiones se enuncian separadamente, los dos principios, el de dualidad y el de
complementariedad, son el mismo principio.
5.5 Principio de indeterminación
Al principio de Heisenberg, de incertidumbre, de indeterminación o de incerteza, se ha hecho
referencia desde la introducción a estas notas. Como ya se ha señalado, es una consecuencia
de la dualidad onda-corpúsculo discutida en el apartado anterior, develada claramente en el
experimento de 1, 2 o múltiples ranuras. Esa dualidad a la postre es consecuencia del
desconocimiento que tenemos sobre la posición de un objeto cuántico. Es así como debemos
escoger entre dos alternativas excluyentes, lo que nos impide disponer de toda la información
que quisiéramos tener acerca de un sistema físico en cualquier instante de tiempo. Podemos,
por ejemplo, decidirnos por medir las propiedades de onda de la luz dejándola pasar a través
de una rendija doble sin saber por qué ranura pasa cada fotón o, por el contrario, podemos
observar cada fotón cuando pasa por alguna de las ranuras, en cuyo caso el patrón de ondas
desaparece. Nunca podemos hacer las dos cosas al mismo tiempo. Visto de otra manera, como
lo propuso Heisenberg, la detección de por cuál ranura pasa cada fotón es una medida o
determinación de su posición, mientras que la observación del patrón de interferencia es
equivalente a la medida de su momentum. (Recuérdese la relación de de Broglie y la Ley de
Bragg.) Es imposible determinar simultáneamente la posición y el momentum de cualquier
objeto cuántico.
Cuando discutíamos el experimento de las dos ranuras hecho con electrones, pudimos ver que
la detección de aquellos por fotones produce una perturbación inevitable al transferirles
momentum en la dirección perpendicular al movimiento, consecuencia del principio de
Heisenberg. La interpretación inicial que este dio de su principio está fundamentada en
argumentos semiclásicos.
Figura 5.1 Un haz de luz pasando por una ranura de ancho Δ se difracta, formando máximos y mínimos
en la pantalla. Entre más angosta la ranura, mayor es el ensanchamiento del patrón de difracción en la
pantalla. Esto es consecuencia del principio de indeterminación debido a Heisenberg.

Es más fácil entender la aplicación del principio, examinando lo que pasa con luz que atraviesa
una sola ranura de ancho finito. Analizado el caso a partir del modelo ondulatorio de la luz, se
ve fácilmente que el haz se ensancha, dando lugar a un patrón de difracción. El experimento
podría realizarse con luz suficientemente tenue como para que se tuviera solo un fotón cada
vez. Los fotones individuales llegan aleatoriamente a distintos puntos en la pantalla, pero el
patrón de interferencia surge a medida que más y más fotones arriban a la pantalla.
Para el presente caso, el principio de incertidumbre tiene que ver con la determinación del
sitio por donde pasan los fotones. Sabemos que los que lleguen a la pantalla habrán pasado
previamente por la ranura. Asumamos que el ancho de la ranura es Δ . Esa será la imprecisión
en la determinación de la posición. Si la ranura se hace más pequeña, de tal modo que se sepa
con mayor precisión por dónde han pasado los fotones, el patrón de difracción se hace más
ancho o extenso, consecuencia de una mayor imprecisión en su cantidad de movimiento.
El análisis que hizo Heisenberg de la situación en el caso de los electrones, le llevó a encontrar
la relación que debe existir entre el producto de la incertidumbre con que se pueden
determinar las dos cantidades:
Δ Δp ≥ħ/2.
No obstante, el argumento de Heisenberg pasa por la perturbación directa de los electrones, lo
que no ha ocurrido en el caso del experimento hecho con los fotones para una ranura,
experimento que por lo discutido en el capítulo anterior es equivalente al de los electrones. Se
puede así interpretar la relación de Heisenberg como una expresión con una validez más
general, como lo destacaremos a continuación. Empecemos por recordar que el patrón de
difracción se pierde solo tener la posibilidad de saber por dónde han pasado los fotones en el
experimento del borrado cuántico.
Rigurosamente hablando, el principio de Heisenberg se refiere a la imposibilidad de conocer
con precisión absoluta simultáneamente dos cantidades que en la mecánica, llamémosla
Hamiltoniana para mayor generalidad, se denominan variables conjugadas. Una pareja de ese
tipo de variables lo constituyen una componente cualquiera de las coordenadas y su
correspondiente cantidad de movimiento. Ilustrémoslo para el caso más sencillo considerado
por Bohr, el átomo de hidrógeno en su nivel más bajo. Ello quiere decir que el electrón se
encuentra a una distancia del protón dada precisamente por el denominado radio de Bohr. La
imagen de Bohr del átomo, como bien sabemos, es incorrecta. En términos más rigurosos,
como podemos deducirlo de la ecuación de Schrödinger, lo que ese radio quiere decir es que el
electrón se encuentra con una alta probabilidad a esa distancia, y la probabilidad disminuye
drásticamente al acercarse al centro o alejarse de él. Para el primer caso, es evidente que el
electrón nunca podrá caer al núcleo, como equivocadamente se concluye de la teoría
electromagnética clásica. Un análisis cuantitativo utilizando el principio de Heisenberg nos dirá
que la mínima distancia a que puede acercarse el electrón al núcleo es precisamente el radio
de Bohr.
Otra pareja de variables canónicamente conjugadas que ocurre a menudo son la energía y el
tiempo. La imposibilidad de conocer simultáneamente esas dos variables significa que un
objeto cuántico puede ganar energía o perder parte de ella en cantidad ΔE durante un
intervalo de tiempo Δt que satisfaga la relación de Heisenberg,
ΔEΔt ≥ħ/2.
Eso da lugar, como veremos, a varios fenómenos que no tienen análogo clásico. Uno de ellos
es el efecto túnel, al que ya nos hemos referido. Otro es la creación de partículas virtuales, lo
que discutiremos en la segunda parte.
El principio como tal es demostrable rigurosamente, a partir de las características de los
operadores que se refieren a esas dos cantidades observables o variables conjugadas. Pues
bien, resulta que esos dos operadores son lo que en la mecánica cuántica se denominan no
conmutables. Ello quiere decir que no es lo mismo determinar, por ejemplo, la posición y luego
la cantidad de movimiento, que hacerlo a la inversa.
Una forma más radical de decirlo es reconociendo que un objeto cuántico no tiene a la vez o
simultáneamente los dos atributos, posición y velocidad por ejemplo. Para este caso, se debe
excluir la posibilidad de asignarle trayectoria a un objeto cuántico. La imagen de corpúsculo
que a menudo intentamos asignarle a un electrón o a un fotón, por ejemplo, es inadecuada.
También lo será la imagen de onda. Eso nos lleva a lo que se denomina principio de
complementariedad, debido a Bohr, del cual nos ocupamos en la sección anterior.
5.6 Principio de correspondencia
También debido a Bohr, este principio establece que la física clásica debe aparecer como un
caso límite (asintótico) de la nueva física. A pesar de lo obvio, el desarrollo de este principio
tiene una larga historia que se inicia con los postulados de Bohr para construir su modelo semi-
clásico del átomo, aplicable solo al átomo de hidrógeno. Posteriormente habría de ampliarlo, a
raíz de una conferencia realizada en Como, Italia.
En palabras de Condon y Shortley en su gran clásico The Theory of Atomic Spectra: Bohr
ofreció el principio de correspondencia solamente como su perspectiva intuitiva de que en esa
dirección debería buscarse la nueva teoría cuántica; y fue en esa dirección que Heisenberg la
e o t ó. Por lo que concierne a la física atómica en particular, el principio de
correspondencia, con ligeras modificaciones, fue la base para construir la teoría de la radiación
por átomos y moléculas.
(Ampliaré posteriormente este texto. Se recomienda leer el artículo de Sánchez Ortiz de
Urbina puesto en el drive, aunque es de advertir que tiene más un carácter histórico-
filosófico.)
5.7 Principio de valores propios
Su enunciado se obtiene directamente de la formulación de Heisenberg de la mecánica
cuántica. La ecuación de Heisenberg es una ecuación de valores propios, siendo estos los
únicos que pueden obtenerse de una medición clásica. Esos valores son discretos, siendo el
continuum un límite clásico, en concordancia con el principio de correspondencia; en el átomo
de hidrógeno, por ejemplo, el cambio en energía al pasar de un nivel a otro es cada vez menor
a medida que el denominado número cuántico principal (n, correspondiente a los orbitales de
Bohr) aumenta.
Es oportuno señalar aquí que el número asociado al valor del momentum angular ya no es n,
como supuso Bohr, sino l, denominado momentum angular orbital; a este se agrega otro, que
es la componente del momentum angular en la dirección z, ml (correspondiente al eje
perpendicular al supuesto plano de la órbita; recuérdese que ya no podrá hablarse de órbitas u
orbitales). Surgen así 3 números cuánticos discretos para los niveles y subniveles (u orbitales)
de los átomos. A estos debe agregarse el asociado al momentum angular intrínseco o de espín,
ms para referirse a los dos posibles valores que puede tomar (paralelo o antiparalelo a la
dirección z, observable en presencia de un campo magnético ). Los otros 3 están relacionados
de la siguiente manera: l solo puede tomar valores enteros positivos, incluido el 0, menores
que n (para n = 1, l = 0; para n = 2, l = 0 o 1, etc.); ml puede tomar valores entre - l y l .
En un haz de luz siempre habrá un número entero de fotones, nunca un número fraccionario.
En el límite clásico, por supuesto, la energía de la onda electromagnética se vuelve continua.
5.8 Principio de exclusión
Este principio, debido a Pauli, es válido para partículas de espín semi-entero, como lo son los
electrones. Las partículas que tienen espín semi-entero (los quarks lo son, y los protones y
neutrones, al estar constituidos por 3 quarks, también) se denominan fermiones. Para estos,
los números cuánticos que determinan su estado no pueden todos coincidir, al menos uno
debe ser diferente.
Teniendo en cuenta el principio de exclusión y los posibles valores de los números cuánticos
para los electrones ligados a un átomo que mencionamos en el numeral anterior, resulta que
en el primer nivel (con el mínimo valor de energía, n = 1) se pueden acomodar máximo 2
electrones, en el segundo (n = 2) 8 y en el tercero 14. Estos son los orbitales de que se habla en
química.
5.9 Otros principios cuánticos: el principio de superposición
La teoría cuántica es una teoría probabilística. No importa qué formulación se utilice, lo que la
teoría puede hacer es predecir la probabilidad de un resultado. Los posibles resultados están
determinados por una ecuación diferencial que en principio nos dice cómo evolucionará el
estado de un sistema físico. Al resolver la ecuación obtenemos lo que nos permite hallar la
amplitud de probabilidad asociada con cada uno de los estados posibles, representados ellos
por los valores propios asociados a esos estados. Dado un arreglo experimental para observar
determinada propiedad que puede tomar, por ejemplo, dos diversos valores con la misma
probabilidad de 50%, cuál de ellas se observe es completamente aleatorio, asumiendo que el
sistema físico en observación se ha preparado de la misma manera antes de hacer la
observación. El Principio de Superposición, al que dedica Dirac su primer capítulo (nosotros
haremos otro tanto) es la mejor herramienta.
La teoría contiene 4 postulados básicos que nos dicen cómo representar un sistema físico,
cómo dar cuenta de las observaciones, cómo llevar a cabo las medidas y cómo evoluciona el
sistema mientras no se mida u observe. Sin pretender desarrollarlo, nos referiremos
brevemente a ese formalismo que le da rigor matemático, independiente de las distintas
interpretaciones.
5.9 Un formalismo matemático
6 Acciones fantasmagóricas a distancia
6.1 Interpretación probabilística de la función de onda
Como se ha afirmado a lo largo de estas notas y se estableció como principio esencial de la
teoría, la mecánica cuántica se basa en probabilidades y no en predicciones exactas. Los
mismos principios básicos, a saber, el de indeterminación y el de dualidad, lo reafirman. El
principio de superposición lleva esta característica todavía más lejos. En esa medida, la
formulación en términos de una función de onda es más conveniente que la matricial, puesto
que la interpretación del cuadrado de la amplitud como probabilidad puede hacerse de
manera más natural y espontánea. La propiedad de superposición de las ondas, muy diferente
a la de localización de las partículas, despeja el camino para esa interpretación. Un caso
particular de superposición de ondas, el de las ondas estacionarias que se forman en cuerdas
(una dimensión), en membranas o tambores (dos dimensiones) o en instrumentos de viento
(tres dimensiones) nos permite llevar la analogía todavía más lejos para sistemas confinados.
Pero fue precisamente esa interpretación probabilística, enunciada genialmente por Born, no
aceptada inicialmente por los más destacados físicos del momento, la que generó agrias
polémicas en las que los actores principales fueron Einstein y Bohr. Recuérdese que el mismo
Schrödinger ingenuamente creyó que elaborar la nueva teoría con fundamento en la
formulación más general de la mecánica, conocida como hamiltoniana, podría liberar a la física
de los saltos cuánticos introducidos por Bohr.
La teoría cuántica es probabilística en sus propios fundamentos. Es, de hecho, una teoría de
probabilidades, no una teoría estadística, con un formalismo matemático peculiar. No hay una
escapatoria posible al manejo y procesamiento de probabilidades, independientemente de lo
que hagamos. La mecánica estadística desarrollada por Gibbs y Boltzmann también predice
probabilidades, pero en principio podría determinarse con precisión absoluta la trayectoria o
el comportamiento de cada una de las partes (masas puntuales, macromoléculas, etc.) o
componentes (subsistemas) si tuviéramos información completa sobre el sistema. De hecho,
se asume el valor de la posición y la cantidad de movimiento iniciales, por ejemplo, de un
conjunto de átomos y se estima qué pasará con ellos un poco después. El problema de la
mecánica cuántica es que tiene que renunciar por principio a tener información completa
sobre el sistema, debido al principio de Heisenberg, formulado en términos matemáticos
exactos en la no conmutatividad de dos variables canónicamente conjugadas.
La teoría cuántica tiene que renunciar pues, por principio, a conocer simultáneamente el valor
de la posición y la cantidad de movimiento de una partícula, o de cualquier pareja de variables
conjugadas, con mayor razón el de un conjunto de partículas. Es así como la teoría cuántica
difiere de otras teorías que utilizan probabilidades. En ciencias económicas, por ejemplo, no
hay teoría que establezca inequívocamente que no podemos conocer alguna variable al nivel
de precisión que deseemos. En este caso, las probabilidades representan nuestra carencia de
conocimiento, ignorancia que no proviene de una propiedad fundamental de la naturaleza.
Es precisamente la interpretación probabilística de la función de onda la que da un
fundamento más sólido a la denominada Interpretación de Copenhague. Esta se fundamenta,
esencialmente, en: el principio de incertidumbre, el principio de complementariedad y aquella
interpretación de la función de onda, la que con sobrada razón podría llamarse principio de
Born, para honrar a su gestor, o principio de probabilidad, precedido de un enunciado cuántico
de la probabilidad. Se sigue conociendo a secas como interpretación, aunque es mucho más
que eso. (Véase capítulo 10 de Enigma Cuántico.)
6.2 La incomodidad de Einstein
Es conocida la polémica que amistosamente mantuvieron Einstein y Bohr, particularmente
desde su encuentro en la famosa Conferencia Solvay de 1927. Pero el origen de la polémica se
remonta para Einstein a una época anterior.
Einstein era partidario de que había algo que le faltaba a la teoría cuántica, algunas variables
quizá, de tal manera que una vez pudiera encontrarse los valores de esas variables, la incerteza
o aleatoriedad desaparecería. Dicho de otra manera, abrigaba la esperanza de que una vez las
variables y las cantidades a determinar estuvieran en adecuada relación, el problema del
conocimiento insuficiente desaparecería. Surgieron así las teorías de variables ocultas, a las
que nos referiremos posteriormente.
Adicionalmente a su disgusto con la aleatoriedad y la probabilidad como características de una
teoría de la naturaleza, Einstein tenía otras concepciones sobre la realidad que había asimilado
desde muy joven. Creía en una teoría que pudiera reunir las dos características exhibidas por la
luz simultáneamente. Los conceptos de realidad y de localidad con que pudo desarrollar su
teoría de relatividad, eran muy acendrados. El segundo punto no tenía discusión para el padre
de la relatividad: si una señal luminosa no puede establecer relación de causa a efecto entre
dos fenómenos, ellos son totalmente independientes. En cuanto a la realidad de los
fenómenos, no tenía duda alguna de la validez de afirmaciones como éstas: si algo ocurre en
algún lugar, y podemos predecir su ocurrencia sin perturbar el sistema físico que lo exhibe, ese
es un elemento de realidad; si una partícula está localizada en cierta posición, y podemos
predecir que ocupará esa posición sin perturbarla, ese es un elemento de realidad; si una
partícula orienta su espín en cierta dirección, y podemos predecir que su espín apunta en esa
dirección sin perturbarla, ese es un elemento de realidad.
Para comprender mejor lo que no estaba dispuesto a aceptar de la teoría cuántica, a pesar de
ser una teoría muy precisa, estas eran sus convicciones acerca de lo que debería ser una
descripción adecuada de la naturaleza:
1. Los fenómenos fundamentales de la naturaleza deben poderse describir en principio
mediante una teoría determinista, aunque las lagunas en el conocimiento acerca de las
condiciones iniciales y en las condiciones de frontera puedan forzarnos a recurrir a la
probabilidad al hacer las predicciones acerca de los posibles resultados de las
observaciones.
2. La teoría debe incluir todos los elementos de realidad, para ser completa.
3. La teoría debe ser local: lo que ocurra aquí depende de elementos de la realidad aquí
presentes, y lo que ocurra en otro lugar dependerá de elementos de realidad que
deben localizarse allá.
Guiado por estos criterios, Einstein llega a la conclusión de que la teoría cuántica es una teoría
incompleta. Veremos, no obstante, que esos principios, aceptados por casi todo el mundo, son
incompatibles con la teoría cuántica, lo que no quedará del todo claro hasta después de la
muerte de Einstein, más exactamente en la década de los 60; la demostración experimental
solo pudo aportarse en la década de los 70 y posteriormente en forma incontrovertible. Con
ello, también se debilitaría la interpretación de Copenhague, aunque sigue siendo
predominante entre los físicos.
6.3 La Interpretación de Copenhague
El modelo de Bohr del átomo, aunque recibido con escepticismo por los más, era un comienzo
de explicación que se abría paso a pesar de lo atrevido de las hipótesis. Su mayor dificultad era
la imposibilidad de extenderlo a otros átomos. Aunque la hipótesis de Einstein del carácter
corpuscular de la luz no había sido aceptada todavía, en el modelo de Bohr funcionaba bien, al
igual que en la explicación del efecto fotoeléctrico. Como hipótesis heurística podría ser válida,
al igual que la hipótesis de los corpúsculos de materia que habían retomado los químicos un
siglo antes. Pasó una década antes de que hubiera un avance significativo; ese paso lo dio de
Broglie con su hipótesis de las ondas de materia. Pero las ondas de materia conducen, como ya
se ha señalado, a una indeterminación. La otra hipótesis del modelo, la cuantización de los
valores del momentum angular, conducente a la cuantización de las órbitas, no era menos
intrépida. Las dos, combinadas con las transiciones orbitales de las que participan los
corpúsculos de luz, garantizaban la estabilidad del átomo y explicaban el origen de las líneas
espectrales. La idea de de Broglie, aplicada a los orbitales electrónicos, encajaba bastante bien
dentro del rompecabezas. Los experimentos que vinieron después sobre la difracción de los
electrones allanaron el camino para la interpretación que finalmente se dio de esas hipótesis y
de la cual fue Bohr el máximo responsable.
Entre tanto, los encendidos debates entre los iniciadores de la revolución que se avecinaba
encontraron un espacio favorable en las denominadas Conferencias Solvay. Ernesto Solvay era
un físico belga pragmático, de gran éxito en la industria. Animado por otro físico, el alemán
Walher Nernst, organizó las conferencias que llevaron su nombre, la primera de las cuales se
realizó en 1911 en Bruselas. Einstein, Planck, Madame Curie y otros premios Nobel más
estuvieron allí presentes. La quinta versión de la conferencia, celebrada también en Bruselas,
ha sido la más famosa de todas: entre los 29 asistentes, 17 recibieron el premio Nobel. Pero lo
que la hizo inolvidable para la posteridad fue el duelo que se estableció desde el comienzo
entre Niels Bohr y Albert Einstein. De allí salió triunfante lo que se denominaría Interpretación
de Copenhague de la nueva teoría. (Por brevedad para esta primera versión de nuestro
ensayo no ahondaremos en detalles, los cuales se encuentran por doquier. Ver capítulo 10 de
QE.)
En palabras de Heisenberg, uno de los más notables participantes, este era el estilo del debate:
«Las discusiones pronto se centraron en un duelo entre Einstein y Bohr sobre el asunto de en
qué medida la teoría atómica en su forma actual podría considerarse una solución final a las
dificultades que se habían venido discutiendo por varias décadas. Generalmente nos
reuníamos primero en el desayuno en el hotel, y Einstein empezaba a describir un
experimento ideal que, según él, revelaba las contradicciones internas de la interpretación de
Copenhague.» Bohr trabajaría todo el día en encontrar una respuesta para Einstein, y al final
de la tarde le mostraría su contra-argumentación a Einstein en presencia de los seguidores de
su discurso, Pauli, Dirac y Heisenberg entre otros.
Los argumentos a favor y en contra de la teoría cuántica se intensificaron en la sexta versión
de las conferencias, en 1930. Aunque el tópico central fue el magnetismo, en los pasillos y
otros espacios los participantes, Einstein y Bohr entre ellos, continuaron el debate iniciado 3
años antes. Es famosa la ocasión en que Einstein, muy puntual en el desayuno, creyó haber
diseñado el experimento mental que daría al traste con la teoría: una caja con una abertura en
una de sus paredes y una compuerta controlada por un reloj. La caja, llena de radiación, se
pesa. La puerta se abre por un momento, dejando escapar un fotón. La caja se pesa de nuevo.
A partir de la diferencia de peso, se puede deducir la energía del fotón utilizando la fórmula de
Einstein. De esta manera, argumentaba Einstein, se puede determinar en principio, a cualquier
grado de precisión, tanto la energía del fotón como el tiempo de paso del mismo, dando al
traste con el principio de incertidumbre que se refiere al producto de la energía y el tiempo.
Como lo reporta Pais (1991), los participantes pudieron ver la expresión desencajada de Bohr.
Aparentemente esta vez no pudo encontrar una solución al desafío de Einstein. Esa tarde se
vio a Bohr yendo de uno a otro de los asistentes famosos, tratando de persuadirlos de que la
conclusión de Einstein estaba equivocada, mas no encontraba el argumento convincente. Si
Einstein estuviera en lo correcto, decía Bohr, sería el fin de la física.
Pero a la mañana siguiente vino el desenlace del duelo a favor de Bohr. Finalmente había
encontrado la falla del argumento de Einstein. Este habría fallado, al no tener en cuenta el
hecho de que, al pesar la caja, el resultado sería equivalente a observar el desplazamiento en
el campo gravitacional. La imprecisión en la medida del desplazamiento de la caja generaría
una incertidumbre en la determinación de la masa, por ende en la energía del fotón. Al
desplazarse la caja, se desplazará también el reloj dentro de ella. Ahora el reloj hará su tic-tac
en un campo gravitacional que es ligeramente diferente del que había inicialmente. El periodo
habrá cambiado con respecto al que había antes de ser pesado. Hay así una indeterminación
en la medida del tiempo. Esto permitía a Bohr asegurar que la relación de incertidumbre entre
el tiempo y la energía estaba a salvo. Haber utilizado la misma teoría de Einstein para
desmontar su argumento fue un golpe brillante.
El encuentro se dio una vez más en la reunión Solvay de 1933. Esta vez Bohr dio una
conferencia acerca de la teoría cuántica. Einstein siguió la argumentación cuidadosamente, sin
hacer comentarios. Cuando se inició la discusión con las preguntas, Einstein simplemente
invocó el sinsentido del significado de la mecánica cuántica. Leon Rosenfeld, un físico que
estuvo presente en los dos encuentros, confidente de Einstei , o e ta: Ei stei seguía
sintiendo el mismo desagrado de antes, cuando tuvo que confrontar las extrañas
o se ue ias de la teo ía. Fue e esta o asió ue t ajo a ue to lo ue se o stitui ía e su
a a ás o tu de te o t a la teo ía uá ti a. ¿Qué opina de la siguiente situación?,
i ui ió Ei stei a ‘ose feld. Asu a ue dos pa tí ulas se po e e o i ie to, en
dirección contraria hasta que se encuentran e interactúan por un corto tiempo. Un observador
que mida el momentum de una de ellas podrá deducir el de la otra. Si, en cambio, mide la
posición, podrá saber la posición de la otra. … El a gu e to es total e te lási o. Ei stei o
cambiaría de opinión. En la interpretación de Copenhague, las posiciones de las partículas no
cobran existencia hasta cuando se las observa. Todavía peor: al observar una y adquirir
realidad por este hecho, la otra también lo hará. (Véase capítulo 10 de Enigma Cuántico.)
(Para complementar los temas de este capítulo que vienen a continuación, remitimos al lector
a los capítulos 11, 12 y 13 de Quantum Enigma, en español o inglés.)
6.4 El contraataque de Einstein: EPR
Así, pues, el duelo continuaría. Einstein, quien pasaría por fuera de Alemania el resto de su
vida, se estableció ese mismo año en el Instituto de Estudios Avanzados de Princeton. Poco
después (1934), en compañía de Boris Podolsky, un ruso de origen judío a quien había
conocido 3 años atrás en Caltech, y con la participación de un joven físico americano de origen
israelí que le asignaron como asistente, emprendió su último gran ataque a la interpretación
ortodoxa de la teoría cuántica, alegando que era una teoría incompleta. En una carta a
Schrödinger al año siguiente le e pli a ía las azo es ue tu o, au ue el efe to fue ot o: Po
razones lingüísticas, el artículo fue escrito por Podolsky, después de una discusión prolongada.
Pero lo que yo realmente quería decir no fue bien entendido; en cambio, lo más importante
está oculto bajo el aprendizaje, como ocurrió efectivamente. A pesa de la i p esió de
Einstein en sentido contrario, el mensaje del denominado artículo EPR pa adoja EP‘, se
llamaría por mucho tiempo), en el que el trío utilizó el concepto de entrelazamiento para
cuestionar la completez de la teoría cuántica, se escuchó claro y fuerte en el mundo académico
de la física. (La respuesta de Bohr está bien documentada, y no la trataremos en esta versión
preliminar.)
Sabemos que dentro de la teoría cuántica, un sistema no se encuentra en un determinado
estado hasta que una medición se efectúa sobre este. Por ejemplo, justo antes que se mida el
espín de un electrón, este se encontrará en una superposición de los posibles resultados. La
paradoja de EPR atribuía la necesidad de incluir una realidad creada por el observador a una
insuficiencia en la descripción ofrecida por la función de onda. El argumento que ponía en
problemas a la interpretación de Copenhague estaba soportado en el entrelazamiento que
permitía conocer una característica de un sistema sin realizar una medida directa sobre este.
Ejemplificando esto de una manera tal vez simplista y muy clásica que más adelante será
aclarada, imaginemos dos objetos idénticos de diferente color, amarillo y verde, ahora
pongamos cada uno de estos en cajas iguales, acto seguido pidámosle a alguien más que las
cambie de lugar muchas veces de tal manera que ya no podamos recordar dónde ha quedado
cada objeto y finalmente procedamos a destapar cualquiera de las cajas, suponiendo que
encontremos el objeto amarillo, sabremos automáticamente que en la otra caja se encuentra
aquel verde.

6.5 Gatos de Schrödinger, de Wigner y de Wheeler
El descontento no era solo de Einstein. Los más antiguos padres de la nueva física compartían
un sentimiento común. En un famoso artículo, publicado en la revista alemana
Naturwissenschaften (Ciencias Naturales) en noviembre de 1935, titulado La situación actual
en la mecánica cuántica, Erwin Schrödinger manifestó también su malestar con la mecánica
cuántica y la interpretación de la escuela de Copenhague. Son muchos los textos que se
refieren a la absurda situación descrita por Schrödinger ilustrada con su famoso gato y en los
cuales se denomina paradoja. Su autor entendía que no se trataba de eso, era simplemente
una reflexión profunda muy bien ilustrada sobre las consecuencias de extender las
implicaciones de la teoría al mundo macroscópico. Por ahora le pedimos al lector (en esta
versión preliminar) que se documente bien sobre el asunto. (Un átomo, un frasco con veneno,
un martillo y un gato que duerme plácidamente encerrado en una caja.) Quizá este breve
video le sirva de ayuda, pero hay varios (https://www.youtube.com/watch?v=IOYyCHGWJq4).
Figura 6.1. El gato de Schrödinger, simultáneamente vivo y muerto. Reproducción de una de las
múltiples carátulas del best-seller I sear h of “ hrödi ger´s at , de John Gribbin (1984).

Si el lector reflexionó con detenimiento sobre lo que pasa, después de leer sobre la paradoja,
le habrá quedado claro que los gatos de Schrödinger no cazan ratones. Gell-Mann (1994)
simplifica la situación más o menos de esta manera: el gato de Schrödinger no es más
dramático que el gato transportado en un largo viaje interoceánico en el compartimento de los
equipajes; el propietario de la mascota se preguntará en el momento de ir a recibir el guacal si
su gato seguirá vivo o está muerto. De acuerdo con Gell-Mann y quienes le siguen, el problema
de Schrödinger es un típico problema de decoherencia cuántica. El gato es un sistema
macroscópico que además es biológico. Por esta razón, interactuará con el entorno en que se
encuentra fuertemente. Basta enumerar todas las actividades en que participa, incluso
mientras duerme: respira, absorbe y emite radiación y continúa con muchos otros procesos
vitales. En síntesis, la superposición cuántica, no observable directamente a nivel
microscópico, es imposible de mantener por encima de ciertos límites: la forma más fácil de
enunciarlo es decir que el estado de superposición, posible microscópicamente, colapsa a uno
de los estados posibles en la observación o proceso de medida. Si eso ocurre con un sistema
microscópico, ¿qué no ocurrirá entonces con objetos macroscópicos, en particular con tejidos
biológicos, para mencionar un caso de interés?
Con fundamento en la caja de de Broglie que mencionáramos en la discusión del experimento
de la doble ranura, Eugene Wigner (1902-1995) ideó un experimento que no plantea la muerte
del gato porque no hay cianuro, ni siquiera se tiene gato encerrado. Su propósito iba más allá
de la intención de Schródinger: sugerir una gran interrelación entre el observador consciente y
el mundo microscópico. Describimos y discutimos brevemente el experimento pensado por
Wigner.
Wigner sustituye al gato por una supuesta amiga, consciente, cuyo papel es registrar en su bloc
de notas el chasquido del contador geiger cuando detecta el átomo radiactivo. El colapso de la
función de onda tendrá lugar cuando el chasquido haya sido percibido. Yendo aún más allá en
las implicaciones, imaginó que la percepción consciente humana podría extenderse y cambiar
el estado físico de un sistema. Esto lo llevo a escribir una frase que resume su pensamiento:
Cua do el do i io de la físi a se a plió pa a a a a los fe ó e os i os ópi os a t a és
de la creación de la mecánica cuántica, el concepto de conciencia volvió a saltar a la palestra:
(ya) no era posible formular las leyes de la mecánica cuántica de manera plenamente
o siste te si i gu a efe e ia a la o ie ia. (Wigner, 1995.)
Afirmaciones como esta caen en el terreno de la interpretación de la mecánica cuántica,
problema del cual hemos intentado desligarnos hasta aquí. Hay que tener en cuenta que la
mecánica cuántica es un formalismo matemático y nada más. Hemos intentado resumirlo al
final del capítulo anterior. Los dos siguientes capítulos se refieren a ese problema, sin solución
aparente por ahora. Los avances experimentales en las dos últimas décadas del siglo pasado y
en lo que va corrido del presente siglo siguen fortaleciendo las predicciones de la teoría
cuántica, por absurdas que parezcan. Antes de poner punto final a este capítulo,
examinaremos brevemente las contribuciones de una nueva generación de físicos que
ayudaron a encender aún más el debate en torno a las candentes inquietudes planteadas por
la fenomenología cuántica.
David Joseph Bohm (1917-1992) fue, en el terreno de la cuántica, el heredero de Einstein. Su
más valiosa contribución a la física lleva su nombre y el de otro físico famoso, Yakir Aharonov
(1932-) a quien dirigió su tesis doctoral: efecto Aharonov-Bohm. La predicción teórica, hecha
independientemente por ellos en 1959, había sido previamente anunciada por Werner
Ehrenberg y Raymond Siday y confirmada poco después de la publicación de Aharonov y
Bohm. Puede tomarse como la primera evidencia experimental de efectos no locales en la
fenomenología cuántica. Bohm tiene también el mérito de haber puesto, en su texto de
mecánica cuántica publicado por primera vez en 1951, la mal llamada paradoja EPR en una
perspectiva cuántica: el entrelazamiento de dos átomos (o 2 electrones) que han sido
producidos simultáneamente con espines opuestos, pero de cuyo valor se tiene completa
ignorancia, por tanto cada uno de ellos puede tomar cualquier orientación a condición de que
el otro lo tenga en dirección contraria. Desde entonces se hace referencia a experimentos tipo
EPRB, correspondiendo la B a Bohm, por supuesto. Tendremos que volver a Bohm cuando
hablemos de las teorías de variables ocultas, tan importantes para el teorema de Bell,
discutido al final de este capítulo. (Véase: http://plato.stanford.edu/entries/qt-epr/)
En su libro Entanglement (2001), Amir D. Aczel nos habla del gato de Wheeler. John Archibald
Wheeler (1911-2008) es, con Richard Feynman (1918-1988), representante de la generación
de físicos teóricos norteamericanos comparable a la generación europea de 1900. Profesor
emérito de la Universidad de Princeton, vivió cerca a la residencia de Einstein. Nos cuenta
Aczel que el gato de Wheeler frecuentaba la casa de Einstein, de tal suerte que los dos podían
comunicarse por teléfono acerca de la ubicación del gato de Wheeler. Era frecuente que uno y
otro hablaran por teléfono, el uno para preguntar, el otro para informar acerca de la ubicación
del gato. Evidentemente este no era un gato de Schrödinger, pero pudo serlo en el momento
en que estuviera simultáneamente en la casa de Wheeler y en la casa de Einstein. Eso solo
podría ocurrir, de ser un gato cuántico, cuando ninguno de los dos físicos lo estuviera
observando. Pero este personaje es solo un gato clásico, el de la aparente paradoja.
Gran parte de su formación, Wheeler la heredó de Bohr. De la misma manera, puede afirmarse
que Feynman se formó con el primero, quien dirigió su tesis de doctorado, postergada hasta
1942 a causa de la primera guerra mundial. La tesis de Feynman es su versión de la teoría
cuántica: por simplicidad, podría llamarse representación integral, y la de Heisenberg
simplemente representación matricial. Se dice que cuando Wheeler, orgulloso de la hazaña de
su pupilo, se la e señó a Ei stei , este epli ó: Toda ía o eo ue Dios juegue a los dados…
pe o pod ía se ue te ga el de e ho a o ete is p opios e o es.
La electrodinámica cuántica (QED) nació de la representación de Feynman; la formulación
relativista de la teoría fue lo que le dio fuerza, así como la hipótesis de la existencia de anti-
partículas, propuesta por Dirac como resultado de su versión relativista. El descubrimiento del
positrón hecho por Carl Anderson en 1931 fue uno de los más resonantes éxitos de Dirac. En
1946, Wheeler propuso que el par de fotones que se producía cuando el par electrón-positrón
se aniquila podría usarse como una comprobación de la validez de la QED. Esos dos fotones, de
acuerdo con la teoría, tienen polarizaciones ortogonales: si uno tiene polarización vertical, el
otro ha de tenerla horizontal. En 1949 Chien-Shiung Wu, conocida familiarmente como
Madame Wu, realizó conjuntamente con Irving Shaknov el experimento propuesto por
Wheeler: materializaron el positronio, elemento artificial hecho de un electrón y un positrón
revoloteando uno alrededor del otro; su tiempo de vida es de alrededor de un centenar de
nanosegundos. Más allá de confirmar la hipótesis de Wheeler, el experimento fue el primero
en la historia en producir fotones entrelazados, de tanta importancia en las investigaciones del
presente. Wheeler hizo muchos otros aportes de relevancia en los campos de la teoría de
gravitación y de la cosmología
(El autor tiene otras anécdotas que contar, pero las aplaza por cuestión de prioridades.)
6.6 El experimento de elección retardada
El verdadero gato de Wheeler sí es rigurosamente cuántico. En un famoso experimento
pensado, propuesto en el artículo que tituló Ley sin ley (Law without law, Wheeler, 1983),
Wheeler propone una brillante modificación del experimento de Young de las 2 ranuras y
demuestra que, con el solo acto de medir, el experimentador puede cambiar la historia. Con el
acto de decidir si se quiere medir una cosa o la otra, el observador puede determinar qué
debería haber sucedido en el pasado. Adaptado del artículo de Wheeler, Aczel describe el
experimento más o menos en los siguientes términos, después de revisar el famoso
experimento de la doble rendija.
En un diseño tipo diamante, se hace incidir luz de una fuente sobre un espejo semiplateado, de
tal suerte que la mitad de la intensidad es reflejada y la mitad transmitida, como ocurre
usualmente. Cada uno de los dos haces en que se divide el haz original se hace reflejar luego
en sendos espejos y se obligan a cruzarse de nuevo para ser detectados, bien
simultáneamente, como en el interferómetro de Fabry-Perot, mediante otro espejo
semiplateado que los obliga a producir franjas de interferencia, o separadamente, mediante
una celda fotoeléctrica.
Figura 6.2. Esquema del experimento propuesto por Wheeler. El haz original de intensidad I se divide en
dos con la mitad de intensidad, 2a y 2b, reflejándose cada parte en los espejos A y B respectivamente.
Los dos rayos reflejados se encuentran de nuevo. En el cruce se puede indagar por la procedencia del
fotón que llega (figura de la izquierda, 1 a la vez, como en el experimento fino de la doble rendija con
electrones), o por la forma en que interfiere el fotón consigo mismo (figura de la derecha,
materializándose en la interferencia de dos haces).

Muchos otros aportes de Wheeler sirvieron para avanzar en las profundidades de los
misterios cuánticos. A ellos volveremos después.
6.7 Las variables ocultas
Para mostrar el caso cuántico del entrelazamiento tomemos un sistema más curioso, dos
fotones idénticos entrelazados en su polarización. Este tipo de configuración se logra cuando
un electrón de un átomo es excitado a un nivel de mayor energía y vuelve a su estado base
mediante saltos emitiendo dos fotones en ese proceso. Actualmente, los laboratorios de
mecánica cuántica obtienen estos estados usando un tipo especial de cristales no lineales que
permiten un proceso conocido como conversión paramétrica espontánea en el que se
obtienen dos fotones de baja frecuencia a partir de uno de mayor frecuencia.
Diga os aho a ue uest a edi ió se efe tua á ie sea e u a di e ió e ti al V o e su
o espo die te o togo al, ho izo tal H ue el estado está p epa ado de tal a e a ue si
un fotón tiene polarización vertical, el otro debe tener horizontal. Cada uno de los fotones se
encontrará con el polarizador en puntos muy separados entre sí y, incluyendo a los
tradicionales Alice y Bob, supongamos que Alice realiza la medición unos cuantas fracciones de
segundo antes ue Bo e ue t a su fotó e estado H , i ediata e te puede o o e se
el estado que medirá Bob. Uno podría verse tentado a seguir la idea de que, sencillamente, las
polarizaciones siempre fueron esas desde un principio y que el medirlas simplemente reveló
algo que ya estaba ahí. Esto podría también conducir al lector a pensar que no existe ninguna
diferencia esencial entre el ejemplo clásico y el cuántico de entrelazamiento pero el quid de la
cuestión reside en que en el caso cuántico se afirma que la medición de Alice sí influenció a la
de Bob lo cual entraba en contradicción con la relatividad especial dentro de la cual la
información no podría viajar más rápido que la luz desafiando la concepción de localidad de
u a edi ió , e to es ¿ ó o supo el fotó de Bo ue de ía e o t a se e el estado V ?.
Einstein afirmaba de acuerdo a los resultados de este experimento que un elemento de
realidad, cuyo valor puede ser predicho con total certeza prescindiendo de una medición, le
correspondía a la polarización de los fotones. Si estas características físicas, también llamadas
variables ocultas, podían existir independientemente de su observación y la teoría cuántica no
las incluía, por consiguiente estaba incompleta.
6.8 El Teorema de Bell
John Bell fue el encargado de ponerle fin a la controversia Bohr-Einstein y con unas cuantas
líneas en un corto artículo publicado en 1964 demostró que ninguna teoría de variables
ocultas, en la que dos objetos separados a una distancia desde la cual lo que le sucede a uno
no puede afectar de manera instantánea al otro, podía predecir el comportamiento de las
correlaciones cuánticas entre dichos objetos. Derivó una desigualdad que algunas de esas
correlaciones no satisfacen que derogaba la idea de la localidad en el comportamiento de la
naturaleza.

Este tipo de desigualdades puede entenderse mediante un experimento mental, que sólo será
una ilustración del sentido práctico de una desigualdad tipo Bell, con nuestros ya conocidos,
Alice y Bob. En este escenario se cuenta con una fuente de fotones idénticos en polarización
lineal, se desconoce el ángulo de polarización pero estamos seguros de que es el mismo para
ambos. Alice y Bob se encuentran en lados opuestos de la fuente cada uno con un analizador
(polarizador) orientado a un ángulo , medido con respecto a la horizontal, en sentido opuesto
al del otro y dos detectores, uno para aquellos fotones que se transmiten y otro para los que
son absorbidos. Para cada fotón, dos posibles situaciones pueden ocurrir; que sea transmitido
o absorbido. Que Alice incline su polarizador dicho ángulo cambiará la relación de fotones
transmitidos o absorbidos en un dado porcentaje y sucedería con los de Bob en igual
magnitud. Cuando el experimento termine y se observe el registro de los resultados de Alice
comparados con los de Bob, de acuerdo a la física clásica, se esperaría encontrar que la razón
de coincidencias en cada analizador sea equivalente al doble de aquel resultado obtenido en
experimento en donde sólo uno de los analizadores esté inclinado a . Sin embargo, sería
posi le e o t a u a tasa a o de ido a a uella i flue ia fa tas a de u fotó so e su
par idéntico. Cabe aclarar aquí el concepto de coincidencia, que puede entenderse como la
situación que se da cuando los fotones llegan al mismo tiempo a su respectivo analizador y
ambos son transmitidos.

En su momento, John Bell planteaba un experimento poco práctico porque involucraba el


espín del electrón. Sin embargo con el aporte, cinco años después, de Clauser, Holt, Shimony y
Holt (CHSH) que generalizaron el teorema para permitir aplicarlo a fotones y con la llegada del
láser a los laboratorios a finales de los 70s fue posible probar el teorema experimentalmente.
Experimentalmente, un proceso típico de esta naturaleza consiste en tomar una fuente de dos
fotones entrelazados y seleccionar dos bases diferentes para cada analizador de fotones; una
base no es otra cosa que dos orientaciones perpendiculares, por ejemplo para uno de ellos,
horizontal y vertical y, y , ambos ángulos medidos con la horizontal.
Previamente mencionamos unas correlaciones que violan la desigualdad de Bell, ¿cómo se
miden en este caso? Tomando una base para medir cada fotón y encontrando el número de
coincidencias para diferentes configuraciones de cada polarizador. Estas cuentas de
coincidencias se traducen en probabilidades y finalmente, la correlación será una relación
lineal entre estas probabilidades. Como contamos con dos bases para cada fotón, son posibles
cuatro distintas combinaciones entre estas y por lo tanto, cuatro correlaciones. Finalmente, la
versión CHSH establece que la suma de tres de estas correlaciones menos la sobrante debe ser
menor o igual a dos pero al computar los resultados experimentales se encuentra que este
límite se sobrepasa. El experimento pionero que evidenció los aspectos mencionados, fue
realizado por Alain Aspect y su equipo en 1981 en Francia, en el cual se sobrepasaba el límite
por más de cuarenta desviaciones estándar alcanzando un valor de .

(Esta sección debe complementarse con el capítulo 13 de QE.)


7 De vuelta a la filosofía natural
(Una buena parte de lo que aquí irá se encuentra en el texto del autor Unos cuantos para todo,
disponible para quien lo solicite, en su versión electrónica.)
8 Interpretaciones múltiples
(Este capítulo recogerá las distintas versiones de la QM en sus aspectos conceptuales. Un
primer acercamiento se logra en QE.)
APÉNDICE

Un abreboca a las dos grandes teorías deterministas


1. Mecánica
2. Electrodinámica
3. Ondas y Campos
I. LA MECÁNICA
Introducción
En lo que sigue nos limitaremos esencialmente a la dinámica de una masa puntual,
supuestamente la más fácil de entender, para contrastar los resultados o predicciones con el
comportamiento de los objetos cuánticos, predichos por esa teoría. El concepto de masa
puntual es una idealización que consiste en suponer que el objeto bajo estudio no tiene
dimensiones; más rigurosamente, para extender el concepto a lo que después llamaremos
punto cuántico, es un sistema de cero dimensiones. En la práctica, lo que queremos decir con
masa puntual es que la descripción del objeto bajo estudio la podemos hacer limitándonos a
su centro de masa, un promedio aritmético de su posición (rigurosamente un vector, es decir,
dado por 3 números que pueden ser sus coordenadas cartesianas, x, y, z).
Aunque usualmente se asume que masa es lo mismo que cantidad de materia, en física ese
concepto está relacionado con la inercia de un cuerpo, su capacidad y tendencia a mantener el
movimiento que por una u otra causa ha adquirido. El cambio de ese movimiento conlleva a
otro concepto fundamental, el de fuerza o interacción. Mucho va de Arquímedes a Newton.
Para el primero parecía suficiente el concepto de fuerza muerta, la que mantiene la estructura
y por ende la estabilidad. El problema para Arquímedes se reduce al equilibrio. Por el
contrario, para Newton el problema es romper el equilibrio, lo que conlleva a la aceleración
del objeto. Para este, una fuerza neta es la que produce una aceleración, y la relación entre las
magnitudes de la primera y la segunda es precisamente la masa. Si la masa inercial es grande,
el efecto de la fuerza en términos de la aceleración es pequeña.
El campo de la mecánica como ciencia predictiva cambia con el tiempo. Lo primero que
amerita predecirse, por su utilidad práctica, y porque resulta relativamente sencillo bajo
ciertas condiciones, es el movimiento. El cerebro de un niño se va desarrollando para que
pueda controlar los suyos a voluntad. Si no logra hacerlo, tendrá limitaciones en su desarrollo
neuronal. Cuando dos vehículos están en marcha, uno frente a otro, se percibe con facilidad la
relatividad del movimiento. No obstante, espontáneamente intentamos asignarle un sentido
absoluto que no tiene. El movimiento es engañoso, precisamente porque es relativo. En
muchos deportes, una pelota al vuelo debe ser alcanzada y golpeada adecuadamente por un
deportista también en movimiento. El éxito empieza por la precisión alcanzada en el giro o
movimiento que se le debe imprimir. Algo similar ocurre en el billar y otros deportes.
En la antigüedad, el movimiento en los planos inclinados u horizontales (plataformas), el
desplazamiento mediante palancas, poleas, barras, cuerdas, cintas elásticas y resortes o
muelles era lo importante. La hidráulica y la neumática eran parte de ella. Las olas y las ondas
mecánicas también podrían causar movimiento. A pesar de que nadie la entendiera, como
ocurre hoy con la mecánica cuántica, desde muy antiguo se empezó a utilizar el efecto de la
atracción gravitacional, del caudal de las aguas, del movimiento del aire. Se aprendió, con más
intuición que razonamiento, a utilizar el movimiento de los astros. De manera similar, hoy en
día sabemos aprovechar a voluntad el movimiento de los electrones, de los huecos que
resultan de la ausencia de electrones en los semiconductores y de la luz (de los fotones): esto
ha dado lugar a la optoelectrónica, un campo por fuera de la física clásica.
Observar o deducir que los cuerpos celestes cumplen las mismas leyes de los objetos terrestres
fue un avance formidable. Aunque estos últimos siguieron siendo importantes, el centro de
atención de la mecánica teórica, como podríamos llamarla, se desplazó hacia esos objetos
lejanos y desconocidos; la síntesis de todo aquello en la mecánica newtoniana, previamente
formulada en las 3 leyes de Kepler, fue el primer gran triunfo predictivo de la ciencia moderna.
Aunque el concepto de fuerzas o interacciones a distancia estaba vagamente en la descripción
del equilibrio y cambio de movimiento, el desconocimiento del carácter relativo de este último
dificultó reconocer que no es necesaria una fuerza para mantenerlo. Fue Newton quien
visualizó más claramente la acción a distancia, en su observación y descripción detallada del
movimiento planetario mediante la fuerza gravitacional.
Newton era consciente de la importancia de las fuerzas eléctricas y magnéticas, acciones que
podían ocurrir a distancia, como la acción de la gravedad. Pero los fenómenos
electromagnéticos, como les llamamos hoy, son más complejos. Fue después de poder
sintetizar las ideas centrales de las interacciones electromagnéticas cuando surgió el concepto
de campo. Sobre esto volveremos en el siguiente apéndice.
Dejemos de lado los complejos fenómenos de los fluidos y de la termodinámica, en apariencia
sencillos, para concentrarnos en el movimiento planetario, o de la luna alrededor del sol,
cercano al movimiento que deben tener los electrones en los átomos, particularmente en el
átomo más sencillo de todos, el hidrógeno. Fue precisamente estudiando u observando el
movimiento de la luna alrededor de la tierra como Newton llegó a formular su teoría de la
gravitación universal, pieza clave para sintetizar en 3 sus Leyes del Movimiento. En su estudio,
la luna es una masa puntual.
Principio de inercia
El principio de inercia es abordado y enunciado en todos los textos de física. Es conocido
también como primera ley de Newton. Algunos lo interpretan como corolario de la segunda ley
de Newton en ausencia de fuerzas. Nosotros preferimos seguirlo llamando principio. Su
enunciado es casi elemental: todo objeto continúa moviéndose uniformemente (con la misma
velocidad, entendida esta como un vector) mientras no interactúe con otros.
Hay que hacer varias aclaraciones con respecto a esta afirmación. La primera es que Newton y
Galileo lo enunciaron de diferente manera. La más cercana a la nuestra es la del primero,
quien habla de un cuerpo en reposo o movimiento rectilíneo uniforme y de fuerzas exteriores
que lo modifican. En la forma en que nosotros lo hemos enunciado, está implícito otro
principio, atribuido a Galileo. Dejando de lado muchas sutilezas que no vienen al caso para los
propósitos del presente ensayo, señalemos que este está relacionado con otro asunto que
aparentemente pasó desapercibido hasta cuando él lo examinó a fondo: el movimiento es
relativo. Fue precisamente Galilei quien empezó un estudio sistemático del movimiento, a
partir del movimiento sobre planos horizontales e inclinados, posteriormente el de caída libre
y el movimiento de proyectiles. Este último ilustra muy bien la relatividad del movimiento. Si
un ave vuela horizontalmente, agreguemos que con velocidad uniforme, llevando en su pico
una presa y suelta ésta, la presa o el objeto caerá en movimiento parabólico desde el punto de
vista de un observador en tierra, no para el ave, que la verá caer en línea recta si continúa su
vuelo uniforme horizontal. Podemos descomponer el movimiento del objeto en dos: el
horizontal y el vertical. Aparte de ilustrar el principio de relatividad, este procedimiento nos
permite hablar del proceso inverso, la composición del movimiento, en general las 3
componentes que en el espacio habitual se le pueden asignar, X, Y y Z.
Otro aspecto a destacar, esencial por las condiciones en que se cumpliría el principio y que a
menudo se olvida, es este: ¿hay algún objeto en el universo que no interactúe en cada instante
con muchos otros, así sea leve o sutilmente? Evidentemente es imposible aislar por completo
cualquier sistema bajo estudio. A lo más que podemos aspirar es a que muchas de las diversas
interacciones se neutralicen y a que otras más sean imperceptibles. Eso quiere decir que nadie
ha podido comprobar rigurosamente la validez de la primera ley o sobrepasar la barrera de
enunciar una verdad que no se puede demostrar, como si se tratara del teorema de Gödel
aplicado a la física experimental.
Movimiento relativo y sistemas de coordenadas
Por simplicidad, pues, aceptemos que el movimiento es relativo. A esto debería agregarse que
hay sistemas de referencia o ejes de coordenadas, con respecto a los cuales se especifica una
posición del cuerpo u objeto bajo estudio u observación, posición que al variar determina la
velocidad. Hoy es fácil reconocer que no hay un sistema de referencia absoluto, lo cual
equivale a decir que el éter no existe. Es preferible postular que hay sistemas de referencia
inerciales, aquellos en los cuales se cumple el principio de inercia, y que todos esos sistemas
son equivalentes. Si se habla de fuerzas exteriores, como aclara Newton, es porque se asume
que también hay fuerzas interiores, y eso nos lleva a la tercera ley, que garantiza el equilibrio
entre las partes que componen un sistema mecánico. Cada parte del sistema puede ser objeto
de observación. Newton introdujo varias definiciones en sus Principia. Ellas ayudan a entender
el enunciado de sus leyes, en cada una de las cuales se hace indispensable hacer referencia a
las otras. Reinterpretándolo, una de esas definiciones bien podría referirse a la masa puntual,
idealización que lleva a imaginar que el objeto bajo estudio se reduce a un punto matemático.
Esto es válido para el movimiento de traslación. Asociado con él, se introduce una cantidad
dinámica de suma importancia, a saber, la cantidad de movimiento lineal. Cuando hablemos de
giros o rotaciones, tendremos que referirnos a otra cantidad dinámica, la cantidad de
movimiento angular. Definiremos estas cantidades más adelante, aunque el lector bien
informado ya tendrá elaborado un concepto sobre ellas.
Como corolario, diremos que para cambiar el movimiento de un objeto, debemos
i pulsa lo . Esto os lle a e esa ia e te a la “egu da Le de Ne to . E el siste a ás
sencillo en que podemos observarlo antes de perturbar su estado, estará en reposo, y hay que
hacer una fuerza sobre él para desplazarlo. Así lo entendieron las culturas primitivas, los
presocráticos y otras culturas o civilizaciones que vinieron posteriormente.
Desafortunadamente la experimentación no fue la característica principal del platonismo y el
aristotelismo. Esto llevó a una imagen del mundo totalmente equivocada. Las malas
interpretaciones surgen de la concepción que tenemos sobre el universo, generalmente
geocéntrica., o si se quiere, antropocéntrica. Un apéndice no es el espacio adecuado para
examinar los mil quinientos y más años que vinieron después en occidente y preservaron una
noción o concepto equivodado. Un punto de partida diferente fue el adoptado por Galileo y
Kepler, retomado por Newton. Surgieron así leyes del movimiento basadas en la observación
meticulosa del movimiento planetario, guiado ahora por el telescopio. (Weinberg, 2016.)
El cambio de paradigma llevó a identificar como fuerza todo lo que actúe sobre un objeto, esté
en reposo o en movimiento. Si un objeto se detiene, es porque actúa una fuerza sobre él. Pero
si esto es válido, entonces podemos concluir que hay múltiples y variadas acciones por doquier
que se oponen al movimiento de los objetos. Identificar los causantes o responsables de las
fuerzas no es entonces tarea fácil. No obstante, con los avances del último siglo la tarea se
simplifica.
Fuerzas en la naturaleza
Afortunadamente esa tarea de identificación de fuerzas, a nivel fundamental condujo a lo que
se denominan fuerzas o interacciones fundamentales. Aunque inicialmente no se la vio de esa
manera, la gravitacional es una de ellas. Todo cuerpo que tenga masa, y antes del
descubrimiento del fotón no se sabía de alguno que no lo tuviera, salvo algunas sustancias
imponderables que resultaron ser imaginarias, ejerce una atracción gravitacional sobre otra.
Desde muy antiguo se conocen las interacciones eléctricas y magnéticas, pero hasta el siglo
XVII fueron más bien arte de magia. A mediados del siglo XIX se logró algo maravilloso:
descubrir que las interacciones eléctricas y magnéticas, o más bien, los fenómenos eléctricos y
magnéticos están estrechamente relacionados. Por eso hoy hablamos de la interacción o
fuerza electromagnética. Pero con el descubrimiento de la radiactividad y del núcleo se
descubrieron también otras interacciones fundamentales, la débil y la fuerte.
Habría pues 4 interacciones fundamentales, a saber: gravitacional, electromagnética, débil y
fuerte. Mas, como hemos anticipado, se ha avanzado también en otro proceso que se inició en
el siglo XIX. Así como las fuerzas eléctricas y magnéticas finalmente se unificaron en una sola,
finalmente, en la segunda mitad del siglo XX se unificaron las interacciones electromagnética y
débil en la denominada electro-débil. No ahondaremos en este asunto, pero agreguemos que
Einstein dedicó la mayor parte de su vida a la unificación de la gravedad con las otras fuerzas,
en particular la electromagnética: vano intento. La gravedad continúa siendo la más sutil de
todas las interacciones. La electromagnética, la más importante. Las ondas electromagnéticas
fueron producidas en el laboratorio en la segunda mitad del siglo diecinueve. Cuando estas
notas se revisan (Febrero, 2016), se ha anunciado finalmente la verificación de la hipótesis
básica de Einstein: detrás de la interacción gravitacional también hay ondas gravitacionales.
Pero para detectarlas no solo se requieren sofisticados equipos; es necesario observar
acontecimientos que difícilmente se dan en el universo, como es la colisión entre 2 agujeros
negros.
Volvamos a la manifestación de fuerzas en la vida cotidiana. Es debido principalmente a
fuerzas eléctricas (o electrostáticas, en primera aproximación) que se mantiene la cohesión
entre las partes de los objetos sólidos y, aunque solo parcialmente, en los líquidos. Un objeto
que se acerque a su superficie, invariablemente es atraído o repelido: son fuerzas
electroquímicas, de origen eléctrico o electromagnético. Rigurosamente hablando, es
imposible eludir a estas fuerzas, si bien en ciertos casos se vuelven insignificantes. Las que
mencionábamos en la introducción, debidas a cuerdas o resortes por ejemplo, también las de
rozamiento y fricción, son de carácter eléctrico. Al igual que la gravitacional, en general van a
depender de la separación entre las partes. En ocasiones dependen también de la velocidad,
como se ilustrará en el segundo apéndice.
Aunque no son de la vida cotidiana, las fuerzas nucleares sí se manifiestan permanentemente
y dan lugar a objetos (partículas) que influyen sobre los seres vivos de todo tipo,
modificándolos en ocasiones genéticamente, para bien o para mal. Tampoco examinaremos
este asunto.

Figura I.1. Ilustración de la posición y del desplazamiento en 2 dimensiones.

Posición y velocidad como vectores


Describir la posición de un objeto y su desplazamiento es la tarea de la cinemática. El
movimiento generalmente se hace en forma curvada. Las figuras I.1 y I.2 ilustran el
movimiento en 2 dimensiones (en el plano) de una masa puntual, m. En un instante de tiempo
que denominaremos t, el objeto ocupa una posición x(t). La escribimos así por simplicidad; la
hubiéramos podido denotar r(t) o, como en la figura, una flecha encima que indica su carácter
vectorial. Las cantidades relacionadas con la posición, como el cambio de posición en el
tiempo, que es la velocidad, y el cambio de velocidad, denominado aceleración, son cantidades
vectoriales. No precisaremos la definición matemática de un vector, concepto que se
generalizará en el texto (Capítulo tercero y siguientes), cuando hablemos del denominado
vector de estado.
Es más fácil hablar de las componentes X y Y de un vector en el plano. En el espacio, se
agregará la coordenada z y la componente Z del vector asociado. A las direcciones o
componentes X y Y asociaremos respectivamente vectores unitarios i y j. Para la dirección Z, se
suele utilizar el símbolo k para el vector unitario asociado. De la figura I.1b es claro que
podremos escribir:

x(t) = x(t)i + y(t)j.

Cuando trabajemos con los vectores de estado, esta técnica permitirá expresar en términos
matemáticos el principio de superposición. La suma de vectores en la forma clásica indicada es
el punto de partida para la superposición de estados en la mecánica cuántica.

Un poco más tarde (tan cerca como queramos del instante t), en el instante t+t, el objeto o
masa puntual se ha desplazado a su nueva posición x(t+t):

x(t+t) = x(t+t)i + y(t+t)j.


La velocidad, una cantidad clásica vectorial que se suele designar por v, es la evolución con el
movimiento de la posición de un objeto: es el cambio de posición en el tiempo.
Evidentemente, es una cantidad referida a un determinado observador, es decir, relativa. La
Tierra se mueve con respecto al Sol, pero no podemos decir lo mismo respecto de nosotros, al
menos cuando estamos anclados a ella. Cuando la masa puntual m se desplaza a lo largo de la
curva (trayectoria) mostrada en la figura I.1 o la mostrada en la figura I.2, además de su
posición en cada instante de tiempo debemos suministrar su velocidad en cada punto,
también para cada instante de tiempo, si queremos describir su movimiento; le llamaremos
velocidad instantánea, o simplemente vector velocidad v. Más explícitamente, v(t); su
orientación, por definición, es la de la tangente a la curva que describe la trayectoria en el
punto considerado, como se ilustra en la figura I.2.

La relación entre el desplazamiento xy el intervalo de tiempo t, cuando ese intervalo es
suficientemente pequeño, es matemáticamente la velocidad instantánea. Como el concepto
es un poco abstracto, refirámonos primero a la velocidad promedio o rapidez media.

Y P El vector velocidad media, se


define como el cociente entre
el vector desplazamiento x y
el tiempo t empleado en el
desplazamiento:
x X1

El vector velocidad media tiene


P´ la misma dirección que el
vector desplazamiento, es
X´ decir, la secante (tangente en
el límite t → que une los
´´ puntos P y P´ cuando se calcula
la velocidad media <v1> entre
los instantes t y t´.
Para pasar a la velocidad
instantánea, o simplemente
vector velocidad, es necesario
X calcular la relación anterior en
el límite, cuando el intervalo de
tiempo se hace tender a cero.

Figura I.2. Ilustración del vector velocidad (variación del vector de posición) para 2 posiciones
diferentes. El vector velocidad, o velocidad a secas, es siempre tangente a la trayectoria del móvil.

La posición exacta suele darse por simplicidad, aunque no siempre, por las llamadas
coordenadas cartesianas de un punto matemático (x,y,z) y suele representarse por el vector
(tridimensional) r; en ocasiones es mejor hacerlo mediante las denominadas coordenadas
esféricas (r, , ), siendo r la magnitud del vector de posición, r,  el ángulo que forma la
dirección de este vector con el eje z, y  el que forma su proyección sobre el plano XY con el
eje x, pero no es necesario ahondar en el tema. La medida de la rapidez media, magnitud de la
velocidad promedio <v> (o <v>), es la relación entre el desplazamiento o espacio recorrido
(s), denotémoslo por Δs, y el tiempo (t) empleado para recorrerlo, designémoslo por Δt: v =
Δs/Δt. El espacio recorrido depende del intervalo de tiempo medido, pero la relación lo es
menos si el intervalo de tiempo es pequeño. Asumimos que en t la posición es r, en t1 r1 y así
sucesivamente: en t’ es r’. Limitémonos de nuevo, por simplicidad, al plano XY para ilustrarlo.
Cuando se tiene el vector velocidad para cada instante de tiempo, v(t), es fácil trasladar la
información al espacio de velocidades. El origen en dicho sistema es el reposo. Las unidades
para la velocidad en el sistema MKSA (metro·kilogramo·segundo·amperio) son m/s (metros
sobre segundo), o mejor, ms-1. Más que el espacio de velocidades, se suele hablar del espacio
de momentos o de cantidad de movimiento. A este concepto volveremos en la siguiente
sección.
El símbolo Δ a menudo se emplea para indicar que se hace referencia a cantidades
minúsculas. Esto es muy conveniente, porque se pueden, en principio, observar los cambios
que se producen de un instante de tiempo al siguiente, sin precisar el lenguaje: aceptemos, sin
más, que el tiempo fluye en forma continua; y que la línea (curvada o no) que representa la
trayectoria es una sucesión continua de puntos. Si no cambia por lo menos una de las
componentes de la posición del objeto, no hay movimiento.
Aceleración, cambio en la cantidad de movimiento e impulso dado por una fuerza
Introduzcamos ahora el concepto de aceleración. Su importancia mayúscula reside en la
relación que tiene con las fuerzas o interacciones: no habrá aceleración en ausencia de estas.
Ésta es el cambio de velocidad, exactamente en la misma forma en que velocidad es el cambio
de posición: a es, pues, un vector: vector aceleración. Precisémoslo un poco más, siguiendo la
figura.
Si en el instante t el objeto móvil se encuentra en P y tiene una velocidad v, cuya dirección es
tangente a la trayectoria en dicho punto, como ya dijimos, y en el instante t' el móvil se
encuentra en el punto P' y tiene una velocidad v', en general ese objeto habrá cambiado su
velocidad tanto en módulo como en dirección en una cantidad dada por el vector diferencia
v=v’-v. Trasladando los vectores velocidad a un espacio imaginario de velocidades, se
traslada el vector (velocidad final) al extremo de –v y tendremos lo que se ilustra a
continuación para el cambio de velocidad (aceleración), aplicando lo que denominan regla del
paralelogramo:

-v

Δv

Se define la aceleración media como el cociente entre el vector cambio de velocidad v y el


intervalo de tiempo t=t'-t, en el que tiene lugar dicho cambio: <a> = v/t. La aceleración
instantánea a se define mediante un proceso de límite que para esta breve introducción no
nos interesa precisar. La aceleración lleva la dirección del cambio de velocidad y en general
tiene dos componentes: una tangencial, debida al cambio en la magnitud, y otra normal o
perpendicular a la curva (tangente) que hace la trayectoria en el punto considerado.
Para efectos dinámicos, más que a la simple velocidad, tiene más sentido referirse a la
cantidad de movimiento o momentum, p = mv, donde m es la masa del objeto físico cuyo
movimiento se está describiendo matemáticamente. Recuérdese que la masa de un objeto es
la medida de su inercia. La denominaremos simplemente masa inercial, y debe distinguirse de
otro concepto que envuelve también masa, a saber, la masa gravitacional. No es ni de lejos
semejante o equiparable el esfuerzo (rigurosamente impulso) invertido tratando de detener
un pesado camión con doble remolque cuando está avanzando, así sea muy lentamente, que
parar una pelota de tenis impulsada con la mayor rapidez posible en un juego real; así que la
rapidez (o velocidad, si se especifica la dirección del movimiento) no es lo más importante
desde el punto de vista dinámico. Si se tiene en cuenta que, de acuerdo con la teoría de
relatividad, la masa de un objeto crece con su rapidez, hay una razón adicional para referirse,
no a la velocidad, sino a la cantidad de movimiento (momentum), cuando quiere hablarse de
la cantidad física fundamental desde el punto de vista dinámico. El impulso, efecto de una
fuerza actuando durante un intervalo de tiempo (FΔt, en magnitud), es su contraparte, pues
se manifiesta en un aumento (o disminución) del momentum (FΔt =Δp), de acuerdo con la
segunda ley de Newton, a la que se volverá en breve.
En física clásica afirmamos que el estado de una partícula se describe dando su posición (r) y
su cantidad de movimiento (p) o velocidad (v) en cada instante de tiempo. Si lo logramos
hacer en instantes sucesivos, estamos describiendo lo que se denomina trayectoria. Para ello
requerimos de una cantidad física adicional; esta es precisamente la fuerza, una cantidad
vectorial que en español, inglés y otros idiomas indoeuropeos se suele denotar por F.
F pierde sentido, rigurosamente hablando, cuando pasamos al dominio cuántico. Pero
intentemos dar una noción vaga de ese ente clásico: es demasiado importante en la
fundamentación de la mecánica y del mecanicismo. Interacción es un término más preciso,
incluso en la terminología de las ciencias sociales. A propósito, un término como fuerza social
no está definido físicamente. Regresando a la vieja terminología de las fuerzas, en la práctica
de nuestro mundo cotidiano basta con dos, la gravitacional y la eléctrica. La primera es la más
desconocida, aunque sea la más antigua o supuestamente mejor estudiada en la historia de la
ciencia moderna: arrancó con ella. Así que no nos cuesta mayor esfuerzo imaginar un campo
gravitacional (véase la figura 2.1); los gravitones, sus supuestas partículas mediadoras, justo
han sido detectadas indirectamente, según se anuncia, cuando se están revisando estas notas
para su distribución electrónica (febrero, 2016).
La cantidad de movimiento puede variar por variación en la velocidad o por variación de la
masa o por ambas. La masa varía también con la magnitud de velocidad o rapidez, de acuerdo
con la fórmula de Einstein. Pero un objeto que en principio no tiene masa en reposo, también
transporta cantidad de movimiento. Es el caso de los bosones intermediarios. En particular,
para un fotón su cantidad de movimiento es proporcional a lo que se denomina vector de
onda, cuya magnitud se denomina número de onda y es proporcional al inverso de la longitud
de onda: k = 2π/λ. Específicamente, la cantidad de movimiento de un fotón está dada por la
expresión p = ħk.
Segunda ley del movimiento de Newton
Volveremos a la noción de campo más adelante. Por ahora, retornemos a las fuerzas clásicas.
El peso es la manifestación de la fuerza gravitacional. Por eso el peso de un cuerpo, a
diferencia de su masa, es diferente en la superficie de la Luna que en la de la Tierra. Las
fuerzas en los resortes, en las cuerdas, en los planos inclinados, la denominada fuerza de
rozamiento y muchas otras fuerzas empíricas son de origen eléctrico, como ya se ha señalado.
Lo importante, desde el punto de vista de la mecánica newtoniana, es que toda fuerza (léase
toda interacción) causa una aceleración.
Lo más importante que debe tener en cuenta el lector es que al sumar las diferentes fuerzas
que actúan sobre el cuerpo utilizando la técnica de suma de vectores que hemos indicado, el
resultado es una aceleración que va en la dirección del vector fuerza resultante o fuerza neta.
El resultado preciso está contenido en la denominada segunda ley de Newton. Sin que nos
molestemos en demostrarlo, en general para un objeto que tiene en cierto momento una
cantidad de movimiento p se puede enunciar así de simple: F = dp/dt. Estamos utilizando el
símbolo de derivada del cálculo diferencia, una herramienta utilizada por Newton, descubierta
simultáneamente por Leibnitz, a la que no recurriremos aquí. En términos más sencillos,
teniendo en cuenta que a las velocidades usuales no relativistas la masa se mantiene
constante, la segunda ley de Newton se escribe cuantitativamente así:

F = ma.
La masa que aparece aquí es la misma que se ha utilizado para la definición de la cantidad de
movimiento, a saber, masa inercial. Con la tercera ley de Newton de acción y reacción (toda
fuerza ejercida por un objeto sobre otro hace que este último ejerza sobre el primero una
fuerza igual y opuesta), combinada con la segunda ley, se encuentra un principio fundamental
de la mecánica: el de conservación de la cantidad de movimiento.
Colisiones y momentum
Cuando dos objetos interaccionan, intercambian lo que hemos definido como cantidad de
movimiento. Aunque no lo demostraremos, el principio de la conservación de esa cantidad es
uno de los pilares de la mecánica clásica o cuántica. Hay algunas sutilezas que deben tenerse
en cuenta al aplicarlo. Por ejemplo, si se aplica al sistema tierra-luna, cuando esta avanza hacia
un lado con cierta velocidad respecto a un sistema inercial, hará que la tierra se mueva en
dirección contraria con una velocidad en magnitud muy inferior a la de la luna, en la relación
entre las masas tierra/luna. Lo mismo ocurre con el sistema protón-electrón, etc. En este caso,
la relación entre masas es de 2000 y el núcleo puede considerarse fijo.
Para un electrón libre, lo contrario de ligado, normalmente uno conoce con precisión con qué
velocidad se mueve, es decir, su cantidad de movimiento, la cual se conserva. El principio de
indeterminación de Heisenberg nos dirá que es imposible saber dónde se encuentra. Pero esa
discusión la dejaremos para el cuerpo principal del presente texto (primera parte), porque
forma parte de uno de los aspectos más relevantes en la nueva física.
En la formulación de Newton de la mecánica y su generalización posterior hecha por Lagrange,
Hamilton y otros, la masa se conserva. La ley o ecuación de movimiento, generalizada o no, se
convierte en la mecánica cuántica en la ecuación (de onda) de Schrödinger, la cual no dice
cómo se mueve un sistema cuántico sino cómo evoluciona su función de onda. Este aspecto se
tocará cualitativamente en la primera parte.
El concepto de masa también se utiliza en la energía de movimiento, a la que nos referimos a
continuación. No sobra advertir que la expresión general para la energía cinética en la
mecánica cuántica no es la misma de la mecánica clásica.
Conservación de la energía y energías de diverso origen
Hay un principio cuya validez ha sido a puesta a prueba y que, hasta donde sabemos hoy, solo
puede ser violado por la preservación o primacía de otro principio, esta vez de origen
cuántico, a saber el principio de indeterminación. Nos estamos refiriendo al Principio de
Conservación de la Energía. La confirmación experimental de ese principio hace que podamos
hablar más rigurosamente de una ley de conservación. Se podría empezar cualquier curso de
física invocando esa ley. Cuando ya se tiene claro el concepto de fuerza y el significado de la
segunda ley de Newton, es preferible referirse al trabajo hecho por una fuerza, para
demostrar un teorema que relaciona el trabajo de la fuerza neta sobre un objeto simple o
masa puntual y lo que se denomina energía de movimiento o energía cinética. Separando
cuidadosamente el trabajo hecho por fuerzas cuya intensidad depende solo de la separación,
el cual puede agruparse en otro tipo de energía acumulada denominada potencial, se puede
hacer un enunciado débil del principio en la forma que la mecánica newtoniana lo permite.
Veámoslo más detenidamente.
Expresable en términos newtonianos modernos mediante la fórmula p2/2m (o, si lo prefiere,
½mv2; lo cual no es cierto cuando hay que tener en cuenta la relatividad de Einstein, cuando
se reconoce la equivalencia entre masa y energía, a la que volveremos a menudo), la energía
de movimiento o energía cinética es la manifestación más inmediata de la energía de un
objeto simple o masa puntual. Para aprovechar una analogía con el concepto de impulso, de
gran trascendencia, nótese que la extensión de la fuerza en el espacio, FΔ para el caso
unidimensional, conduce al concepto de trabajo y por ende al de aumento (o disminución) de
la energía: FΔ es el aumento en la energía de movimiento, si no hay otra fuerza que se
oponga a éste y aquella actúa en la dirección x. De manera más general, en mecánica clásica
se habla del Teorema del Trabajo y la Energía Cinética, según el cual el trabajo de la fuerza
neta (resultante de la composición vectorial de todas las fuerzas que actúan sobre el objeto)
es igual al incremento en la energía cinética; FΔ incrementa además la energía de posición,
llamada también potencial, si un campo de fuerza conservativo, por ejemplo el campo
gravitacional, o una fuerza elástica (procesos reversibles, caso de un resorte ideal)
contrarresta la acción de la fuerza aplicada por un agente distinto al campo o al medio
elástico. Imagine, para el caso, un montacargas que levanta o descarga pesados bultos a lo
largo del eje vertical, y; para elevar un peso mg (m en este caso es la masa gravitacional, y g es
el valor de la aceleración de la gravedad en la posición en que se encuentra el montacargas;
mg es la magnitud de la fuerza gravitacional, denominada peso) a una altura y, el montacargas
realiza un trabajo mgy, cantidad que es precisamente la energía potencial almacenada por el
cuerpo.
La energía de posición es un término bastante amplio; es energía almacenada, de ahí el
adjetivo de potencial, ás ge e al ue de posi ió . U satélite o ié dose al ededo de la
Tierra tendrá una energía potencial gravitacional (¡cuidado!, ya no es mgh, es proporcional a -
1/r, donde r es la distancia del satélite al centro de la Tierra). La energía potencial puede estar
almacenada en muelles comprimidos o en mecanismos menos fáciles de identificar; en
nuestra escala usual, envuelve a menudo energía eléctrica (a veces llamada electroquímica) o
electromagnética o en últimas se reduce a ella (la del muelle rigurosamente es de origen
eléctrico o electromagnético); quien esté familiarizado con circuitos eléctricos, puede pensar
en un resonador u oscilador eléctrico, en el que se acumula o aprovecha energía
electromagnética. Al concepto volveremos en el segundo apéndice. Generalizando, la energía
electromagnética en últimas se convierte en energía de radiación, energía que se propaga con
la onda electromagnética a ella asociada. Es, en últimas, el haz de fotones descritos mediante
la onda misma.
Un oscilador mecánico, cuyo ejemplo más sencillo es el péndulo simple o la masa atada a un
resorte, sirve también para ilustrar el concepto de transformación permanente de energía de
movimiento en energía de posición y viceversa. El movimiento planetario es un típico
movimiento de conservación y transformación de energía, de potencial gravitacional en
cinética o de movimiento y viceversa: en el apogeo, mayor distancia al centro atractivo, el
planeta (o satélite) se mueve con menor rapidez que en el perigeo, por lo que su energía
cinética (siempre positiva) es menor justamente en la cantidad en que se ha aumentado la
potencial, siempre un número negativo para el caso, haciendo de la suma una constante. Para
un resorte, caracterizado por una constante elástica k, la energía potencial puede escribirse en
primera aproximación como ½kx2, siendo x el desplazamiento con respecto a la posición de
equilibrio del muelle. El módulo al cuadrado (observe que el desplazamiento x podría ser
negativo en el caso del resorte, pero x2 siempre será positivo) es característico de muchos
términos que expresan la energía; veremos que esa magnitud también caracteriza otra
cantidad física fundamental en la nueva física, la probabilidad. Hay también osciladores
eléctricos, en la actualidad de mayor importancia diaria que los mecánicos. Al tema
volveremos en el siguiente apéndice.
Se suele representar a la energía de movimiento por T (no confundir con temperatura, una
cantidad física muy importante a la que prácticamente no nos referiremos a lo largo del
ensayo) y a la de posición por U. En los sistemas mecánicos que no disipan energía (no hay
cambios de temperatura), decimos que ésta se conserva: E = T + U = constante. Son sistemas
conservativos. Uno de los casos más sencillos es el de un satélite que se mantiene en una
órbita, determinada precisamente por la energía E y la forma particular en que se le puso en
órbita (condiciones iniciales); ocurre algo parecido con un electrón ligado al protón (átomo de
hidrógeno); pero, como veremos, en éste caso no se puede hablar de órbitas; cuando más, de
orbitales, solamente para hacer referencia a lo que en un lenguaje riguroso habrá que
denominar estado cuántico. Si se sobrepasa el límite relativista, en procesos nucleares y otros
más, es esencial recordar el principio de la equivalente entre masa y energía. Cada objeto
material de masa en reposo mo tiene una energía interna Eo = moc2, siendo c la velocidad de la
luz.
Hay otras formas de energía; el lector habrá oído hablar de energías térmica, nuclear, de
radiación y otras más. La energía solar, energía de radiación, proviene de procesos nucleares
(de fusión) que se dan en nuestra estrella. La radiación electromagnética se interpretaba antes
como energía calórica, y la energía térmica, también asociada al calor, es a menudo energía de
movimiento. Baste por ahora con afirmar que es frecuente no saber a qué se está haciendo
referencia cuando se habla de energía. Usted puede observar cómo cualquier lego en la
materia usa y abusa del término, en ocasiones para engañar incautos.
Compendio de la dinámica de un objeto puntual
Las dos cantidades físicas, propiedades físicas de un cuerpo con inercia m (recuerde que en
física m es la medida de la inercia de un objeto), que varían al prolongar, respectivamente, la
acción de una fuerza en el tiempo y en el espacio, a saber, la cantidad de movimiento y la
energía, sobreviven más allá del campo clásico; se asignan también como cantidades variables
de entes o siste as uá ti os pa a los ue el té i o fue za puede ha e pe dido
significado: las dos son observables cuánticos. Ve e os ue el he ho de o se a las ,
determinarlas, generalmente altera lo que se denomina el estado del sistema, estado del
cuerpo de masa m para el caso. Nótese que la observación, casi siempre una interacción,
esulta e u a pe tu a ió , o sie p e edu i le a fue za ; o a o azó puede
anticiparse esta conclusión en los experimentos ya citados, medidas libres de interacción. Es
entonces de subrayar que el concepto clásico de fuerza es reemplazado en la nueva teoría por
el de interacción. Este cambio de terminología es conveniente, porque permite una mayor
precisión en el lenguaje.
La energía como un todo es una cantidad fundamental en la dinámica. Su transformación, de
cinética en potencial y viceversa, es la esencia de la dinámica y da origen a diversas
formulaciones. Pero hay otra cantidad de fundamental importancia, ya mencionada. El
momenum angular o cantidad de movimiento angular. Precisaremos el concepto a
continuación. Veremos que en mecánica cuántica tiene un significado más profundo,
sintetizado en lo que se denomina momentum angular intrínseco o espín.
Conservación de la cantidad de movimiento angular

El momentum angular o momento cinético, mejor descrito como cantidad de movimiento


angular, es un concepto de gran trascendencia en la dinámica de una masa puntual que gira y
en cualquier otro objeto compuesto que hace rotaciones de cualquier tipo, en general en el
espacio tridimensional. En el caso más elemental, una masa puntual que es atraída hacia un
centro por una fuerza central, su momentum o cantidad de movimiento va a variar, salvo si su
trayectoria es circular, como ocurre con la luna alrededor de la tierra (también con el electrón
en el átomo de hidrógeno, en su estado base). El momentum angular de una masa alrededor
de un origen se define simplemente como el momento del momentum (brazo por cantidad de
movimiento), o más rigurosamente:

L = r×p,
operación vectorial que se de o i a p e isa e te p odu to e to ial , o las siguie tes
características: la dirección es perpendicular al plano formado por los vectores r y p, y su
magnitud es el producto de las dos magnitudes de esos vectores multiplicada por el seno del
ángulo entre ellos. A partir de la segunda ley de Newton, F = dp/dt, si F está en dirección r, es
fácil demostrar que L se conserva, es decir, su variación es nula para estos casos. En otras
palabras, el momento cinético de un sistema se conserva cuando el sistema gira alrededor de
un centro de fuerza (fuerzas centrales, de las cuales la gravitacional es solo un caso).
Sistemas físicos y formalismos
En física clásica, el sistema físico es una idealización de la realidad. Cuando se habla del
movimiento de la Luna, se suele de i ue es o o u pu to ate áti o ue se ue e e
u a t a e to ia i ula , a te ié dose a u a dista ia de , kiló et os de la Tie a .
Puede agregarse que su diámetro es 3,476 kilómetros; que su movimiento es sincrónico: tanto
la rotación de la Luna como su órbita alrededor de la Tierra duran 27 días, 7 horas y 43
minutos; y que esa rotación síncrona se debe a la distribución asimétrica de su masa. La
primera parte de la frase es una verdadera abstracción del sistema físico real; en la segunda,
se suministra información suficiente (a la que se añade otra) para cuestionarse sobre la validez
de esa abstracción. Cuando se aplica un formalismo matemático a la descripción del
comportamiento o evolución en el tiempo de un sistema físico, es indispensable hacer
idealizaciones. Así se procedió para la descripción del movimiento de la luna alrededor de la
tierra y de esta alrededor del sol. Antes de terminar esta sección, queremos dejarle al lector
no científico una inquietud: ¿será que la Luna va a continuar moviéndose de esa manera?
Té gase e ue ta ue o sie p e se o ió así… la tie a ta po o ha pe a e ido i a ia le
en su movimiento como planeta alrededor del sol. ¿No se estará extrapolando demasiado?
Movimiento planetario
El movimiento de la Luna (y de los planetas) sólo pudo ser entendido de manera global cuando
Newton incorporó, adicionalmente a sus leyes de movimiento, una ley de fuerza, la llamada
ley del inverso del cuadrado de la distancia. Sobre esa ley hablaremos ahora a modo de
ilustración del éxito de la mecánica clásica, aplicada a puntos materiales que no son tales,
pues nos estamos refiriendo a los planetas, sin preocuparnos por su rotación interna o
intrínseca. Para esa también vale la conservación del momentum angular.
Una vez que se ha observado que el movimiento de la Luna es circular, pueden utilizarse las
otras leyes para concluir, a partir del resultado, que la Luna se mantiene en su órbita con el
periodo de 27.3 días aproximadamente, gracias a que la Tierra la atrae con una fuerza
proporcional al cuadrado de la distancia, una nueva ley. Eso fue lo que hizo Newton, echando
mano de las leyes del movimiento planetario de Johannes Kepler, deducidas a partir de
cuidadosas observaciones del movimiento de los cuerpos celestes. La primera se refiere a la
forma de las órbitas: son elípticas; recuérdese que el círculo es una forma particular de elipse.
La segu da sostie e ue las á eas a idas po el adio de la ó ita r, un radio variable para
el caso general; o r, un vector de posición cuya variación describe la trayectoria) son tales que
áreas barridas en tiempos iguales son iguales. Más sencillo: la tasa de cambio del área que
barre la distancia del cuerpo celeste al Sol es constante. Esa afirmación parece obvia en el
caso del movimiento circular: la podemos utilizar para deducir cuál es la rapidez o velocidad
promedio en el movimiento circular uniforme de la Luna alrededor de la Tierra, si usamos
como datos el radio de la órbita lunar y su período. La tercera es más complicada, y fue el
triunfo más grande de las observaciones de Kepler, a la vez sustentado en las de sus
predecesores, Nicolás Copérnico y Tycho Brache: afirma que los cuadrados de los períodos son
proporcionales al cubo de los semiejes mayores, en este caso el radio mismo: T2  R3. A partir
de la segunda ley de Newton sobre el movimiento, es fácil demostrar que la relación exacta
es: T2 = 42R3/GM, siendo M la masa de la Tierra en el caso del movimiento de la Luna, o del
Sol para el caso de la Tierra o cualquiera de los planetas o cuerpos del sistema solar que giran
en órbita elíptica alrededor del Sol. Las tres leyes de Kepler sobre las órbitas traen pues
implícitas la segunda de movimiento y la de gravitación universal.
Veamos ahora cómo usar lo anterior para deducir la ley de fuerzas mencionada en un caso
muy particular, cuando la órbita es circular. Tal es el caso del movimiento de la Luna alrededor
de la Tierra. Pero la ley es completamente general para los cuerpos celestes.

Figura I.3 Leyes de Kepler. La primera se refiere a las trayectorias (elípticas) de los planetas y la segunda
a las áreas barridas en tiempos iguales: aquellas son iguales. La ley de los periodos (T 2  R3) es
consecuencia de la variación de la intensidad de la fuerza atractiva, proporcional al inverso del
cuadrado de la distancia.

Si un cuerpo se mueve con velocidad constante, es decir, en línea recta recorriendo tramos
iguales en tiempos iguales, es porque no hay fuerza neta actuando sobre él: es el enunciado
de la primera ley de Newton, también conocida como ley de inercia, deducida empíricamente
por Galileo cincuenta años antes en un proceso de abstracción nuevo para la ciencia. Por el
contrario, un movimiento curvilíneo no puede ser uniforme, es decir, no puede ocurrir sin
aceleración. Sin entrar en detalles, es fácil concluir que cuando un cuerpo se mueve en
trayectoria circular (r = R) con rapidez constante, experimenta una aceleración centrípeta
(hacia el centro de la trayectoria, o de manera más general, perpendicular al segmento de
curva) proporcional al cuadrado de la rapidez (magnitud de velocidad, v) e inversa a la
curvatura, el radio en este caso: en símbolos, a = v2/R. No es difícil ver, a partir de la definición
de rapidez (distancia recorrida/tiempo empleado en recorrer esa distancia), que v está dada
por 2πR/T, denotando por T el periodo del movimiento circular, un movimiento periódico
porque se repite cada T segundos. En consecuencia, a = v2/R = 4π2R2/T2R  1/R2. Más
exactamente, a = GM/R2, enunciado de la ley de gravitación universal de Newton, lo que es
equivalente a afirmar que en magnitud
F = (GM/R2) m,
expresión equivalente a la segunda ley de Newton sobre el movimiento. En el último paso, se
ha hecho uso explícito de la tercera ley de Kepler. Es evidente que en la superficie de la Tierra,
a = g, una o sta te u o alo e a to depe de de la posi ió , lo gitud, latitud altu a.
Suele asignársele el valor de 9.8 m s-2. Para simplificarles la vida, redondearse ese valor a 10 m
s-2.
Figura I.4 Comunicando suficiente impulso, podría aspirarse a poner un objeto material, por ejemplo
una pelota de béisbol, en órbita. En la práctica, muy cerca de la superficie de la Tierra esto no funciona,
porque hay un fuerte rozamiento con la atmósfera terrestre. Para la velocidad que habría que
imprimirle, 8 km/s, o más dramático, 29,000 km/hora, la pelota no tardaría en arder en llamas. En la
ionosfera el efecto es mucho menor. Por eso se elevan a unos 200 km sobre la superficie de la Tierra los
satélites artificiales.

Veamos el proceso inverso. Si se invoca de nuevo la segunda ley de Newton, F = ma, se


concluye a partir de Kepler que sobre la Luna actúa una fuerza debida a la Tierra cuya
magnitud se expresa de esta manera: FTL  ML/R2. Recuerde el lector el enunciado simple de
la tercera ley de Newton: si un cuerpo hace fuerza sobre otro, el segundo a su vez hará una
fuerza sobre el primero, igual en magnitud y en dirección opuesta. En símbolos, para el
sistema Tierra-Luna, la Luna hará una fuerza dada en magnitud por FLT  MT/R2. No exige
mayor razonamiento concluir que tienen que estar envueltas, en la expresión definitiva, tanto
la masa de la Luna como la de la Tierra: FTL = FLT  MTML/R2. Salvo por la constante de
gravitación universal, G = 6.610-11 m3/kg s2, ese fue el resultado arriba anunciado. Este valor
es justo el necesario para que podamos movernos en la Tierra con la desenvoltura con la cual
lo hacemos. En la Luna, g resulta ser un orden de magnitud inferior. Exigirá un fuerte
entrenamiento aprender a desenvolverse en esas nuevas condiciones, un entrenamiento que
requieren los astronautas y al que se someten algunos excéntricos multimillonarios que
piensan viajar al espacio.
Aparentemente simple, la generalización del resultado exigió un nivel de abstracción como
nunca antes había ocurrido en la historia de la ciencia y la introducción (el descubrimiento) del
cálculo diferencial. Basta con echar una mirada a Philosophia naturalis principia matemática,
la monumental obra de Newton impresa por primera vez en 1676 con su debido imprimatur o
permiso eclesiástico; y a su historia.
Algunos de los lectores dirán: el movimiento de la Luna es demasiado complicado; les asiste la
razón. ¿Por qué no partir del movimiento de una piedra? Veamos qué tan sencillo es este
último: si la piedra cae, lo hace también por la atracción gravitacional de la Tierra. Obsérvese
que cerca de la superficie de la Tierra hay también una gruesa capa de aire, no siempre en
reposo, en ocasiones capaz de alterar drásticamente el movimiento de una piedra. Si la piedra
intentara ponerse en órbita, como puede hacerse con un satélite artificial, este efecto sería
severo, con toda seguridad, aun a las distancias a que suelen colocarse los satélites artificiales.
Se han hecho muchas aproximaciones; se supone que los resultados pueden mejorarse
indefinidamente, como imaginaron los físicos hasta antes de 1900. Tal vez los cráteres y las
montañas que hoy tenemos más o menos bien detectadas en la Luna no importen mucho para
su movimiento alrededor de la Tierra: ella arrastra una tenue capa de gases, su propia
atmósfera, en su movimiento; esa capa forma parte del sistema bajo estudio, como ocurre con
la atmósfera terrestre cuando nuestro planeta gira elípticamente alrededor del Sol. La
mecánica newtoniana da por sentado que las simplificaciones hechas en los dos casos son
válidas. Pero si la superficie de la piedra es muy rugosa, si hay poros que permiten el flujo de
aire a través de la piedra, si no es grande comparada con... las suposiciones son muchas,
seguramente mayores que en el caso de la Luna en su órbita circular, o de la Tierra en su
trayectoria elíptica; bueno, todo depende... podríamos seguir añadiendo peros y enmendar
posibles fallas del modelo; o por el contrario, usar balines de forma esférica para simplificar,
utilizar bombas de vacío para aproximarse a las condiciones ideales, etcétera, etcétera.

La magia de Newton, más allá de sus famosas tres leyes del movimiento, estuvo en
aventurarse a encontrar «leyes de fuerza». La más famosa es la Ley de Gravitación Universal,
escrita aquí una vez más, ahora en forma matemática precisa:
F = -GMmr/r3.
Esta es una ley de fuerza central, atractiva (en la dirección –r), cuadrática: la intensidad de la
fuerza varía con el inverso del cuadrado de la distancia, y va en la dirección opuesta (atractiva)
a la que une los centros de los cuerpos que interactúan o se atraen gravitacionalmente: M, la
masa mayor de, por ejemplo, la Tierra, y m la pequeña masa, por ejemplo la Luna o cualquier
satélite artificial. r/r corresponde a lo que suele denominarse un vector unitario: no tiene
dimensiones, pero siempre tiene la unidad de magnitud; por eso r/r3 tiene dimensiones de
1/r2, resultado al que ya se había hecho referencia. En coordenadas cartesianas se suele
escribir i, j y k para los tres vectores unitarios en direcciones X, Y y Z, respectivamente, de tal
suerte que si se toma como referencia el origen, donde se encuentra en el caso mencionado la
Tierra, se tendrá:
r = xi + yj + zk.
Si se quisiera representar la posición y el movimiento de la Luna o de un satélite artificial que
gira alrededor del centro de la Tierra en trayectoria circular, el esquema sería el representado
en la figura I.5.
Figura I.5. Movimiento de la Luna o de un satélite en trayectoria circular alrededor de la Tierra.
Ilustración del campo gravitacional cerca a la superficie de la tierra, con simetría esférica.

Otra ley de fuerza de mucha utilidad, aunque con mayores limitaciones, es la llamada Ley de
Coulomb. Es el punto de partida de los fenómenos electrostáticos. Basta cambiar la constante
G gravitacional por una nueva constante k, eléctrica; y utilizar a cambio de las expresiones o
símbolos que se refieren a masa por otros que tengan en cuenta la nueva propiedad física
intrínseca de los cuerpos cargados eléctricamente, la cual ahora se presenta en dos clases
diferentes, dando lugar a atracciones o repulsiones. En rigor, a excepción de los 3 neutrinos,
que conforman con el electrón, el muón y el tauón, la familia de los leptones, los objetos que
con mayor precisión podrían denominarse partículas por estar más cercanos al concepto de
masa puntual, tienen todos carga eléctrica; cada uno de los seis quarks tiene carga, en
magnitud 1/3 o 2/3 la carga del electrón o de cualquiera de los leptones cargados. Si el
sistema físico fuera un protón y un electrón (átomo de hidrógeno; recuérdese, de paso, que el
protón, núcleo del hidrógeno, no es, rigurosamente hablando, una partícula elemental), cada
una de las partículas interactuantes tendría carga de magnitud e, la una positiva y la otra
negativa. Como resultado se atraen, en la misma forma que el sistema Tierra-Luna. He aquí la
expresión correspondiente al átomo de hidrógeno:
F = -ke2r/r3.
1.8. Generalización de la mecánica.
La formulación newtoniana de la mecánica clásica, aunque relativamente sencilla, es de
aplicaciones prácticas limitadas en el terreno teórico.
La formulación de Lagrange, utilizando coordenadas y fuerzas generalizadas, es más poderosa.
Todavía más apropiada es la que se denomina formulación Hamiltoniana (Hamilton, 1838). En
esta, las ecuaciones diferenciales de segundo orden de las formulaciones anteriores se
convierten en ecuaciones de primer orden, las cuales relacionan la variación en el tiempo de
las coordenadas o momentos generalizados con variaciones de la denominada función de
Hamilton (hamiltoniano) con respecto al momentum o coordenada generalizada
respectivamente. Fue este enfoque el que permitió a Schrödinger encontrar su ecuación de
onda, aplicable precisamente al Hamiltoniano en su versión cuántica. Implícitamente estamos
hablando así del espacio de fase o de coordenadas y momentos generalizados.
Sin necesidad de entrar en ese terreno esencialmente matemático, terminaremos esta
sección haciendo alusión a otras alternativas que permiten visualizar el problema de la
dinámica en términos más simples. La figura I.6 es una excelente representación de las dos
imágenes más usuales en física clásica: la trayectoria en el espacio directo, o espacio de
coordenadas, y la del espacio recíproco o espacio de velocidades (o momenta). Fue tomada de
una preciosa pieza recuperada de Feynman, denominada La conferencia perdida de Feynman
(Metatemas 56, Tusquets, 1999).

Figura I.6. Movimiento de un planeta en trayectoria elíptica alrededor del Sol. A la derecha se muestra
el espacio recíproco o de momentos. El radio vector p (o para el caso la velocidad Vp), en general
variable en magnitud y dirección, describe una trayectoria circular alrededor del centro C en el espacio
recíproco o de momentos; el origen O de los vectores velocidad coincide con C solamente cuando la
trayectoria en el espacio de posiciones es circular, pero la curva que describe el vector variable p es
circular para la Luna, los planetas o los meteoritos.

En la trayectoria de la tierra alrededor del sol, parcialmente ilustrada en la figura I.6 a la


derecha, se muestra el vector velocidad en dos puntos diferentes, J y P. Estos vectores se han
trasladado, en la figura de la derecha, a un origen común. El hecho de que esos vectores
generen una circunferencia corresponde a una propiedad muy especial, bien conocida, de la
atracción gravitacional: disminuye con el inverso del cuadrado de la distancia y hay un centro
de fuerza, el sol en este caso.
Hay, como se dijo, otra fuerza que varían con el inverso del cuadrado de la distancia: es la de
interacción entre cargas. En principio, esa fuerza podría aprovecharse para guiar partículas
cargadas. La solución de ese tipo de problemas a menudo escapa a la mecánica newtoniana.
En efecto, aunque el mismo esquema de la figura I.5 valdría, en principio, para representar el
movimiento del electrón alrededor del protón, hay al menos dos graves problemas que vale la
pena mencionar desde ya : 1) en la teoría clásica, una carga acelerada (es el caso del electrón,
el cual tendría una aceleración centrípeta) radia, es decir, emite energía electromagnética (en
el esquema de la figura I.5 terminaría por caer al centro, donde está el núcleo, en una
trayectoria en espiral); 2) el principio de indeterminación ha prohibido establecer un esquema
tan determinista.
La figura I.7 muestra lo que podemos concluir de la solución del problema en el caso más
simple de simetría esférica: el electrón se ubica con alta probabilidad alrededor de un
cascarón esférico de radio medio 0.5 Å. Pero es imposible determinar su posición sin afectar
su cantidad de movimiento, por ende su energía, de tal suerte que debemos renunciar a
ubicarlo exactamente.

Figura I.7a. Nube electrónica alrededor del núcleo en el átomo de hidrógeno que muestra la
distribución de la probabilidad en la interpretación de Born de la función de onda.

Figura 1.7b. Posible secuencia de


observaciones de la posición del
electrón.

Se suele decir que el electrón está distribuido alrededor del protón con una probabilidad que
depende de la densidad, mas no es así. La nube electrónica en la región cercana a 0.51 Å da la
región de máxima probabilidad de ubicación del electrón en su estado o nivel más bajo de
energía. Se habla de distribución de la probabilidad, es decir, el electrón no ha dejado de ser
una masa puntual y así se manifiesta. Es lo que se intenta ilustrar en la figura I.7b: al electrón
lo encontraremos, cada vez que se observe de alguna manera, en una posición definida, no en
varias a la vez.
Hay otros detalles que no se han tenido en cuenta, pero que no surten mayor efecto en un
primer acercamiento al problema: por simplicidad, se han hecho algunas idealizaciones sobre
el protón. La más obvia, se le ha considerado como si fuera un punto fijo de cuyo movimiento
no hay que preocuparse. Una forma elegante de manejar esa simplificación exagerada es
resolver lo que desde la mecánica newtoniana se llama el problema de los dos cuerpos, pero
no se va a entrar aquí en los detalles del asunto: baste con decir que el problema se soluciona
describiendo el conjunto protón – electrón en el sistema del centro de masa. Otro detalle que
se ha pasado por alto es que el protón en realidad está formado por tres quarks; pero eso no
va a agregar nada a la descripción exacta del problema atómico. Acerquémonos a él desde
otro punto de vista.
Así como la posición y la cantidad de movimiento son el punto de partida para una descripción
dinámica del movimiento, las energías de posición (energía potencial) y de movimiento
(energía cinética) lo son para una descripción más sencilla de problemas como los que
venimos tratando, pues en la mayoría de ellos, tanto de la mecánica clásica como de la
cuántica, puede invocarse el principio de conservación de la energía. En el caso anterior, la
energía de posición está dada por una variable u observable U y la de movimiento por otra
que se suele denotar por T, mientras no dé lugar a confusión con el parámetro que mide la
temperatura del sistema. Escribámoslas para el caso del electrón, asumiendo que el protón,
por ser mucho más masivo, prácticamente no se mueve:
U = -ke2/r; T = ½mv2.
Estas expresiones, fácilmente aceptables para el movimiento planetario, hasta cierto punto
pierden significado bajo el nuevo esquema, pero siguen siendo representaciones útiles. Para
que la energía cinética o de movimiento tenga algún sentido, es preferible hablar de un valor
esperado (semejante al valor medio) y representarlo por <T>. Hay algo que no tiene duda
alguna: la suma de las dos cantidades nos da un observable, una cantidad medible más o
menos directamente; explícitamente, la energía total, E = U + T, como veremos, puede tomar
un conjunto de valores que son los aceptados (valores propios) en la nueva teoría, aunque
cada una de las partes no toma valores definidos. De hecho U y T representan operadores y su
suma, H = U + T, también. La relación matemática es relativamente sencilla; si cada uno de los
estados se representa por Ψn (en el esquema de Schrödinger), a cada uno de esos estados le
corresponde un valor de energía En, el punto de partida es la ecuación de valores propios

HΨn = EnΨn.

La lectura de la expresión anterior es todavía más sencilla: mediante el operador de energía H


obtenemos los posibles valores que puede tomar la energía E.
Este conjunto de ecuaciones en la presente y en situaciones similares se denominan estados
estacionarios. H = U + T se de o i a ope ado Ha ilto ia o . La g a hazaña del
formalismo cuántico es predecir los valores permitidos para E, denotados por En (n=1, 2, 3… ,
con absoluta precisión, siempre y cuando el operador que representa la energía potencial lo
haga fielmente. No incomodaremos al lector escribiendo el operador que representa la
e e gía i éti a . La pote ial sigue sie do u a e p esió común y corriente.
Hay otra variable dinámica de mucho interés a la que ya se ha hecho referencia: la acción. Su
definición, como se ha anticipado, es más abstracta, pero se intentará dar enseguida una vaga
noción. Así como la energía clásicamente resulta de la acción de una fuerza en el espacio, o
mejor, trabajo igual a fuerza por desplazamiento, siempre y cuando la fuerza vaya en la
dirección del desplazamiento y sea siempre de la misma intensidad, acción es cantidad de
movimiento por desplazamiento, A = ps, en condiciones equivalentes. Recuérdese que las
unidades de la acción son las de energía por tiempo; pero también son el producto de masa
por velocidad por longitud.
Oscilaciones y ondas
Las oscilaciones mecánicas (las hay también eléctricas) en un medio continuo dan lugar a
perturbaciones que se propagan en el medio: esas perturbaciones se llaman ondas mecánicas.
Es usual que un curso básico de física cuántica empiece hablando de ondas. Por esa sola
razón, esta sección es muy importante. Las ondas electromagnéticas se producen en el
laboratorio gracias a osciladores eléctricos, en realidad, oscilaciones en cavidades
(conductores) con los que se crean campos eléctricos y magnéticos, o más precisamente,
mediante cargas y corrientes que varían en forma sinusoidal (alterna, si lo prefiere),
generando campos electromagnéticos dentro de esas cavidades.

Figura I.8 a) Oscilador vertical. b) Oscilador horizontal. La


característica común es que la fuerza recuperadora es
proporcional a la deformación, lo cual es válido en primera
aproximación, vale decir, si la deformación es pequeña. En el
primer caso, el peso mg es compensado por una
deformación inicial; en el segundo, por la fuerza normal.
Hemos supuesto que las fuerzas de roce y de fricción con el
aire son pequeñas comparadas con la fuerza elástica debida
F = -KΔY
al resorte.

Empezaremos por oscilaciones mecánicas. Hay muchos tipos de osciladores, de los cuales el
más simple es el denominado oscilador armónico. Movimiento armónico simple es el que
ejecuta una masa atada a un resorte en condiciones ideales, después de desplazarlo
levemente de su posición de equilibrio. El péndulo simple es una aproximación a ese tipo de
movimiento, válida para pequeñas oscilaciones. El resorte, en condiciones ideales, ejerce una
fuerza de recuperación, dirigida hacia el punto de equilibrio, proporcional a la deformación, de
ahí el tipo de movimiento oscilatorio que resulta. Por el contrario, son anarmónicas las
oscilaciones provocadas por fuerzas no lineales (cuadráticas, por ejemplo).
Aunque el caso más sencillo de describir no es el que ilustra la figura I.8a, sí es el más fácil de
visualizar. Si se atara a la masa una punta con tinta y se apoyara suavemente sobre una hoja
de papel dispuesta en forma vertical que se desplaza horizontalmente (digamos que a lo largo
del eje Z) con velocidad constante mientras el resorte vertical ejecuta una oscilación, el
resultado ideal (sin tener en cuenta pérdidas de energía) sería el que ilustra la figura I.9, a
condición de que se leyera con el tiempo invertido, hacia atrás en el tiempo. Para una
representación física más adecuada, el eje horizontal debería multiplicarse por t/T, siendo T el
periodo de oscilación. Su inverso corresponde a la frecuencia de la onda. Proyectando la
sombra del movimiento circular uniforme de un objeto en las direcciones y o x, se obtienen
movimientos oscilatorios. A partir de allí es fácil describir cada una de las componentes del
movimiento en ambas direcciones.

Figura I.9. Representación


numérica de una sinusoide.
En el eje vertical se repre-
senta el ángulo en radianes. Si
la masa vertical empezara a
caer desde el punto de
equilibrio, la posición inicial
habría quedado registrada y
correspondería a la de la cinta
al cabo de un periodo,
o espo die te al á gulo Π.
Figura I.10. El movimiento circular uniforme se puede visualizar como la superposición de dos
movimientos armónicos simples, uno en dirección x¸ otro en dirección y, desfasados e π/ .

Una forma más sencilla para describir el movimiento oscilatorio periódico es descomponer el
movimiento circular uniforme, como ilustra la figura I.10. Para ello es conveniente introducir
el concepto de velocidad angular ω, de tal suerte que el ángulo barrido después de transcurrir
un cierto tiempo t es: Θ = ωt. Eso quiere decir, si el punto de partida del móvil fue B, que x = R
cos(ωt) y y = R sen(ωt).
A partir de movimientos oscilatorios periódicos se pueden generar ondas en diferentes medios
materiales. La clave está en transmitir esos movimientos oscilatorios de un punto a otro en ese
medio. La figura I.9 podría servir para representar una onda monocromática, la propagación de
una perturbación con una determinada frecuencia, una onda con una longitud de onda
espe ífi a. El á gulo Π o espo de ía a u a posi ió λ si el eje ho izo tal e esa figu a
representa la dirección de propagación de la onda, el eje Z, perpendicular al plano en la figura
I.10. O puede corresponder a T, un periodo completo (inverso de la frecuencia), si el eje
horizontal es el tiempo.

Lo gitud de o da

I te sidad

Figura I.11. Ilustración espacial de la intensidad de una onda matemática en una dimensión. (La
intensidad de la onda es proporcional al cuadrado de la amplitud, por ende siempre es una cantidad
positiva.)

En la figura I.11 se hace la representación matemática de la intensidad (cuadrado de la


amplitud para una función sinusoidal) de una onda monocromática (de un solo color, vale
decir, de frecuencia muy bien definida) que rigurosamente se extiende en las dos direcciones
hasta el infinito y que viaja en una de las dos direcciones, positiva o negativa, con velocidad c.
Se suele decir que una onda mecánica es una perturbación que se propaga en un medio
material con determinadas propiedades elásticas. Al contrario de lo que ocurre con una
partícula, a la que clásicamente le podemos asignar posición y velocidad entre otras
cantidades físicas, una onda generalmente no está localizada: es un fenómeno que, en
términos clásicos, lo asociamos con un continuum, un medio continuo, aunque bien sabemos
que ese medio, cualquiera que sea, está constituido por átomos o moléculas con separaciones
que dependen del estado y la composición específica del medio. La propagación de una onda
en una cuerda es un claro ejemplo en una dimensión: los puntos en la cuerda están
conectados de alguna manera; en el caso sencillo de una cuerda muy delgada, ésta puede
visualizarse como una cadena de átomos, aunque para ilustrar el fenómeno también serviría
cualquier cadena hecha de eslabones o las espiras entrelazadas que forman un largo resorte.
En dos dimensiones, una membrana elástica es el mejor ejemplo de medio portador, aunque
el más fácil de visualizar es la superficie del agua contenida dentro de un recipiente abierto de
gran superficie; una cubeta es la materialización práctica más sencilla en el laboratorio. En tres
dimensiones, un sólido cualquiera o una mezcla de gases como el aire pueden servir de medio
continuo.
Empecemos con la cuerda. Si una parte de ella se agita, desplazándola transversalmente, esa
agitación se comunica o transmite a otros puntos de la cuerda, precisamente por la conexión
que hay entre los diversos puntos que la conforman. La cuerda está hecha de un material
elástico que se puede someter a tensión por sus extremos; es lo que se hace con los
instrumentos musicales de cuerda.

Figura I.12. Ondas estacionarias en cuerdas, generadas mediante láminas o diapasones de diferentes
frecuencias. La velocidad de propagación de la onda está determinada por la densidad (masa por
unidad de longitud) de la cuerda y por la tensión a que está sometida. En la figura a) la cuerda está libre
por el extremo derecho.

Mediante un diapasón conectado a un extremo de una cuerda cuyo otro extremo puede estar
fijo a un peso que causa una cierta tensión, por medio de una polea, por ejemplo, pueden
generarse ondas. Acomodando tensiones y longitudes para diapasones de diferentes
frecuencias, es posible generar ondas estacionarias muy diversas, como las que se ilustran en
la figura I.12.
Ya que hablamos de diapasones, nótese que a menudo su vibración se acopla a una caja vacía
en su interior, buscando que se produzca un interesante fenómeno característico de las
oscilaciones y las ondas: la resonancia. Es lo que ocurre, por ejemplo, con las vibraciones de
los instrumentos de cuerda frotada, entre los que destaca el violín, o algunos de percusión
como el tambor. En los instrumentos metálicos, de viento o de percusión, el acople es más
complejo.
Los medios materiales en que se propagan las ondas mecánicas pueden ser sólidos, líquidos,
gaseosos o plasmas, cuatro estados de la materia. (Algunos se refieren al condensado de Bose-
Einstein como un quinto estado.) Decimos que una onda se propaga, y mecánicamente
imaginamos que es la perturbación o agitación lo que se transmite, a una cierta velocidad
característica. Ésta depende, en primera instancia, del medio en que se propaga la
perturbación, de la tensión a que está sometida la cuerda, por ejemplo, y de su densidad
(composición y grosor).
Es fácil observar la propagación de ondas en un trozo de gelatina: distintas texturas dan
diferente velocidad de propagación. A lo largo de un tronco de madera suficientemente
extenso puede percibirse la propagación de una onda sonora con una velocidad mayor que en
el aire. Se esperaría que es más ilustrativo hacer el experimento con una varilla metálica:
dando un golpe en un extremo se transmite rápidamente una señal sonora al otro extremo. La
velocidad de propagación es demasiado rápida para ser observada a simple vista.
Un largo tubo vacío con superficie de vidrio, preferiblemente de sección circular, nos permite
propagar ondas sonoras a través del aire en una dirección muy precisa. Podría ponerse a
vibrar un diapasón colocado en un extremo del tubo y percibir las ondas en el extremo
opuesto, si la longitud del tubo fuera apropiada: son de la misma frecuencia, más intensas que
cuando simplemente viajan en el aire debido a un interesante fenómeno llamado resonancia.
Esas son ondas longitudinales: a diferencia de la cuerda, en la cual las oscilaciones de las
partículas son transversales, las oscilaciones de cada una de las capas de aire se hace en la
misma dirección en que avanza la onda sonora. Véase la figura I.13. Nótese que estamos
hablando ya de vibraciones de un oscilador. Los átomos solían visualizarse clásicamente como
osciladores. Véase el capítulo quinto.

Figura I.13. Ondas longitudinales que se propagan a lo largo de una columna de aire en un tubo con
superficie de vidrio, para localizarlas mejor y evitar su disipación. El diagramador dibujó algunas
partículas de aire demasiado grandes, lo que facilita imaginar lo que ocurre en otras circunstancias. Las
ondas sonoras se generan mediante las vibraciones de un diapasón de la frecuencia que se desee.

Pero también es posible observar ondas de torsión, como las que se muestran en la figura
I.14. Para visualizar mejor lo que ocurre, imagine que se anclan a una varilla metálica
transversalmente trocitos rectos de alambre grueso. La torsión de una sección transversal de
la varilla se transmite a cada una de las secciones sucesivas: es fácil ver a qué velocidad avanza
esa perturbación observando el movimiento torsional de los trozos de alambre, aunque por
supuesto ellos van a afectar la velocidad de propagación, dado que modifican drásticamente
la dinámica de cada sección de la cuerda.

Figura I.14. Ondas de torsión. Son fáciles de visualizar en una barra metálica.

Hay muchos experimentos sencillos que pueden hacerse con ondas. Igualmente se encuentran
muchos cursos con autocontenido en la red.
Las ondas sonoras que se producen en los instrumentos de cuerda o de viento se acoplan
invariablemente a otro medio para propagarse y llegar al receptor: el aire es el medio de
propagación, por excelencia; en él se forman generalmente ondas esféricas, cuya intensidad
decae con el cuadrado de la distancia, un fenómeno típico de conservación de energía,
acompañado en mayor o menor grado de un fenómeno de origen diferente, en el que
igualmente decae la señal: la disipación. La disipación está ligada a otro interesante tema: lo
que ocurre realmente en el interior de cada una de las partes de materia, los átomos y
moléculas; ellos responden más frecuentemente y dan lugar, entre otras, a un tipo de ondas
de trascendental importancia: la denominada radiación electromagnética, a discutir en el
siguiente apéndice. Por simplicidad se puede imaginar que las ondas electromagnéticas en los
átomos, la luz que emiten, son como la que ilustra la figura I.15, en la cual se indica que a gran
distancia esa onda esférica se vuelve plana. Ocasionalmente el modelo funciona.

Figura I.15. Onda esférica (o circular) que se vuelve plana a gran distancia.
Cua do se o lu ó ue la luz es u fe ó e o o dulato io, se e o t ó lo ue supo e os
o io : la luz se propaga más rápidamente en el aire que en el vidrio u otro medio material
cualquiera; es más fácil correr contra el aire que nadar contra el agua. Pero, ¿por qué habría
de se o io , si a a a os de de i lo o t a io so e las o das so o as? A mayor densidad
del medio, la velocidad de una onda mecánica como el sonido aumenta. La respuesta es sutil:
las ondas de luz son un tipo muy particular de ondas. Para empezar, observe que pueden
propagarse sin necesidad de medio material alguno: al menos eso ocurre en los espacios
intergalácticos donde la densidad de materia es extremadamente baja. Por el contrario, las
ondas sonoras no pueden propagarse en el vacío. Dicho en otras palabras, la luz no es el tipo
de onda mecánicamente producida que acabamos de discutir. O mejor: El señor es sutil
(Subtle is the Lord, reseña sobre Einstein escrita por Ronald W. Clark.).Volveremos a este
asunto más adelante, no sin antes mencionar que para resolver el problema en el pasado se
supuso que había un medio extraño, imponderable, al que denominaron éter, hoy en día
desechado por la física ortodoxa.
La noción de onda es menos intuitiva que la de partícula; en las ondas mecánicas hay una
característica común: las oscilaciones, las cuales se transmiten de uno a otro punto gracias a la
elasticidad del medio. Se verá que hay complicaciones aún mayores, y diferencias radicales en
su comportamiento, si se le compara con el de partículas. La más importante, para los
fenómenos que aquí se van a considerar, es el siguiente: las ondas exhiben un fenómeno
peculiar, el de superposición o interferencia, ausente por completo en las partículas clásicas,
sean ellas balas de cañón, diminutos proyectiles o, mejor aún, cuerpos tan gigantes como una
galaxia (que también son partículas desde un punto de vista cosmológico).
Clásicamente, al menos en lo que se refiere a las ondas mecánicas (la luz, como se dijo, es
caso aparte), una onda simple resulta de un fenómeno oscilatorio. En la figura I.13, cuando se
pone a vibrar un diapasón y se le ata al extremo de una cuerda (figura I.12), preferiblemente
liviana, se pueden percibir dos ondas: la sonora, que se propaga en el aire, con la frecuencia
característica del diapasón y la velocidad propia del sonido en el aire a la temperatura a que se
encuentre, y una onda a lo largo de la cuerda; ésta última viajará con una velocidad que
depende de la tensión a que esté sometida la cuerda y de su densidad (masa por unidad de
longitud). Intuitivamente puede entenderse que a mayor tensión y menor densidad (mayor
aceleración y menor inercia), la velocidad de propagación sea mayor. Bajo ciertas condiciones,
en la cuerda se forma una onda estacionaria. Es como si partes de la cuerda, separadas por
medias longitudes de onda, vibraran al unísono; de hecho, así es. Consideremos un caso más
sencillo.
Figura I.16. Ondas estacionarias en una cuerda fija por sus dos extremos. En el primer caso, L = ½ λ; e
el segundo, L = ; en el tercero, L = (3/2) λ; pa a el ua to, L = 2.

Sujétese una cuerda liviana (de baja densidad) por dos extremos, tensionándola, no muy
fuertemente para que se pueda observar mejor y para que no se rompa. Al presionar
transversalmente por el centro de la cuerda y liberarla repentinamente, la cuerda va a oscilar:
todos los puntos de la cuerda irán de abajo hacia arriba durante medio ciclo y de arriba hacia
abajo en el medio ciclo siguiente. Obsérvese que la cuerda tiene media longitud de onda, L = ½
λ. Ahora presiónese en sentidos opuestos a (1/4)L y (3/4)L, buscando que el centro
permanezca estático: se observa que, mientras la mitad de los puntos de la cuerda se mueven
en una dirección, los de la otra mitad se mueven en dirección contraria. Se ha logrado formar
u a o da esta io a ia o u a lo gitud de o da λ igual a la lo gitud de la ue da. Véase la
figura I.16.)
Sin necesidad de hacer la demostración matemática, conviene advertir que la onda en el caso
anterior es una superposición de dos ondas: una que viaja hacia la derecha y otra
exactamente igual en amplitud y frecuencia que viaja hacia la izquierda. La amplitud de la
onda resultante es el doble de la de cada una de sus componentes, un efecto lineal fácil de
visualizar; la intensidad va a ser el cuádruplo. El fenómeno se denomina superposición de
ondas, y vale para todo tipo de ondas que se propaguen en medios lineales. Ya se dijo que la
superposición va a ser de gran importancia en la descripción de los fenómenos cuánticos.
De manera similar a la superposición de ondas, en el fondo lo mismo pero de manera más
general, funciona el fenómeno conocido como interferencia de ondas. Para ilustrarlo, es mejor
recurrir a ondas bidimensionales más extensas que las ondas en una cuerda (éstas, al igual
que las ondas sonoras en un tubo, son un tipo muy particular de ondas en una dimensión). Las
ondas en el agua son convenientes para visualizar lo sustancial en el experimento propuesto.
Las figura I.18 y I.19 ilustran el fenómeno de interferencia en el caso de la luz, para el llamado
experimento de interferencia a través de dos ranuras. En la I.20 se ilustra esquemáticamente
cómo se suman.

Figura I.17. Patrón de interferencia de ondas. El primer caso representa una situación idealizada,
ilustrada originalmente por Huygens (principio de Huygens), para las ondas de luz, considerando cada
punto en el frente de ondas como una nueva fuente de luz; el segundo, es una fotografía de ondas en el
agua durante un experimento real (laboratorio del PSSC, Physical Sciences Study Committee, 1964).

Si se pulsa, ojalá armónicamente, la superficie del agua, se forman ondas concéntricas o


circulares. Piénsese en pulsar en fase dos corchos mediante un motor. Se formarán dos ondas
con frentes circulares que interfieren. Con algunas precauciones y trucos, puede observarse
que en algunas partes interfieren constructivamente y en otras lo hacen destructivamente.
Figura I.18. a) Patrón de interferencia de dos ranuras. b) Las ondas de luz que llegan a un punto C sobre
la pantalla pudieron viajar por los dos caminos posibles, la trayectoria A o la trayectoria B. La diferencia
en recorrido entre los dos caminos es AC – BC.

El fenómeno de interferencia de dos fuentes o a través de dos ranuras se ilustra


esquemáticamente en las figuras I.17 a I.20. , en la I.17a, para una situación idealizada, a partir
de un dibujo hecho por Huygens para explicar el fenómeno, en la I.17b para un caso real: dos
puntas que se hacen oscilar vertical y sincrónicamente, perturbando la superficie del agua.
Otra forma de hacerlo, para garantizar que las dos fuentes estén en fase, consiste en utilizar
una barra o rodillo para producir ondas planas en la cubeta de ondas. El frente de ondas
planas avanza; más adelante, se puede colocar un obstáculo con dos ranuras, dando lugar a
dos frentes de onda en fase. Esto es lo que se ilustra en las figuras I.18 a I.20, pero con ondas
de luz. Éstas son más interesantes que las de agua, utilizadas en estas notas sobre todo por la
facilidad para materializarlas y por la riqueza conceptual que encierran. La figura ilustra,
además, una representación del cambio semi-cuantitativo de la intensidad en las distintas
franjas.
Se pueden apreciar en esta última figura dos fenómenos muy similares, estrechamente
relacionados: interferencia y difracción. La difracción es una especie de interferencia
generalizada, aunque no es fácil explicarlo en pocas palabras. Para simplificar, digamos por
ahora simplemente que la difracción es la propiedad de expandirse o ensancharse que tiene la
onda. Eso le pe ite do la es ui as.
Agustín Fresnel y Thomas Young, independientemente, hicieron experimentos que
confirmaron plenamente el carácter ondulatorio de la luz, de los rayos de luz. Fresnel, un
ingeniero de caminos, elaboró además una teoría matemática bastante compleja.
Figura I.19. Ondas de luz esféricas que dan lugar a dos frentes de ondas mediante dos agujeros o dos
rendijas verticales formando un patrón de interferencia, con franjas alternas brillantes y oscuras. La
figura inferior ilustra la variación de la intensidad, proporcional al cuadrado de la amplitud de la onda
en cada punto.

Se volverá a las ondas de luz en el Apéndice II y a lo largo del texto. Por ahora, para terminar
nuestra introducción a las ondas mecánicas, agreguemos que la perturbación que se propague
puede ser en principio de cualquier forma, en general, una superposición de muchísimas
perturbaciones periódicas armónicas.
Figura I.20. Superposición de dos ondas en fase (derecha) y en antifase (izquierda). Que la interferencia
sea constructiva o destructiva depende de la diferencia de caminos en la figura I.18 b. Si la diferencia en
el recorrido de las dos ondas es un número entero de longitudes de onda, la interferencia es
constructiva y las dos ondas se refuerzan. En caso contrario, número semi-entero de longitudes de
onda, es de aniquilación y las dos ondas se cancelan. Dependiendo del resultado, aparecen franjas
brillantes u obscuras en las figuras I.18 y I.19.
II. ELECTRODINÁMICA
Maxwell dijo: ¡hágase la luz!

En este apéndice abordaremos la tarea de describir cualitativa y unificadamente los


fenómenos electromagnéticos y deducir la óptica física a partir del electromagnetismo, la
descomunal obra de Maxwell.
Al igual que la química, la termodinámica surgió primero como una ciencia empírica. Después
de la mecánica, el siguiente gran capítulo formal de la física, pieza magistral de la ciencia
matemático-experimental, es la electrodinámica (ED). Los fenómenos electromagnéticos son
más difíciles de describir en pocas palabras y en términos sencillos que los puramente
mecánicos. En últimas sus ingredientes masivos, para no llamarlos materiales, son las
partículas cargadas eléctricamente; en movimiento, tales partículas dan lugar a corrientes
eléctricas. Las cargas, por sí solas, dan lugar a campos eléctricos; en movimiento, generan
también campos magnéticos. Los ingredientes no masivos, no por eso inmateriales, son los
campos eléctrico y magnético. Lo más grandioso de la noción de campo es esto: ¡un campo
magnético cambiante en el tiempo genera un campo eléctrico; un campo eléctrico cambiante
en el tiempo genera uno magnético! Pero los campos generados son también cambiantes, por
lo que el proceso de autogeneración continúa indefinidamente... y se propaga en el espacio:
eso son las ondas electromagnéticas… pa te de ellas es la luz isi le, ta i po ta te pa a el
homo sapiens y para otras especies, prácticamente todas las vivas.
Los fenómenos eléctricos y magnéticos inicialmente se atribuían a flujos eléctricos y
magnéticos. Así ocurrió también con el calor (flujo calórico) y hasta con la vida (flujo vital y
otros efluvios y humores). La idea de describir la interacción entre cargas y corrientes en
términos de campo se atribuye a Faraday. Esa idea fue muy afortunada; en definitiva, rebasó
ampliamente la fenomenología que en su tiempo abarcaban estos fenómenos. Lo que empezó
siendo una descripción gráfica de las fuerzas entre cargas y corrientes, un artificio
matemático, se volvió un ente material, el campo electromagnético, con energía y
momentum. Veamos.
En principio, la importancia de los campos radica en la posibilidad de describir
matemáticamente la fuerza que experimenta un objeto que posee carga q y tiene masa m, por
ende describir su trayectoria recurriendo a la segunda ley de Newton F = ma; la expresión
correspondiente se denomina fuerza de Lorentz:

F = q (E + vB).
En palabras, una carga (supuestamente puntual) que se mueve con velocidad v experimenta
una fuerza total que es la suma de dos términos: uno que depende solo del campo eléctrico,
otro que depende del campo magnético y del vector velocidad, en la forma que establece el
denominado producto vectorial. Resulta así fácil visualizar una descripción, en términos de
campos, de la fuerza que una carga puntual puede hacer sobre otra colocada a cierta distancia
y de la fuerza que un pequeño imán o un circuito de corriente puede hacer sobre otro imán u
otro circuito diminuto cercano, o simplemente sobre una carga en movimiento; en el primer
caso, se hablará de un campo eléctrico; en el segundo, de un campo magnético.
El lector ya estará acostumbrado a la descripción de interacciones en términos de campo:
basta con que regrese a la figura I.5. Allí se ilustra el campo gravitacional en el exterior
producido por la Tierra, una tierra esférica con densidad uniforme. Podríamos escribir: F = mg
(muy similar en su forma a qE). Pero debe tenerse cuidado: la magnitud de g, escribámosla
|g| o simplemente g, ya no es constante. Rigurosamente estaría dada por la relación: g =
GM/r2, siendo M para el caso la masa de la Tierra y r la distancia del objeto de masa m al
centro de la Tierra, o mejor, la distancia entre los centros de masa de los dos objetos que
interactúan gravitacionalmente, a condición de que los dos sean de forma esférica.
Los campos fueron tomando una realidad física a medida que el concepto se aprovechó para
avances conceptuales. El paso decisivo lo dio Einstein y está bosquejado en el manual que
escribiera con Infeld. Para los lectores menos experimentados en este tema, se hace aquí una
breve descripción gráfica de los campos en circunstancias muy sencillas, pero se les
recomienda bajar de nuestra página (o de algún otro lugar) el manual de Einstein e Infeld y
degustarlo en su capítulo tercero: Campo y relatividad. (La versión en español parece estar
agotada.)

Figura II.1. Campos eléctricos de cargas puntuales: a) positiva; b) negativa.

Figura II.2. Dipolos a) eléctrico y b) magnético.


Una carga eléctrica neta se denomina técnicamente monopolo eléctrico. No existe monopolo
magnético, o mejor, no ha podido determinarse su existencia. Históricamente, el estudio del
campo magnético se hizo con imanes (Fig. II.3), lo que oscureció el concepto mismo,
particularmente con la introducción de polos magnéticos.

Figura II.3. Campo magnético producido por un imán. La aguja o brújula se orienta en la dirección de las
líneas de campo.

Figura II.4. Un solenoide por el que se hace circular una corriente estacionaria (constante, denominada
también corriente directa, c.d.) por medio de una pila o batería o cualquier otro tipo de fuente de c.d. A
la derecha se ilustran las líneas de campo, resultado de la superposición de varias espiras como la de la
figura II.2b.

Aunque la situación es realmente más compleja, un imán produce un campo magnético


similar al de un conjunto de espiras circulares, como se ilustra en las figuras II.4; basta que se
compare con la figura II.3b; en la II.3ª se ilustra el efecto del campo resultante sobre un imán
diminuto; la figura sugiere la orientación del pequeño imán (imagíneselo a nivel atómico, una
molécula de magnetita, si lo prefiere), el cual de paso puede utilizarse para detectar el campo
magnético.
Se suele introducir el término momento de dipolo, eléctrico o magnético según el caso, para
caracterizar una propiedad intrínseca del dipolo mismo. A nivel atómico, el dipolo eléctrico se
visualiza como una deformación del átomo o molécula en la cual el núcleo no está en el centro
de la nube electrónica. Una imagen sencilla del dipolo magnético del átomo la suministra el
modelo de Bohr, aunque no debe tomarse literalmente: el electrón orbitando alrededor del
núcleo produce una corriente eléctrica, la cual a su vez produce un campo magnético similar al
de la espira de la figura II.2b. Pero se puede reemplazar el electrón por una esfera
macroscópica pequeña girando en círculo: regresamos, pues, de lo micro a lo macro, en
contravía de la historia. La materialización de este último sistema la logró Rowland a fines del
siglo XIX, a partir de los experimentos de Ørsted; de ahí se obtuvo un resultado de gran
importancia, al que volveremos en la siguiente sección.
El momento de dipolo magnético, o momento magnético, por brevedad, es más importante,
porque es proporcional al momento angular. Hablando de cargas y agujas magnéticas, los
casos descritos en las cuatro situaciones anteriores son los sistemas más sencillos que cabe
imaginar. Los polos vienen en parejas complementarias. Pero no se olvide que no hay
monopolo magnético; el polo norte y el polo sur resultaron ser una ficción: lo que hay es una
circulación de corriente, como se muestra en la figura II.2b.

Figura II.5 Experimento de Rowland. Una carga eléctrica girando en círculo produce un campo
magnético. El campo magnético es similar al de la espira, pero rigurosamente hablando es un campo
dependiente del tiempo. O mejor, para adelantarnos a la discusión de la sección 4.9, la carga se ve
como un campo eléctrico variando en el tiempo que a su vez genera un campo magnético. Ese campo
magnético se manifiesta desviando la aguja o brújula colocada en el centro.
Figura II.6. a) Campo eléctrico de dos cargas del mismo signo; b) campos magnéticos cuando dos imanes
se acercan, con diferente o la misma polaridad, término ambiguo que dio lugar a equívocos.

Otro caso sencillo lo constituyen líneas rectas muy extensas de carga y de corriente, alambres
infinitos si se quiere idealizar aún más, vale decir, cuando la longitud de los segmentos rectos
considerados es muy grande comparada con la distancia a la cual se quiere examinar el
campo. Para visualizarlos más fácilmente, considérense solo las secciones transversales de
esos segmentos o líneas; es como si se estuvieran observando puntos, siempre y cuando el
grosor de los segmentos sea suficientemente delgado. De nuevo las líneas del campo eléctrico
del alambre cargado positivamente (representado a la izquierda) divergen en dirección
perpendicular a la línea (recuerde que ya no se trata de un punto); en cambio las del campo
magnético del alambre de corriente en dirección hacia el lector son circulares, se cierran
sobre sí mismas. Esto se ilustra en la figura II.7. Si se observan con atención, se verá que las
del imán también se cierran sobre sí mismas (la que va sobre el eje se cerrará en el infinito).
Quizá el lector haya oído hablar de condensadores cilíndricos y de cables coaxiales. En uno y
otro se encierra el campo (eléctrico o magnético, respectivamente) entre dos cilindros
concéntricos. Las líneas de campo siguen la misma orientación que tienen en la figura II.7.
Por analogía con los fluidos, las líneas de campo dan lugar a un flujo a través de una sección
superficial. En ocasiones, es conveniente pensar en el flujo a través de una superficie cerrada.
A diferencia de los flujos de campo, en los fluidos mecánicos (líquidos o gases) esta situación
no es tan interesante, porque el flujo hacia dentro es invariablemente el mismo que el flujo
hacia fuera: las líneas de flujo son en principio cerradas. En el caso del campo eléctrico, en
cambio, éste puede dar lugar a un flujo neto (es el caso usual cuando hay una carga dentro), lo
que no ocurrirá con el campo magnético, precisamente porque sus líneas de campo son
cerradas.
Figura II.7. Sección transversal de los campos de líneas de carga y de corriente. a) Campo eléctrico de
una línea recta cargada; b) campo magnético de una línea de corriente, segmento recto muy extenso,
en dirección entrante a la hoja.

Por último, considérense dos placas paralelas muy extensas (representadas por planos
paralelos), y visualícese un corte transversal. Discutiremos brevemente dos situaciones
interesantes en que pueden producirse campos eléctrico o magnético muy aproximadamente
uniformes. En el primer caso, se trata de placas cargadas, la de la derecha con carga positiva,
la de la izquierda con carga negativa: es lo que suele denominarse un condensador de placas
planas, un dispositivo muy usual en diversos acumuladores y en múltiples circuitos eléctricos o
electrónicos.

Figura II.8. Campos producidos por placas paralelas ilimitadas. Se muestra solo una región de las placas.
a) Campo de placas extensas cargadas con cargas iguales y opuestas. b) Campo magnético producido
por un par de placas muy anchas que transportan corriente en direcciones opuestas.

El segundo caso es menos realista (poco frecuente) y representa igualmente dos láminas muy
extensas que llevan corriente, la inferior en la dirección que se aleja del lector y la superior
acercándose hacia él. A diferencia de las líneas de campo eléctrico, que empiezan y terminan
en las placas, las de campo magnético se cierran sobre sí mismas en el infinito, para el caso
ideal considerado, por fuera de las placas en el caso real de placas finitas. Las líneas de campo
se ilustran en la figura II.8. En ambos casos, debería tenerse en cuenta la deformación que
tiene lugar en los extremos de las placas, para satisfacer algunas propiedades de los campos
que no discutiremos en esta breve síntesis.
Hasta aquí se han hecho suposiciones muy fuertes, no solamente en cuanto a la geometría de
los objetos: se ha supuesto, por ejemplo, que las cargas o las corrientes han estado ahí desde
siempre. En un caso práctico, de la vida diaria, la fuente de carga sobre las placas del
condensador podría ser una fuente de voltaje alterno; lo mismo puede pensarse con la de
campo magnético en el lado derecho: corriente alterna que durante medio ciclo va hacia la
derecha por la placa inferior, hacia la izquierda en la superior, para luego hacerlo a la inversa.
El resultado para el primer caso se esquematiza en la figura II.9; no hemos dibujado las líneas
de campo magnético inducido: ellas son líneas circulares, siempre perpendiculares al campo
eléctrico, con centro en el centro de simetría de la figura, similares a las de la corriente de un
alambre muy largo, como el de la figura II.7b. De hecho, es como si la corriente hubiera
continuado dentro del condensador en la dirección de las líneas de campo eléctrico, en
sentido positivo si el campo eléctrico está aumentando, en sentido opuesto si está
disminuyendo con el transcurso del tiempo. Para el segundo caso (placas que llevan corriente,
alternando su sentido), surge un campo eléctrico inducido cuyas líneas de campo son
nuevamente perpendiculares, esta vez a las líneas del campo magnético que está oscilando en
el tiempo. Debe quedar claro que esos campos inducidos no tienen origen en cargas o
corrientes eléctricas: su origen es la variación en el tiempo de su contraparte, eléctrica o
magnética. A esos campos inducidos, no producidos por cargas o por corrientes eléctricas,
volveremos en breve.
4.9 Campos y ondas electromagnéticas
Esta última sección está destinada a examinar lo que ocurre cuando cargas y corrientes
cambian con el tiempo. Es lo que se conoce con el nombre de electrodinámica.
La historia de la electricidad y el magnetismo es muy rica e ilustrativa. No nos detendremos en
ella, por estar fuera del propósito de estas notas. Pero vale la pena rescatar los fenómenos
fundamentales que encierra y que pasaron desapercibidos durante muchos siglos. Uno de
ellos es el resultado del experimento de Rowland ya mencionado. Nos limitaremos a destacar
el hecho subrayado por Einstein e Infeld, a saber: del movimiento en trayectoria circular de la
carga surge un campo eléctrico variable en el tiempo que produce un campo magnético. Pero
lo contrario también ocurre: si se dispone de un campo magnético variable en el tiempo,
seguramente debe surgir un campo eléctrico. Históricamente las cosas ocurrieron a la inversa:
Faraday descubrió la ley que lleva su nombre, según la cual un imán o cualquier otra fuente de
campo magnético en movimiento puede generar, bajo condiciones adecuadas, una corriente
eléctrica, por ende, un campo eléctrico, responsable este último de la corriente generada. El
experimento más elemental seguramente es conocido por el lector: al acercar un imán a un
circuito como el que ilustra la figura II.9, no alimentado por ninguna fuente o batería, surge
una corriente en cierta dirección la cual se puede detectar mediante un galvanómetro; por el
contrario, al alejar el imán, aparece una corriente en dirección contraria. La dirección de la
corriente inducida sigue una regla denominada Ley de Lenz: el campo magnético producido
por esa corriente tiende a compensar la variación del campo magnético (en realidad del flujo,
pero ese concepto no lo hemos introducido).
Figura II.9 Inducción electromagnética. Al acercar un imán a un circuito (bobina) como el de la figura, se
genera una corriente en cierta dirección; al alejarlo, la corriente va en dirección contraria: es una
corriente inducida. Mientras no haya movimiento relativo entre el imán y la bobina, no habrá corriente
inducida. (Imagen tomada de http://www.rena.edu.ve/TerceraEtapa/Fisica/CorrientesInducidas.html)
La imagen inferior muestra con mayor detalle lo que se suele hacer en la práctica, utilizando un
solenoide.
Después de muchos experimentos similares, en los que Faraday acercaba el circuito al imán,
utilizaba un solenoide como el de la figura II.4, hacía variar la corriente que producía un campo
magnético, etcétera, llegó a la conclusión que resume su más importante contribución al
campo: cuando un campo magnético varía en el tiempo de alguna manera, da lugar a un
campo eléctrico inducido.

Figura II.10. Una fuente de corriente alterna produce entre las placas paralelas un campo oscilante. Ese
campo eléctrico variando en el tiempo, al igual que ocurre en el experimento de Rowland, produce un
campo magnético. No se ilustran las líneas de campo magnético, pero se puede entender fácilmente
que ellas son líneas circulares, siempre perpendiculares al campo eléctrico, con centro en el centro de
simetría de la figura, similares a las de la corriente de un alambre muy largo, como el de la figura 2.27b,
oscilantes para el caso. Obsérvese que alrededor de los segmentos rectos que llevan la carga (corriente)
de la fuente a las placas hay también líneas de campo cerradas, aproximadamente circulares cerca de
cada segmento.

A partir de las observaciones que siguieron al efecto descubierto por Faraday y en sus
esfuerzos por sintetizar las leyes del electromagnetismo, Maxwell se preguntó si un efecto
similar se observaría por variación de campos eléctricos. Su procedimiento experimental para
verificar su hipótesis se bosqueja en la figura II.10.
La predicción exacta de la forma en que varían espacial y temporalmente los campos eléctrico
y magnético en diversas geometrías bajo ciertas circunstancias y condiciones, su relación con
las cargas y las corrientes que los producen, la generación de nuevas corrientes y por ende la
nueva distribución de esas cargas dando lugar a nuevas formas de los campos, constituyen el
gran triunfo de la electrodinámica, como se conoce la teoría que sintetiza la descripción de
todos estos fenómenos electromagnéticos. Su enunciado son cuatro ecuaciones que llevan el
nombre de Maxwell, quien con su gran ingenio logró tan brillante síntesis. Combinándolas,
surge la maravillosa predicción a que hemos hecho referencia: los campos electromagnéticos
se propagan en el vacío a una velocidad que es precisamente la velocidad de la luz.
En palabras, se puede dar una somera idea de las consecuencias de aquella síntesis,
ejemplificada en lo que hemos dicho e ilustrado desde la sección anterior: 1) una forma de
generar campos eléctricos es mediante cargas; ellos obedecen a la ley del inverso del
cuadrado de la distancia en la forma que indica la ley de Coulomb; las líneas de campo se
originan en cargas positivas o parecen provenir del infinito; y se sumen en cargas negativas o
parecen proseguir al infinito; 2) otra forma de generar campos eléctricos es mediante campos
magnéticos que varían en el tiempo, bien sea moviendo imanes o mediante corrientes
alternas; las líneas de campo eléctrico así generadas son cerradas (a diferencia de las del
primer punto), lo que puede dar lugar a corrientes inducidas, si se colocan conductores allí
donde surgen esos campos; 3) a su vez, los campos magnéticos son producidos, en primera
instancia, por corrientes, es decir, cargas en movimiento; las líneas de campo magnético son
siempre cerradas; 4) pero al igual que los campos eléctricos inducidos mediante campos
magnéticos que varían en el tiempo, los campos eléctricos que varían en el tiempo dan lugar a
campos magnéticos inducidos.
A diferencia de los campos eléctricos inducidos, dando lugar a las corrientes inducidas que a
nivel experimental estudió tempranamente Faraday, los campos magnéticos inducidos por
campos eléctricos variables en el tiempo fueron predichos por Maxwell teóricamente y luego
verificados experimentalmente por él mismo y posteriormente por Rowland. Ése fue quizá el
mayor mérito experiimental del primero; fue, de paso, lo que le condujo a la unificación del
electromagnetismo y de la óptica, dos campos hasta entonces totalmente separados. Fue así
como apareció una constante fundamental que ha trascendido todos los campos: la velocidad
de la luz. Formado en la escuela newtoniana, Maxwell no tuvo más remedio que apelar a un
medio físico ya previsto por otros, el éter luminífero, para dar cabida a su constante: sus
ondas, incluida la luz visible, se moverían a velocidad c en ese tenue medio material; en
cualquier otro sistema, por ejemplo la Tierra, la cual para entonces era bien sabido que se
mueve alrededor del Sol, esas ondas se moverían con otra velocidad, resultado de la adición
de velocidades de la mecánica galileana y newtoniana; las ondas de luz y la Tierra misma se
moverían también en ese medio, el omnipresente éter. Las contradicciones no tardaron en
presentarse, pero aquí no se hará más que una mención circunstancial a esos problemas,
resultado del experimento negativo de Michelson y Morley.
Volvamos a los campos, campos en el vacío, para mayor facilidad. Cada vez que un campo
eléctrico cambia produce un campo magnético igualmente variable, el cual a su vez va a
generar un campo eléctrico cuya variación provocará un campo magnético y así
sucesivamente: esa es la razón para que se produzcan las ondas electromagnéticas: campos
entrelazados que se propagan, aún en el vacío, o mejor, sobre todo en el vacío, haciendo que
nos llegue valiosa información del interior de las estrellas, del confín del Universo. En la
materia, esos campos producen efectos sobre las cargas que hay en sus ingredientes
fundamentales y se generan nuevos campos que se superponen con los iniciales. Los campos
resultantes satisfacen las ecuaciones de Maxwell, cuya elegante formulación matemática el
lector puede consultar en los textos (por ejemplo en la sencilla presentación que de ellas hace
Sagan en El mundo y sus demonios, capítulo 23) y de cuya aplicación cotidiana está inundado
el mundo de las comunicaciones.
No valdría la pena el esfuerzo anterior hacia la visualización de los campos electromagnéticos
para lo que nos incumbe, el mundo microscópico, si no tuviéramos en cuenta la producción de
esos campos en el interior mismo de la materia, en los átomos y, por qué no, en los núcleos.
Ilustrémoslo con un ejemplo dinámico de singular trascendencia para el universo cuántico.
Surgirán de paso nuevas contradicciones del enfoque mecanicista de la física.

Figura II.11. Propagación de una onda electromagnética plana. Obsérvese que los tres vectores, a saber,
E, B y c, son perpendiculares entre sí. Se dice que esta onda tiene polarización lineal en dirección y.

Recuérdese que un movimiento circular, en un plano XY, puede verse como la suma o
superposición de dos movimientos oscilatorios, uno en dirección x, el otro en dirección y. En la
imagen clásica del átomo más sencillo, el de hidrógeno, el electrón estaría revoloteando
alrededor del protón, en un movimiento circular. Visto de canto, desde el eje Y o desde el eje
X, es como si el electrón estuviera oscilando, a lo largo de X o de Y respectivamente, con una
amplitud A igual al radio de la supuesta órbita. En esas condiciones, se tiene un dipolo
eléctrico que oscila, dando lugar así a ondas electromagnéticas.
Si los físicos hubieran adivinado más temprano que las corrientes son cargas eléctricas
(elementales) en movimiento y que el magnetismo es producido por el movimiento de esas
cargas, habrían podido dar un soporte fundamental a la hipótesis atómica. Fue el haber
pasado por alto esta hipótesis lo que hizo que llegaran la mayoría de los físicos más
prominentes del siglo XIX a los albores del siglo XX menospreciando la hipótesis atómica.
Seguramente esta reflexión sirva para elevar aún más la imagen del joven Einstein. De sus
cinco históricas contribuciones, publicadas todas ellas, a excepción de su tesis doctoral, en
1905, la que llamó más la atención inicialmente fue la que se refiere al tamaño de los átomos
y a su movimiento browniano. Pero volvamos a una imagen más reciente, a saber, la del
electrón circulando como se ilustra en la figura, una imagen prevista por el modelo de
Rutherford del átomo.
En términos clásicos, se diría que el electrón está radiando, generando campos que se
propagan, lo cual significa que estaría perdiendo energía. En condiciones estacionarias el
electrón no radia, lo que llevó a descartar el modelo de Rutherford. Que eso no sea lo que se
observe significa, de paso, el colapso del edificio clásico: los electrones no pueden estar
siempre radiando si no tienen una fuente que los esté alimentando permanentemente.

Figura II.12. Un punto de partida de toda teoría clásica. Una carga girando en círculo produce ondas
electromagnéticas. Estas ondas pueden visualizarse como el resultado de osciladores cruzados (vertical
y horizontal; véase el apéndice I).

Ese fue el derrumbe de la pieza más monumental de la teoría clásica, al tenerse que concluir
que la radiación atómica ocurre de otra manera, no predicha por el electromagnetismo de
Maxwell. De eso diremos algo en el capítulo cuarto y nos ocuparemos más a fondo en la
segunda parte.

Figura II.13. Campo variable de un dipolo eléctrico. A grandes distancias, las ondas electromagnéticas
forman ondas planas, como sugiere la figura I.6. (Tomado de Panofsky y Phillips: Classical Electricity and
Magnetism,Addisson Wesley 1958.)
Espectro Electromagnético
A pesar de lo anterior, una antena es la materialización de la oscilación dipolar, componente a
lo largo del eje X o del eje Y que acabamos de describir; para ese caso, las leyes de la
electrodinámica funcionan inequívocamente. Es así como se generaron ondas
electromagnéticas para la comunicación desde finales del siglo XIX, en esencia el mismo tipo
de ondas que nos llega de los átomos que constituyen la materia estelar. El tipo de ondas o
radiación electromagnética que se puede producir es muy amplio y cada vez estamos en
mejores condiciones para manipular y utilizar las ondas resultantes, desde muy bajas
frecuencias, por ende muy larga longitud de onda (ondas de radio y de TV), hasta la región de
muy altas frecuencias o altas energías, en la región del ultravioleta (UV). En la tabla adjunta se
muestran los rangos respectivos en longitud de onda, frecuencia y energía equivalente.

Figura II.14. Espectro electromagnético.


Es suficiente por ahora con lo que acabamos de hacer para adentrarnos en la descripción del
rango de fenómenos que puede describir la teoría cuántica relativista. Faltaría agregar algunas
nociones elementales adicionales sobre el comportamiento de las ondas clásicas, a las que ya
nos hemos referido. Lo haremos cuando sea necesario.
Polarización de la luz
Dispersión de la luz
“Y a nuestro alrededor o hay ingenuos que siguen creyendo en el
Progreso Incesante de la Humanidad mediante la Ciencia y los
Inventos, o monstruos enloquecidos que sueñan con la
esclavitud o la destrucción de razas y naciones enteras.” Sábato
REFERENCIAS
Andrade, E. (2003). Los demonios de Darwin. (Universidad Nacional, Bogotá.)
Aspect, A., et al. (1982). Experimental Realization of Einstein-Podolsky-Rosen-Bohm
Gedankenexperiment: A New Violation of Bell's Inequalities. (Phys. Rev. Letters 49, 91.)
Asimov, I. (2001). Grandes ideas de la ciencia. (Alianza Editorial, Antofagasta.) Versión
electrónica en: http://www.librosmaravillosos.com/grandesideasdelaciencia/index.html
(Visitado el 29/08/2016.)
Baggot, J. 2011. A quantum story. (Oxford University Press, New York.)
Beltrán, V. (1992). Para atrapar a un fotón. (Fondo de Cultura Económica, México.)
Bell, J.S. (1966). On the problem of hidden variables in quantum mechanics. (Rev. Mod. Phys.
38, 447.)
Bohr, N. (1935). Can Quantum-Mechanical Description of Physical Reality Be Considered
Complete? (Phys. Rev. 48, 696.)
Brockman, J. (1995). The third culture. (Simon & Schuster, New York.)
Bronowski, J. (1973). El ascenso del hombre. (Capitán Swing, México.)
Cetto, A.M. (1987). La luz en la naturaleza y en el laboratorio. (Fondo de Cultura Económica,
México.)
Colciencias (1995). Colombia al filo de la oportunidad.
Dirac, P.A.M. (1930). The principles of quantum mechanics. (Oxford University Press, London.)
Einstein, A. (1917). Relativity, the special and the general theory. (100th anniversary edition.
Princeton University Press, 2016.)
Einstein, A., Podolsky, B., and Rosen, N. (1935). Can Quantum-Mechanical Description of
Physical Reality Be Considered Complete? (Phys. Rev. 47, 777.)
Einstein, A. and Infeld, L. (1938). The Evolution of Physics: The Growth of Ideas From Early
Concepts to Relativity and Quanta. (Cambridge University Press.)
Einstein, A. (1984). La evolución de la física. (Salvat, Barcelona.)
Farrington, B. (1944). Greek science: its meaning for us. Part I. (Penguin Books, London.)
Farrington, B. (1949). Greek science: its meaning for us. Part II. (Penguin Books, London.) (Los 2
volúmenes fueron publicados en uno solo por la misma editorial en 1953.)
Fernández-Mañada: Ciencia, incertidumbre y conciencia. Heisenberg (2004).
Feynman, R. (1963). The meaning of it all
Feynman, R. (1964). The character of physical law
Fukuyama, F. (1992). El fin de la historia y el último hombre. (Editorial Planeta, Madrid .)
Gao, S. (2013). Understanding quantum physics. (Kindle single.)
Gell-Mann, M. (1994). The quark and the jaguar. (Holt paperback, New York.)
Giraldo, J. (1977). Revista Colombiana de Física.
Giraldo, J. (2005). Genio entre genios. (Ediciones Buinaima, Bogotá.)
Giraldo, J., editor. (2006). Conformación de un nuevo ethos cultural. (Ediciones Buinaima,
Bogotá.)
Giraldo, J. (2009). Unos cuantos para todo. (Ediciones Buinaima, Bogotá.)
Giraldo, J. (2017a). ¿Nano-qué? Nano-revolución. (Ediciones Desde Abajo, Bogotá.)
Giraldo, J. (2017b). Cerebro individual, conciencia colectiva. (En preparación.)
Greenfield, S. (2016). Mind change. (Random House, New York.)
Gribbin, J. (2013). The quantum mystery. (Kindle single.)
Harari, Y.N. (2017). Homo Deus. A brief history of tomorrow. (En español, Debate, 2016.)
Harari, 2015. Sapiens. De animales a dioses. Breve historia de la humanidad. (Debate, Buenos
Aires.)
Hernández, C.A. (2009). Galileo: el arte y la ciencia.
Jammer, M. (1974.) The philosophy of quantum mechanics.
Jeans, J. (1948). History of physics. (En español: Historia de la Física, 1968, Breviarios del Fondo
de Cultura Económica, México D.F.)
Kaku, M. (2013). The future of the mind. (Doubleday, New York.)
Kandel, E. et al., editors, 2013. Principles of neural sciences. (5th edition, McGraw-Hill, New
York.)
Klein, É. (20013). Física cuántica. (Siglo XXI editores, México.)
Kragh, H. (2007) Quantum generations
Lanza, R. and Berman, B. (2010). Biocentrism. (Benbella books, Dallas.)
Lapiedra, R. Las carencias de la realidad. (Tusquets, Barcelona.)
Ley Koo, E. (1997). El electrón centenario. (Fondo de Cultura Económica, México.)
Lozano Leyva, M. (2005). De Arquímedes a Einstein. (Debate, Madrid.)
Maldonado, C.E. (2016). Complejidad de las ciencias sociales. Y de otras ciencias y disciplinas.
(Ediciones Desde Abajo, Bogotá.)
Margulis, L. y Sagan, D. (1997). Microcosmos. Four billions years of microbial evolution. (En
español, Tusquets, Barcelona.)
McFaden, J. (2001). Quantum evolution. (Norton, New York.)
Nicolelis, M. (2011). Beyond boundaries. (St. Martin`s Books, New York.)
Prigogine, I. (1980). From being to becoming. (Freeman and Co., San Francisco.)
Rice y Jortner, 2010.)
Ritter, (1991). En Historia de la Ciencia. (Serres, 1991.)
Rosemblum, B. y Kuttner, F. (2011). El enigma cuántico. (Tusquets, Barcelona.)
Rosemblum, B. y Kuttner, F. (2012). Quantum enigma.
Russell, B. (1949.) La perspectiva científica. ( , Barcelona.)
Russell, B. (1967). Para qué he vivido, en Autobiografía. (George Allen Unwin, Londres.)
https://www.aip.org/history/exhibits/electron/jjthomson.htm (consultado para esta cita el ).
Sábato, E. (1951). Hombres y engranajes. (Alianza Editorial, Buenos Aires.)
Sagan, C. (1985). Cosmos.
Sagan, C. (1996). El mundo y sus demonios. (Editorial Planeta, Madrid.)
Sánchez Ron, J.M. (2001). Historia de la física cuántica
Serres, M. (1991). Historia de la ciencia.
Snow, C. P. (1959). The two cultures.
Thuillier, P. (1990). D'Archiméde à Einstein. Les faces cachées de l'invention scientifique.
Urbina, 2007. Buinaima ayer, en Conformación de un nuevo ethos cultural (Giraldo, 2007,
pg.39)
Vasco, C.E. (2015a).
Vasco, C.E. (2015b).
Weinberg, S. (1992). Dreams of a final theory. (Pantheon Books, New york.)
Weinberg, S. (2016). The discovery of subatomic particles.
Weinberg, S. (2016). To explain the world. (Harper Collins, New York.)
Wheeler, J.A. (1983). Law without law en Quantum theory of measurement. (Princeton
University Press, Princeton.)
Wigner, E. (1995). En The collected works of Eugene Wigner. Philosophical reflections and
syntheses. Vol.6. J. Mehra, editor. (Springer Verlag, Berlin.)
QUANTUM SAPIENS

Quantum Sapiens, evolución de una modesta idea, se convirtió en un ambicioso


proyecto intelectual. Concebido inicialmente como una trilogía, se propone ahora
como una pentalogía, mas no en el terreno literario o artístico. Quisiera ser un
tractatus escrito a varias manos, con una intención a la vez pedagógica y divulgadora
de las ciencias, en el espíritu de unir las 2 culturas a que hacía referencia C.P. Snow.
Nos importa de manera especial la ciencia de la educación (5ª parte), pero no la de una
educación cualquiera, más bien una posible respuesta a la pregunta: ¿cómo debería
ser la educación del futuro?
El primer tomo surgió del interés del autor por exponer, en forma sencilla, sin que se
requirieran conocimientos previos de matemáticas y física, los conceptos principales
de la teoría cuántica, la más precisa de las teorías hasta ahora descubiertas por el
sapiens. En la misma forma, el segundo destaca las aplicaciones científicas y
tecnológicas más importantes de sus principios: desde las partículas elementales, los
núcleos, los átomos y las moléculas, pasando por los dispositivos opto-electrónicos,
inicialmente de estado sólido, luego los microcircuitos, tan amplios que podrían
extenderse a los neuronales, dispositivos actualmente plasmados principalmente en la
nanotecnología, hasta el origen del universo y los avances más recientes en el origen
de la vida. En pocas palabras, la nueva revolución tecno-científica.
El tercero profundiza en estos aspectos, particularmente en el procesamiento cuántico
de la información (en la inteligencia artificial y a nivel biológico) que ha dado lugar a lo
que se puede denominar la segunda revolución cuántica. El cuarto es un ensayo más
filosófico, con el interés puesto en las ciencias humanas y sociales sin descartar el arte
como primera forma de conocimiento. El quinto, quizá no el último, estará dedicado a
reflexiones sobre la educación del futuro, a partir de una nueva concepción y nuevos
usos del procesamiento de la información.
Breve historia de una pentalogía
Los mitos, como forma de conocimiento, con todo el bagaje cultural que encierran, son tan
importantes como la ciencia misma, otra forma cultural. Bertrand Russell llegó a afirmar que el
arte es la primera forma de conocimiento. Puede ser la más importante, porque es la máxima
expresión de la creatividad humana. No fue indispensable esperar al desarrollo de la ciencia
moderna para aceptar que el conocimiento científico es de trascendental importancia. La
ciencia antigua, con métodos muy limitados, logró avances notables en el terreno práctico con
ayuda de la intuición y de las artes, pero sobre todo a partir de la reflexión filosófica. En la
edad moderna, auxiliada por las matemáticas y la observación experimental, la llamada
filosofía de la naturaleza tuvo su máxima expresión en la física. Nadie se atrevería a negar
categóricamente la trascendencia de la filosofía; con todo, cada vez se tiene menos en cuenta
en los planes de estudio y se deja como material de relleno.
La tecnología hoy ha adquirido un nuevo status, una nueva dimensión. De ahí surgieron las
llamadas nuevas t.i.c. En resumen, habrá que reconocer hoy 5 formas de conocimiento que,
sin que pretendamos ordenar por prioridades, agrupamos en 5: artes, conocimiento ancestral,
ciencias, filosofía, y conocimiento apoyado por y derivado de las tecnologías, formas
diferenciadas que deberían estar estrechamente interrelacionadas. Esas cinco formas de
conocimiento conforman lo que podría denominarse Conocimiento Integrado, CI. Conforman
todas ellas un pentivium, camino cruzado de cinco vías, por analogía con antiguos esquemas
resumidos en el trívium, primero, y el cuadrivium después. Una pentalogía sustentada en el
pentivium será, pues, el objeto del plan.
En 2019 estaremos celebrando el segundo bicentenario de nuestra independencia política. El
primer bicentenario nacional fue celebrado conjuntamente con otras naciones casi una década
atrás, cuando se conmemoró el llamado Grito de Independencia ocasionado por el famoso
Florero de Llorente, el 20 de julio de 1810. Por casualidad, el 21 de julio pasó a ser para algunos
de los autores de estos ensayos una fecha tan importante o más que el día anterior.
En efecto, en 2019 se celebrará, o se habrá echado por completo al olvida, la primera reunión
que se hizo, bajo la presidencia de César Gaviria, de la denominada Misión de Ciencia,
Educación y Desarrollo (Misión CED). La CED dio lugar a una organización que tuvimos la
ocurrencia de proponer; su fundación ocurrió el 21 de julio de 2004, justamente el día en que
se debió conmemorar la primera década del Informe conjunto de comisionados (Informe CED)
denominado «Colombia, al filo de la oportunidad». Hoy se habla de una 2ª oportunidad, y a fe
que lo es. La organización a la que hacemos referencia se denominó inicialmente Asociación
Colombiana pro Enseñanza de la Ciencia, Buinaima. Con motivo de celebrarse su primera
década, cambió de asociación a corporación, así que hoy la denominamos Corporación
Buinaima. Acorde con el tiempo que el proponente de estos ensayos dedica a la corporación,
se hace referencia al Proyecto Ethos Buinaima, ue te d ía o o o jeto ge e a ue as
fo as de pe sa , se ti a tua .
Las 3 acciones que denotan esos verbos están estrechamente relacionadas. El sentir y el actuar
no son hereditarios; el pensar lo es menos. Por eso afirmamos en Buinaima sin vacilaciones
ue el tale to se desa olla . Desafo tu ada e te la educación, contrariamente a lo que
pensaban Kant, Victor Hugo y otros humanistas, no protege de la barbarie. Así lo reconoce uno
de los filósofos (también político) contemporáneos (Ferry, 2016).

También podría gustarte