Está en la página 1de 81

QUANTUM SAPIENS I

La Primera Revolución Cuántica


Jairo Giraldo Gallo
«The eternal mystery of the world is its comprehensibility», Albert Einstein (1936).

Animado por Leopold Infeld y con la intención expresa de apoyar a este financieramente,
Einstein aceptó el reto de escribir un libro divulgativo con el título La evolución de la física (The
Evolution of Physics: The Growth of Ideas From Early Concepts to Relativity and Quanta,
Cambridge University Press, 1938). Sobra advertir al lector que el libro fue todo un éxito
editorial. Muerto Einstein, Infeld escribió un prólogo con las ligeras actualizaciones que
consideró necesarias (1960). El espíritu con el que fue escrito ese texto en gran medida sirvió
de inspiración a la primera parte de este ensayo. Sus autores establecen una interesante
comparación en el primer párrafo del primer capítulo, primera sección, THE GREAT MYSTERY
STORY (EL GRAN MISTERIO, en la edición de Salvat, 1986) entre una novela de misterio y la
construcción de la ciencia:
«En la imaginación existe la historia de misterio perfecta. … Si seguimos la trama cuidadosamente,
llegamos a la solución (del misterio) por nosotros mismos. …»

Pero, señalan los autores, cosa muy diferente ocurre con los misterios en el libro de la
naturaleza. Y recalcan en el tercer párrafo:
«El gran misterio (no subrayado en la versión original) permanece aún sin explicación. Ni siquiera
podemos estar seguros de que tenga una solución final. La lectura (del gran libro de la naturaleza) nos
ha hecho progresar mucho; nos ha enseñado los rudimentos del lenguaje de la naturaleza; nos ha
capacitado para interpretar muchas claves y ha sido una fuente de gozo y satisfacción en el avance a
menudo doloroso de la ciencia. A pesar del gran número de volúmenes leídos e interpretados, tenemos
conciencia de estar lejos de haber alcanzado una solución completa, si en realidad existe.»

Ese párrafo resulta ser hoy más riguroso que nunca. Al gran misterio le han sucedido los
misterios de la física cuántica. Einstein denominó a sus consecuencias Spooky actions at a
distance (Acciones fantasmagóricas a distancia), las que rechazó por absurdas. De haber hecho
su revisión unos pocos años más tarde, Infeld hubiera podido modificar profundamente la
cuarta parte del texto, la que se refiere a los cuantos, agregando a ella en particular, no ya la
predicción, sino la comprobación, de esas extrañas acciones instantáneas a distancia conocidas
como entrelazamiento. Formado en la disciplina científica más exitosa del siglo XX, debo
reconocer mi profunda ignorancia e incapacidad para poder entender esos misterios a
cabalidad. Parecería que el gran misterio cuántico escapa a nuestra comprensión.

El presente texto, una divulgación de la evolución de la física durante el último siglo en lo que
se refiere a el universo cuántico, es hasta cierto punto una historia de misterio, mucho más
que una simple novela de ficción, o si se quiere, un relato de suspenso que pareciera no estar
sacado de la historia real de la ciencia; en ella se dice lo que va a ocurrir desde el comienzo;
ello no impide que el misterio se mantenga y, sobre todo, aunque continúe sin resolverse,
podamos usarlo a nuestro favor… o en nuestra contra; ello depende de nosotros mismos. La
primera parte se limita a lo que empezó como una transformación en la forma de hacer
ciencia, dentro de la más básica de todas, la física. La segunda, con la participación de otros 2
autores y en preparación, se aventura a hacer algunas conjeturas, con base en lo que ha
ocurrido en menos de dos décadas del presente siglo

La frase que sirvió de entrada a esta breve presentación fue tomada literalmente de "Physics
and Reality" (1936), en Ideas and Opinions, de la traducción al inglés realizada por Sonja
Bargmann (New York, Crown Publishers, 1982), p292. Usualmente se traduce y es citada en
forma ligeramente diferente: “Lo más incomprensible del universo es que sea comprensible”,
o en esta otra forma, más sutil y más fiel: “El eterno misterio del mundo radica en su
inteligibilidad”.

Quizá en su momento (1936), poco después de haber sido publicado el famoso texto de
Einstein, Podolsky y Rosen (1935) que diera lugar a la célebre “paradoja EPR”, la frase tendría
sentido. En nuestra opinión, si Einstein hubiera vivido para verlo, podría reconocer que su
citada frase ya no es del todo cierta: el universo ya no es comprehensible, al menos en el
sentido exigido por la localidad einsteniana. En primer lugar, hoy ya no podría llamarse
paradoja: el texto o artículo citado por las iniciales de los apellidos de sus autores, EPR, es un
experimento pensado; de acuerdo con lo inverosímil de sus predicciones, lo que se pretendía
demostrar era la incompletez de la mecánica cuántica. Esto ocurrió casi medio siglo antes de
que se diera la contundente verificación experimental del fenómeno del entrelazamiento
cuántico (1982), el más misterioso de toda la física conocida hasta el presente. En segundo
lugar, lo que ellos supusieron equivocado resultó ser lo correcto: la localidad no se presenta,
como lo demostró John S. Bell (1964). La Segunda Revolución Cuántica nos ha llevado a
comprobar las más extravagantes predicciones e implicaciones de la teoría que lleva ese
nombre y por ende sus posibles aplicaciones. «El gran misterio permanece aún sin
explicación», y a lo mejor tenga la misma suerte que el gato de Schrödinger: vivo y muerto a la
vez, mientras la caja permanezca cerrada, como establece el principio de superposición, el más
extraño de todos los principios de la física, mucho más que el principio de incertidumbre. O
para decirlo en las palabras de Pascual Jordan: “La observación no solo perturba lo que se
mide, ella lo produce… nosotros mismos producimos los resultados de la medida.” (Jammer,
1974.) (The philosophy of quantum mechanics.)

De esas fantasmagóricas acciones a distancia y de aquellos misteriosos principios que las


predicen nos ocuparemos en este primer texto. También de sus aplicaciones, particularmente
las que se refieren a las tecnologías posmodernas, surgidas de tan impresionantes acciones a
distancia, de los efectos del tunelamiento cuántico y otras rarezas, como las causadas por los
efectos del espín, una intrínseca propiedad cuántica ausente en el mundo clásico o por los
condensados también cuánticos que Bose y Einstein predijeron hace casi un siglo. Ya la física
no puede pretender explicarnos lo que ocurre en el universo, simplemente se limita a predecir
el efecto de sus códigos secretos. Pero lo hace con una precisión tal que es como haber
encontrado la llave maestra que abre todas las puertas de los tesoros escondidos en su
vientre. El Homo Quanticus sabe cómo hacerlo, aunque no lo entienda. El Homo Sapiens
debería hacerlo para el bien, no para su propia destrucción, y en eso consiste la sabiduría, esa
es la moraleja a extraer de estas modestas notas que no pretenden explicar, solo exponer,
algunos secretos del Universo Cuántico. El Quantum Sapiens (en ocasiones lo denotaremos
por sus iniciales, QS) podría ser el mediador.

En el segundo tomo, escrito a 6 manos, nos ocuparemos más a fondo de algunas de las
implicaciones de esa física que, aunque se completó en su formulación básica matemática
hace casi un siglo y dio lugar a una revolución tecnológica que transformó el mundo, está
produciendo en la primera parte del siglo XXI una revolución científico-técnica sin parangón, la
segunda revolución cuántica.
CONTENIDO

PRÓLOGO
DEDICATORIA
INTRODUCCIÓN
A modo de prolegómenos
Un largo trecho
Un mundo sui-generis
Prolegómenos
Cuerpo negro, cuantización y evolución como conceptos
Más allá de la dialéctica
La universalidad de los cuantos y la evolución cultural
Motivaciones intrínsecas y extrínsecas
Justificando un doble calificativo
Síntesis de la evolución biológico-cultural
Evolución de la física y fin de la historia
La información es más fundamental que la materia y la energía

PRIMERA PARTE
Qué es y qué no es la Mecánica Cuántica
1. Evolución de las ideas
2. Los primeros conceptos cuánticos
3. Los primeros experimentos con electrones
4. De vuelta al gran misterio
5. Los primeros principios: un formalismo matemático
6. Acciones fantasmagóricas a distancia
7. De regreso a la filosofía natural
8. Interpretaciones múltiples

SEGUNDA PARTE
Física Cuántica y algunas de sus aplicaciones
9. Del átomo al estado sólido
10. Del núcleo del átomo al núcleo de las estrellas y de las galaxias
11. De la electrónica a los nanodispositivos
12. Nanociencia, nanomedicina y nanoneurociencias
13. La física subatómica
14. Futuras aplicaciones

TERCERA PARTE (en preparación)


La Segunda Revolución Cuántica (contenido tentativo)
15. Irreversibilidad, emergencia y adaptabilidad
16. Neguentropía o información, según Shannon
17. Sistemas complejos y Sistemas biológicos
18. Información clásica
19. Información biológica
20. Información cuántica
21. El problema de la conciencia
22. Lo que cabe esperar

EPÍLOGO
APÉNDICE
Las dos grandes teorías deterministas
1. Mecánica
2. Electrodinámica
3. Ondas y campos

REFERENCIAS
PRÓLOGO
Carlos Eduardo Vasco Uribe
DEDICATORIA

A nuestras esposas, hijos y nietos…


INTRODUCCIÓN
A modo de prolegómeno
Un largo trecho
«El hombre es el primer animal que ha creado su propio medio.
Pero —irónicamente— es el primer animal que de esa manera se
está destruyendo a sí mismo.» Ernesto Sábato, físico y…. sapiens

Esta introducción puede parecer excesiva para un texto de divulgación científica… y lo es,
tanto como del dicho al hecho… Es muy largo el camino recorrido por la Humanidad en su
búsqueda del ser humano. Este primer tomo de Quantum Sapiens es apenas una modesta e
insignificante contribución a ese proceso.
La divulgación puede hacerse de muchas maneras. Divulgar el quantum, “un esqueleto en el
armario de la física”, o el secreto de familia mejor guardado, es ciertamente peligroso. A lo
mejor ningún esquema de divulgación por sí solo cumpla los propósitos que a nuestro modo
de ver han de exigirse en el caso que nos ocupa: el QUANTUM con todas sus implicaciones.
Antes que cualquier otra cosa, en la divulgación científica ha de evitarse la vulgarización. Si con
la divulgación del enigma cuántico no caemos en ella, habremos logrado una buena parte del
propósito principal que tenemos en mente. (Véase además Rosemblum y Kuttner, 2011.) Pero
hay muchos otros.
En efecto, son muchas las razones que nos llevaron a escribir este «ensayo pedagógico», si es
que se puede clasificar de alguna manera. Más abundantes son las motivaciones que se
tuvieron a la hora de abordar el asunto, los quanta, en la forma en que finalmente se hizo. En
esta y la siguiente subsección se resume la motivación principal: son, pues, la verdadera
introducción. Las otras subsecciones de la presente INTRODUCCIÓN bien hubieran podido
incorporarse como PRIMERA PARTE, pero un lector apresurado podría dejarlas de lado en una
lectura inicial, para volver a ellas solo si lo considera pertinente. Son un anticipo, además, al
segundo tomo anunciado arriba.
En 2005 se celebró en el mundo, por resolución de la Asamblea General de la Organización de
las Naciones Unidas, el Año Internacional de la Física. Una resolución similar denominó a 2015
Año Internacional de la Luz. No sobra advertir que en las 2 celebraciones la figura principal a
recordar fue la del físico Albert Einstein, quien en 1905 sentó los pilares básicos de dos nuevas
teorías físicas y en 1915 completó su obra cumbre, la teoría general de gravitación universal.
Su máxima aspiración, una teoría unificada, continúa siendo hoy una quimera, a pesar de que
muchos creen que estamos cerca de la teoría del todo.
La idea central con estas celebraciones es doble: acercar al grueso público a las ciencias, para
el caso la física, y recordar a los políticos y otros líderes sociales la importancia de las mismas
para el desarrollo de los países. Como contribución a la primera celebración, uno de los
autores escribió una monografía que tuvo gran acogida: Genio entre genios, breve reseña de la
vida y obra del físico más afamado de todos los tiempos. No es por mera coincidencia que su
nombre se cita más de 200 veces en estas notas. (Giraldo, 2005. Una versión electrónica puede
verse en: www.ethosbuinaima.org)
A diferencia de otros ensayos, en donde se subrayan los aportes de Einstein a la relatividad del
tiempo y el espacio y a su teoría general de relatividad, o Teoría de la Gravitación (GT, por sus
siglas en inglés, coincidente con Teoría General), aquella reseña destaca el carácter pacifista y
humanista del genio y su contribución singular a los fundamentos de la Teoría Cuántica (QT)
(comportamiento dual de la luz), misma que finalmente declaró incompleta; se subraya
también allí su no menos importante contribución a la mecánica estadística, aunque poco
suela destacarse; en efecto, retomando los aportes de Maxwell y Boltzmann, Einstein elaboró
un modelo matemático fundamentado en la hipótesis atómica para explicar por primera vez el
hasta entonces extraño movimiento browniano, abriendo de paso la posibilidad de medir
indirectamente el tamaño de átomos y moléculas. Esto lo hizo en una época y en un entorno
poco favorable para las ideas atomistas, tan poco que los resultados de su tesis doctoral, vale
decir el autor de la tesis y el artículo que reseñaba su trabajo, pasaron inadvertidos. Pero el
autor había ido mucho más lejos, y antes de la monografía sobre su tesis doctoral había
publicado 4 artículos, 3 de los cuales resultaban a todas luces controvertibles para la física del
momento. Él mismo calificaba algunos de ellos de revolucionarios. El primero, conectado con
su tesis, fue precisamente Sobre el movimiento requerido por la teoría cinética molecular del
calor de pequeñas partículas suspendidas en un líquido estacionario.*
Otra gran contribución de Einstein a la física estadística la realizó con un gran físico hindú,
Satyendra Nath Bose, y se denomina por ello estadística de Bose–Einstein. A esta y a la de
Fermi–Dirac, la otra pieza de la Física Estadística Cuántica, tendremos que referirnos
posteriormente. La última surge a partir de otro principio cuántico de fundamental
importancia, el Principio de Exclusión, debido a Wolfgan Pauli. Las partículas que obedecen
una u otra, se denominan genéricamente bosones o fermiones, respectivamente. Así, pues,
Einstein tuvo que ver con el desarrollo posterior (léase actual) de los campos esenciales de la
física.
Coincidió la primera celebración con una campaña del Ministerio de Educación Nacional
promocionando las Competencias científicas. El autor de esta primera parte de QS contribuyó
con unos talleres sobre Nanotecnociencia, dirigidos a docentes de enseñanza básica, que
dieron lugar después a un escrito a varias manos. (Giraldo et al., 2007.) El punto de encuentro
entre las dos actividades, monografía y nanotalleres, vuelve a ser la física cuántica, la que
establece las leyes y los principios que regulan el comportamiento de los átomos, su interior y
sus agregados moleculares. Surgió entonces la propuesta a la Dirección Académica de la Sede
Bogotá de la Universidad Nacional de Colombia, por parte de Giraldo, de establecer un curso
de libre elección, dirigido a estudiantes de todos los programas académicos. El curso se
denominó Cuántica para todos y para todo y ha tenido gran acogida desde que se instauró con
ese nombre. Solemos referirnos a él por sus iniciales, CPTPT. Para ayudar al desarrollo del
curso se escribieron unas notas recopiladas en el texto Unos cuantos para todo. (Giraldo,
2009.) La idea central del curso y de las notas es darle una orientación más humanística a lo
que puede derivarse de la cuántica, de sus aplicaciones y sus implicaciones. Lo que se

*
Reflexionando sobre la incidencia del primero y el último de los trabajos de Einstein de aquel año (la
tesis fue publicada a comienzos de 1906), y el cercano suicidio de Ludwig Boltzmann (ocurrido en
septiembre de 1906), junto con las especulaciones sobre la posible incidencia que tuvo en el
infortunado acontecimiento el rechazo de su teoría por parte de los más eminentes físicos alemanes del
momento, uno se pregunta qué habría pasado si Boltzmann hubiera conocido los trabajos de Einstein.
¿No habría podido ser otro el trágico final de su historia? ¡Nunca lo sabremos! ¿O quizá sí?
pretende con Quantum sapiens es acercar esos conceptos y sus aplicaciones presentes y
futuras a una audiencia más amplia. Esto es tanto más importante por cuanto las nuevas
tecnologías, no solamente las de la información y de la comunicación, en general las llamadas
tecnologías convergentes, dependen enormemente de la manipulación de la materia a escala
microscópica, vale decir, atómica, molecular y nanométrica. Pero quisiéramos ir todavía más
lejos, y es lo que intentaremos con la segunda parte de QS, a la que contribuirán otros dos
colegas y amigos, Eugenio Andrade y Carlos Eduardo Maldonado.
Un mundo sui-generis
Nos hemos referido a lo nano en más de una ocasión en el párrafo anterior y lo haremos
repetidamente a lo largo de este y el próximo tomo. ¡Tan importante lo consideramos! Está
próximo a publicarse un texto divulgativo en el que se hable sin rodeos de lo que en nuestra
opinión puede llamarse Nano-revolución, de sus promesas, riesgos y amenazas. (Giraldo,
2016.) ¿Por qué consideramos ese tema como prioritario? En el capítulo dedicado a las
aplicaciones de la mecánica cuántica haremos una breve sinopsis del tema. Por ahora, baste
con destacar lo esencial del asunto, empezando por señalar que la nanotecnología es la más
importante de las llamadas tecnologías convergentes.*
Un nanómetro es ciertamente una unidad de longitud muy importante en una de las escalas
que nos interesan, la escala atómica y la molecular. A esa escala y un poco más arriba los
efectos cuánticos son de fundamental importancia. En la inferior, la subatómica, también de
fundamental interés en el tema que nos ocupa, tendremos que introducir otras unidades; una
de ellas, el fermi o femtómetro, es la más destacada en el terreno de los fenómenos nucleares.
A todos ellos, lo nano y lo nuclear, volveremos en la segunda parte.
Desde el comienzo del CPTPT, Andrade y Maldonado han contribuido con sendas conferencias
al desarrollo del mismo. Por esta y otras razones, surgió la idea de escribir un ensayo a seis
manos que incluyera lo cuántico, lo complejo y lo biológico (doblemente complejo), ambiciosa
tarea todavía inconclusa.
Con el título se quiere sugerir que, si bien este primer texto y el curso que le acompaña es una
introducción light a la cuántica, en modo alguno vulgarizadora (eso es lo mínimo que
esperamos), no se ha adoptado en él un enfoque convencional del tema central, la QT; lo de
sapiens, aunque secundario en cuanto a la profundidad que a él se dedica dentro del primer
tomo, por falta de espacio-tiempo, sigue siendo lo fundamental, pero desde otra perspectiva:
tiene que ver de nuevo con el humanismo y la humanización, o si se prefiere, con ese proceso
evolutivo de 13,750 millones de años que nos ha llevado a estar donde nos encontramos. Con
el subtítulo (1ª y 2ª revolución cuántica, respectivamente, para el primero y segundo tomo

*
El término podría referirse a convergencia del conocimiento, pero lo es a la convergencia de varias
tecnologías, impactadas todas ellas por la nanotecnología o tecnología a escala nanométrica. En el
sistema M.K.S.A. (metro-kilogramo-segundo-amperio) que usualmente se emplea en nuestro medio, a la
unidad de medida, el metro, se le acompaña como bien se sabe de múltiplos y submúltiplos. Se suele
emplear la denominada notación científica. El kilómetro, 1000 metros, se expresa así: 1 km = 10 3 m. La
milésima parte del metro, el milímetro, se escribe: 1 mm = 10-3 m. Así, pues, el nanómetro, nm,
equivalente a una milésima de milésima de milésima de metro, se denota así: 1 nm = 10-9 m. Para
ilustrarlo mejor con un ejemplo, el radio del átomo de hidrógeno, H, es aproximadamente igual a medio
angstrom, más rigurosamente, ångström o Å. 1 Å = 10-10 m, así que el radio de un átomo de H será de
0.5 Å o 0.05 nm.
respectivamente) se están anticipando las conclusiones. Una de ellas, quizá la más importante,
es ésta: La segunda ola, la mayor revolución o verdadera Era de la Información está por venir e
involucra a los quanta. En otras palabras, aunque la información siempre ha estado presente,
desde antes de la gran explosión, hasta ahora se tiene la oportunidad de utilizarla en forma
más refinada, gracias a la comúnmente denominada mecánica cuántica y a sus aplicaciones,
sobre todo futuras. Eso introducirá profundos cambios en la especie humana, en su
comportamiento y en su futuro desarrollo o evolución. ¿Puede nuestra especie, sobre todo su
dirigencia política y social, seguir ignorando olímpicamente esa parte fundamental de la
ciencia mientras que por otro lado la tecnología toda depende cada vez más de aquella? A
responder esa pregunta, o mejor, a ratificar que lo cuántico invade todas las esferas del
universo y por ende del ser humano, quieren contribuir estos textos. Hasta aquí va la
verdadera introducción; lo que sigue es una ampliación o motivación más profunda para la
reflexión sobre las nuevas perspectivas de la humanidad desde un punto de vista cuántico.
Puede dejarse de lado en una primera lectura, a juicio del lector.
Prolegómenos
Es posible que en una próxima edición, seguramente indispensable si la idea original sobre el
quantum sapiens en 2 partes sobrevive, la actual distribución se modifique. Entonces estos
prolegómenos extendidos podrían ser, por conveniencia, una primera parte. Por ahora, se
intenta con ellos exponer ampliamente algunas de las motivaciones adicionales que nos
llevaron a escribir las diversas secciones en que estaría dividido el ensayo en su totalidad:
incursionar en el tema sugerido por el sapiens, la evolución, para relacionarlo con el tema
principal, los cuantos, sus aplicaciones e implicaciones, y orientar al lector para que saque sus
propias conclusiones, con un mejor aprovechamiento del contenido. Podría decirse que el
apéndice, una breve introducción a la física clásica, forma parte de la sección introductoria. Si
se ha puesto al final en esta primera versión, es porque se abriga la esperanza de que, más allá
del lector inquieto, el material interese también, aunque sea medianamente, a algunos de los
iniciados en el tema de la física, al menos a los estudiantes de la disciplina, ciencia básica por
excelencia, y a los de ciencias e ingenierías, en cuyo caso no amerita que se incorpore dentro
de la parte central del texto. En otras palabras, aunque la orientación que se le quiere dar a
estas notas tiene un componente humanístico considerable, los asuntos tratados en este
primer tomo no se han podido desligar demasiado del enfoque convencional.
Anticipemos, pues, que el tema de la evolución biológica y otros relacionados, el origen de la
mente y de la conciencia, una nueva revolución cognitiva alimentada por la inteligencia
artificial, por ejemplo, y algunos más que nos interesan, no se cubrirán a satisfacción por
ahora. Observemos, de paso, que a pesar de los avances, los logros hacia el entendimiento de
lo que somos son todavía incipientes. Más que sapiens sapiens, somos en realidad incipiens
sapiens. O como proponen Margulis y Sagan (1997), insapiens insipiens.
Cuerpo negro, cuantización y evolución como conceptos
Confiamos que dejaremos claro antes del epílogo de este primer tomo el significado de
algunos términos que se utilizarán en esta prolongada introducción a las distintas partes que
conforman el texto. Precisar la terminología, en especial sobre lo referente al Quantum, lo que
se hará en particular en la primera parte, no significa que hayamos entendido. Antes bien, si el
lector desprevenido (el no-físico) no siente vértigo al terminar esa primera parte, es porque no
ha entendido las implicaciones de los principios cuánticos, esbozados en ella sin el formalismo
matemático que se requiere. No cabe duda que los físicos, los buenos estudiantes de la
disciplina y con ellos muchos otros profesionales que necesitan del formalismo, el cual suele
enunciarse al estilo de los postulados matemáticos, lo entenderán. Quizá ni unos ni otros
hayan entendido el mensaje; los autores confiesan que todavía no lo comprenden del todo. La
segunda parte de este primer tomo servirá solamente para referirse, sin mayor profundidad, a
algunas aplicaciones que podrían denominarse clásicas; es una especie de motivación, para
que el lector convencional siga adelante; las verdaderas aplicaciones, con el comportamiento
cuántico como característica esencial, están por venir. La tercera parte nos acercará a la
revolución (¿evolución?) que estamos viviendo. Allí el vértigo puede convertirse en náuseas… o
pesadillas. Comencemos.
Pregunta hipotética de un lector, sugerida por el título: ¿Qué tiene que ver el quantum con la
evolución de la especie humana?
Respuesta parcial de los autores: Mucho, al menos tanto como lo ha sido para la evolución del
universo.
Desde aquel ya lejano 14 de diciembre de 1900, cuando Max Planck acuñó oficialmente el
término, o lo rescató del latín clásico, QUANTA se ha convertido en sinónimo de paquetes. En
esencia, Planck se refería a paquetes de energía. En otras palabras, la energía parece discreta;
tuvo que suponerlo de esa manera o imaginarla así para poder deducir o reproducir una
fórmula o receta descubierta por él (para el lector curioso, se transcribe en la figura 2.2),
tratando de darle fundamento a la forma en que la materia, es decir, los objetos o los cuerpos
todos, radian o emiten y absorben energía electromagnética cuando están en equilibrio
termodinámico. Es sano advertir que los cuerpos vivos jamás están en equilibrio térmico. En su
momento, finales de 1900, lo que tuvo que suponer Planck sonaba a exabrupto; era
aparentemente una descabellada idea. Conviene tener en cuenta que en el círculo cerrado de
los físicos alemanes, al que pertenecía Planck, no se aceptaba todavía la hipótesis atómica más
que como una idea auxiliar sin fundamento científico; ortodoxo, como sus maestros
(Helmholtz y Kirchhoff, entre otras celebridades), su tesis doctoral versó Sobre el segundo
principio de la termodinámica; fue inicialmente profesor en la Universidad de Kiel y sucedió
luego a Kirchhoff en la Universidad Federico Wilhelm, hoy Humboldt, en Berlín,
probablemente por incidencia de Helmholtz. Trabajaba a la sazón en el problema de la
Radiación del cuerpo negro.
El cuerpo negro, como se denomina en física al emisor-absorbente ideal, es el prototipo de
objeto material (macroscópico) ideal, como lo fue Masa Puntual para la Mecánica. Un cuerpo
u objeto cualquiera debe absorber la misma cantidad de energía que emite, si está en
equilibrio termodinámico, es decir, si no se calienta o enfría, si se quiere que se mantenga a la
misma temperatura de su entorno.
Sin proponérselo, Planck terminó asestando un duro golpe a la ortodoxia del momento, mucho
más fuerte que el propiciado al llamado oscurantismo de la Iglesia Medieval por el clérigo
Nicolás Copérnico. También por la época en que Charles Darwin, medio siglo antes que Planck,
acuñó el término selección natural para las variaciones en las especies, aquel tuvo que romper
el paradigma de su tiempo. Hoy la palabra preferida es evolución (teoría de la evolución) y será
la que utilicemos. Es notable que en el primer tomo de El origen de las especies, el responsable
mayor de esa teoría no emplee el término evolución una sola vez, y es bien sabido también
que Planck en su primera conferencia ante la Sociedad Prusiana de Física, en octubre, no
utilizó la constante h que lo hizo famoso; abrigaba la ilusión de que su desesperada hipótesis
de la cuantización de la energía fuera provisional; al fin y al cabo, el valor de la constante, por
ende el valor de los paquetitos, era algo inconmensurablemente diminuto. Para Darwin, las
variaciones serían extremadamente lentas. Ni Planck ni Darwin imaginaron lo que vendría
después.
La Mecánica Cuántica, como se denominó a la teoría de la física que surgió un cuarto de siglo
después de que fuera lanzada la desesperada hipótesis, no tiene que ver solamente con
diminutos paquetes de energía sino también con otros aspectos. Son fundamentalmente 3
características de la materia toda en su integridad e integralidad, observables en la
microescala: discreticidad, ondulatoriedad y coherencia, las que marcan la pauta del
comportamiento cuántico. Las dos primeras son antagónicas en la lógica clásica, mientras que
la tercera se refiere a una situación que raramente se presenta, pero que da lugar a resultados
sorprendentes.
Para empezar, la discreticidad es sinónimo de discontinuidad, mientras que la ondulatoriedad
lo es de continuidad. A las partículas que creíamos elementales, como el protón y el neutrón, y
a las que lo siguen siendo, como el electrón y el fotón, les denominamos genéricamente
corpúsculos (nombre sugerido por J.J. Thomson), lo mismo que a átomos, moléculas y otros
objetos diminutos. El término es, pues, ambiguo, pero invariablemente hace referencia a
elementos discretos en el sentido matemático. No se puede hablar de medio electrón ni de
medio fotón. Aunque no es posible disponer de medio átomo, es claro que ese objeto dejó de
ser indivisible, pero sus partes o componentes son discretas. Cada una de esas componentes
discretas es idéntica para todos los casos: un electrón es indistinguible de todos sus
congéneres y así sucesivamente, hasta constituir por ejemplo los átomos de una sustancia,
todos idénticos entre ellos. Por el contrario, una onda sonora en el aire o en un medio material
cualquiera se supone continua, y el sonido lo es para todos los efectos prácticos. Una onda se
modifica o evoluciona en el tiempo y en el espacio. Si se examina más en detalle, la
propagación de la onda sonora en el aire no es más que resultado de la interacción entre los
corpúsculos atómicos o moleculares que componen el medio, el cual obviamente no es un
compuesto sino una mezcla de diferentes gases. Algo muy diferente ocurre con las llamadas
ondas de luz, la radiación electromagnética, como se subrayará a lo largo del texto. O con las
ondas de materia, en donde el concepto mismo de onda pierde su materialidad. Los
corpúsculos de materia pierden su realidad mientras no observemos o colapsemos la onda que
los describe, como veremos.
Preferimos asimilar el término coherencia al de cooperación, aunque no necesariamente
redundan en lo mismo. De cooperación se tratará en algunas ocasiones, particularmente
cuando de especies vivas hablemos, mas veremos que es un fenómeno universal. En otras
ocasiones, estableceremos simplemente una correlación, como suele hacerse
estadísticamente. Este último término, correlación, merece un examen más cuidadoso, lo que
haremos en la tercera parte. Recuérdese que esta la hemos reservado por ahora para un
segundo tomo.
Así como hay 3 características de la fenomenología cuántica, hay también 3 pilares de la que es
versión dominante en su formulación teórica. Esa versión se suele denominar interpretación de
Copenhague, y sus pilares básicos son: un ente matemático denominado función de onda, la
que tiene a su vez una interpretación probabilística y tres principios básicos a saber, el
principio de incertidumbre o incerteza, el principio de superposición y el principio de
complementariedad. A estos volveremos en el capítulo quinto.
Retornemos al darwinismo. Tal como ocurriría con el término quantum, a la postre tampoco la
palabra evolución quedó reservada para las grandes especies. Es de aclarar que en la obra de
Darwin el término grande se refiere a población abundante; incidentalmente, Darwin estudió
solo objetos macroscópicos, como lo hizo Planck. ¿Qué son objetos macroscópicos? Son los
que tienen dimensiones apreciables, como para poderlos ver o examinar a simple vista.
Durante el siglo XX, la cuantización y la evolución se manifestaron más claramente a escala
microscópica. Cuando se pudo indagar con instrumentos más poderosos, a un nivel cada más
profundo, se encontró que en las formas más elementales de la vida se da la evolución o
variación de la hoy denominada herencia genética. De la misma manera se descubrió,
utilizando las más modernas técnicas y los recientes observatorios y telescopios espaciales,
que en el interior de las estrellas, al interior de las galaxias y en las profundidades del espacio
tiempo, se producen transformaciones descomunales: el universo no solamente se expande,
sino que lo hace cada vez más vertiginosamente. ¿Será que todo en el universo evoluciona,
incluso lo que creíamos absoluto? Es posible, nadie lo sabe, que las llamadas constantes
fundamentales hayan tenido esa característica evolutiva desde lo que pudiera llamarse, por
simplicidad o por ignorancia, el comienzo de la aventura. ¿Podemos hablar con propiedad de
un darwinismo universal? Dejaremos al lector que saque sus propias conclusiones. Pero
queremos anticipar que los denominados efectos cuánticos se manifiestan a todas las escalas y
en el universo entero. La evolución se da al cruzar la barrera de lo cuántico a lo clásico, de lo
microscópico a lo macroscópico, de la reversibilidad a su contrario, la irreversible flecha del
tiempo que opera desde los agregados moleculares hasta las desmesuras cósmicas.
Hemos sido producto de una evolución biológica de miles de millones de años. Nuestros
ancestros más cercanos son los denominados primates. El homo habilis y el homo erectus
(probablemente antes que ellos el homo naledis) precedieron al homo sapiens en dos o más
millones de años. El neanderthal, que convivió con la especie humana por más de doscientos
mil años, se extinguió hace cerca de treinta mil; se arguye que una de las razones pudo ser el
poco desarrollo de su sociabilidad. A juzgar por los daños irreversibles que seguimos
produciendo en el medio ambiente y el relativamente poco desarrollo de sentimientos de
solidaridad y sentido de cooperación en la especie humana, podría anticiparse que nuestra
extinción también se acelera. ¿Será que SAPIENS es la expresión correcta para referirse al
gran depredador que conocemos y con el cual, querámoslo o no, tenemos que identificarnos
cada uno de los siete mil y más millones de ejemplares que compartimos el planeta Tierra?
Regresemos a la cuantificación. Sería absurdo hacer alusión siquiera a una fracción de hombre.
O se es o no se es. En ese sentido, la pregunta ¿cuántos somos?, se responde con un número
entero positivo, generalmente plural: 2, 3, 10 o un número natural cualquiera, incluido el 1.
Pero esos 2, con mucha más razón los 3 o 10, etc., ya no son idénticos, como ocurre con las
partículas elementales. El concepto de objetos idénticos, inicialmente matemático, se vuelve
realidad en ese mundo de partículas, pero se disuelve a medida que los objetos se vuelven más
complejos, tema al que también volveremos en la parte final.
El vacío nos extiende el dominio al cero, jamás a los negativos, mucho menos a los
fraccionarios o a los irracionales… o a los imaginarios, que los hay, no necesariamente los seres
ideales. Ya veremos que del vacío cuántico sí pueden surgir todo tipo de partículas. Con
energías negativas surgieron las antipartículas. Así lo hizo Dirac, abriéndole espacio (y tiempo)
a la antimateria. Pero, ¿qué es el vacío? Antes de intentar una respuesta a esta última
pregunta, vale la pena hacerse otra que en cierto modo es la antítesis de la anterior: ¿Qué es
el Universo? Provisionalmente dejémoslo con mayúscula para darle una mayor connotación y
diferenciarlo del uso genérico que haremos del término. A ese Universo no pretendemos
aportar mucho, más bien poco o casi nada. Sobre él se ha reflexionado desde tiempos
inmemoriales. Alguna interpretación de la teoría cuántica nos habla de multiversos. Esto no
será asunto que nos incumba, por ahora; antes de abordar el universo cuántico, vale la pena
recordar aquí lo que afirmara una de las más interesantes escuelas presocráticas, la epicúrea.
Según Demócrito, “solo los átomos y el vacío son reales”. En esa concepción, los átomos son
indivisibles, por ende están cuantificados. La realidad está compuesta por dos causas (o
elementos): το ον (lo que es), representado por los átomos homogéneos e indivisibles, y το
μηον (lo que no es), representado por el vacío, es decir, aquello que no es átomo, el elemento
que permite la pluralidad de partículas diferenciadas y el espacio en el cual se mueven. Los
átomos se distinguen por su forma, tamaño, orden y posición. Gracias a la forma que tiene
cada átomo, estos pueden ensamblarse —aunque nunca fusionarse: siempre subsiste una
cantidad mínima de vacío entre ellos— y formar cuerpos que volverán a separarse, quedando
los átomos libres de nuevo hasta que se junten con otros.
Leucipo, Demócrito y sus discípulos sostuvieron que la luz y los átomos están estrechamente
conectados. Para ellos la luz sería un flujo de partículas extremadamente diminutas. Veintitrés
siglos después Einstein agregaría que esas partículas, granos de energía, se mueven siempre a
la misma velocidad. ¡No todo es relativo! Pero la idea original de los primeros atomistas
sobrevive: esas diminutas partículas o quanta, son emitidas o absorbidas por los átomos o los
compuestos a que estos dan lugar: otros quanta, en el sentido postmoderno del término. Solo
los quanta y el vacío son reales. (Con una condición: para hacerlos reales, en el sentido clásico
del término, requieren de un observador.)
Y si volvemos al concepto ideal de partículas idénticas, debemos reparar en el hecho de que, si
bien un electrón, para ilustrar el caso más sencillo, es idéntico a otro, dos fotones de diferente
color ya no lo son: sus energías son diferentes. En cambio los fotones de un haz coherente,
como lo es el denominado rayo LASER, o haz de luz producido por emisión estimulada de
radiación, que es lo que significa la sigla en inglés (light amplification by stimulated emmision
of radiation) en principio son todos idénticos, no solo en su frecuencia (energía) sino también
en su cantidad de movimiento. El electrón, como ejemplo de partícula material, y el fotón,
prototipo de energía pura, difieren en otras características, una de ellas, la más importante
desde el punto de vista cuántico, es que el primero es un fermión, mientras que el segundo es
un bosón. Los fermiones obedecen un principio fundamental que los hace diferentes, el
principio de exclusión. El significado de todos estos términos se aclarará a su debido tiempo.
Más allá de la dialéctica
En principio es posible referirse a una internalidad, de un lado, y a una externalidad, del otro.
Eso es solo en principio. La cinta de Möbius es un ejemplo en contra de esta idea clásica.
También en principio nos podemos referir al aquí y al ahora; el problema es que el espacio
(aquí) y el tiempo (ahora) son relativos. Asumimos que ellos, espacio y tiempo, tal como los
concebimos, son continuos. Ingenuamente supusimos que eran absolutos. Desde muy antiguo
se supuso también que eso que podríamos llamar universo, el conjunto de la materia en el
espacio-tiempo, era continuo. Esa suposición fue puesta en tela de juicio más de una vez hasta
que se llegó a la época moderna y se pudo intentar ir más lejos que simplemente suponerlo.
Nació así la ciencia moderna. En esa ciencia moderna, tal y como fue evolucionando a lo largo
de unos pocos siglos, surgieron la nueva astronomía (la antigua estaba fuertemente
emparentada con la astrología), la física (la que empezó con Aristóteles no estaba del todo
desligada de la metafísica), la química (la que poco a poco se fue separando de la alquimia), la
biología (aunque todavía no estamos seguros dónde empieza la vida, la biología sintética es ya
un hecho) y tal vez otras que con el tiempo podrían volverse básicas (hablamos, por ejemplo,
de las neurociencias, y abrigamos la esperanza de que pronto ellas nos resuelvan algunos de
los misterios relacionados con la mente y la conciencia); en matemáticas se logró un desarrollo
como nunca antes había ocurrido. Se tiene ahora una imagen mejor del universo, tal como lo
conciben los cosmólogos modernos, y de sus constituyentes, como lo imaginan (imaginamos
sería mucha pretensión) los científicos. Resumamos.
Antes de que pudiera zanjarse la discusión sobre el problema de si la materia es continua o
discontinua, se desarrolló la mecánica, a finales del siglo XVII. Los 2 siglos siguientes vieron el
desarrollo de la electricidad y el magnetismo, o el electromagnetismo, como se le denominó
más tarde, o la electrodinámica (ED), como preferimos denominarla hoy. A finales del siglo XIX
quedó claro que también la luz, energía radiante, forma parte de la materia. Pero se tenía
entendido que había partículas o corpúsculos, por un lado, y ondas por el otro. Las ondas
materiales, por ejemplo el sonido, las ondas en las cuerdas o en el agua, etcétera, requerían de
un medio para avanzar. La luz, una onda muy singular, podría viajar en el vacío, pero ese vacío
estaría lleno de un éter, un no-vacío, una sustancia con propiedades muy extrañas que
permearía todo y podría servir como sistema de referencia absoluto. Por lo demás, durante el
siglo XIX se desarrolló la termodinámica y la mecánica estadística, dos versiones en contravía
de una misma teoría que a la postre produce los mismos resultados. A fines del siglo XIX la
tarea de los físicos ya habría concluido. ¡Falsa ilusión!, como veremos. El primero en
percatarse de que la idea de un continuum conducía a grandes dificultades, al menos de
momento insalvables, fue Planck. Luego Einstein echó por tierra la idea de un éter luminífero e
introdujo por primera vez el concepto de dualidad onda-corpúsculo para la luz. Introdujo
también una nueva concepción del espacio-tiempo y de la gravitación, modificando de paso las
leyes de la mecánica newtoniana, o mejor, la concepción mecanicista del universo. Buscó
desesperadamente una teoría en términos de campos que fuera unificada, que permitiera
unificar los fenómenos a un nivel fundamental y cosmológico. Esto último no lo logró.
Por el lado de la química, la hipótesis atómica había ganado credibilidad, pero seguía siendo
una hipótesis sin fundamento para físicos tan destacados como Mach y Ostwald, algo
totalmente inverificable, como el supuesto éter. Lo cierto es que esa hipótesis había servido
para entender muchas reacciones químicas, construir la Tabla Periódica de los Elementos y
desarrollar nuevos procesos industriales. De la espectroscopia, tan útil en la exploración de la
materia, no se entendían sus fundamentos: ¿por qué los espectros de los elementos y de los
compuestos, tanto de absorción como de emisión, vienen constituidos por líneas discretas?
Para entenderlo, fue necesario introducir el concepto de dualidad onda-corpúsculo también
para el electrón, una atrevida propuesta de un noble, estudiante de doctorado, el príncipe
Louis Víctor de Broglie.
Así como el telescopio aportó observaciones valiosísimas para la astronomía y el desarrollo de
la mecánica, en la biología el microscopio facilitó el surgimiento de teorías y modelos que poco
a poco se fueron perfeccionando. De la misma manera que el primero sirvió para construir los
modelos iniciales sobre el sistema planetario y el universo mismo, el segundo dio lugar a una
de las teorías más exitosas de la humanidad: la teoría de la evolución, primero de las especies,
después de todo lo demás, con ayuda de otros instrumentos.
La universalidad de los cuantos y la evolución cultural
Aunque su título sugiere todo lo contrario, este primer tomo es más un libro sobre los
QUANTA que sobre el HOMO. El subtítulo es más específico. Más exactamente, nos
referiremos a los cuantos (ahora sustantivados) y a sus implicaciones para el hombre. El
nuestro es entonces solo parcialmente un ensayo sobre la evolución que ampliaremos en el
segundo tomo; la evolución lo es en especial para la transformación de las ideas en el terreno
científico, una evolución cultural. Partimos de la convicción de que la física es la ciencia básica
por excelencia. Esta no es una posición de físico prepotente: es el reconocimiento de que el
universo es el ente físico por antonomasia. Por eso se puede afirmar que el rango de acción de
las ciencias físicas, en plural para evitar malos entendidos, es el universo entero, desde las aun
inexploradas regiones internas de las partículas llamadas elementales (lo escribimos de esta
manera para curarnos en salud) hasta lo que vagamente se denomina los confines del
universo. Si esto es así, no es de extrañar que algunos consideren a la química un capítulo de la
física, al menos en ciertos aspectos básicos ligados a la mecánica cuántica. Hoy se cree que la
biología tampoco escapará a ese proceso de cuantización de la ciencia. Especificaremos más
adelante qué se quiere significar con este término. No está por demás aclarar que la ciencia es
un constructo cultural. A diferencia de otros constructos, su validación es de carácter
universal, vale decir, refrendada por pares que pertenecen a diversas culturas desde el punto
de vista antropológico. Así pues, a menos que se especifique de otra manera, cuando se hable
de evolución cultural en este escrito, se hace referencia a la evolución de las ideas y de los
conceptos científicos.
Al razonar sobre la estructura y constitución del universo y sobre su posible evolución,
estamos utilizando una función del cerebro que algunos difícilmente aceptarán sea apenas un
resultado de la evolución biológica: nos referimos a la conciencia. Llamamos conciencia a un
estado mental que permite a cada uno de nosotros identificarnos como individuos. Y si es un
estado mental, un estado dinámico funcional del cerebro, ¿podemos hablar por separado de la
mente? Se requiere de un cerebro para tener mente y conciencia. No podría ser de otra
manera. En palabras de Eric Kandel, premio Nobel 2000 en fisiología y uno de los más
prestigiosos neuro-científicos del momento, entender la base biológica de la conciencia y los
procesos cerebrales por los cuales sentimos, actuamos, aprendemos y recordamos es el último
reto de las ciencias biológicas. (Kandel, 2013.) En la presente década y las próximas, los
avances en esa dirección son de los más promisorios en el terreno científico.
Cuando se habla del sapiens, se evoca de inmediato a un ser inteligente. Las tecnologías de la
información y la comunicación, a las que abreviaremos por la sigla t.i.c. (en minúscula, ya
argumentaremos por qué), han dependido fundamentalmente de un concepto de inteligencia
que no está asociado al ser humano, ni siquiera a algún ser vivo. Por eso se le denomina, y tal
vez sea el término más adecuado, inteligencia artificial, IA. Es menos claro lo que se entiende
por vida artificial. Lo que sí resulta claro para todos es lo que Lamarck, Darwin y Wallace
descubrieron hace ya cerca de dos siglos: la evolución de las especies. El título que el primero
escogió para su obra clásica hace alusión a algo más fundamental, el origen de las especies.
Por supuesto, se refería a las especies vivas. Pero: ¿Qué es la vida? Schrödinger, casi un siglo
más tarde, daría precisamente ese título a una obra que en su momento causó gran
conmoción, resultado de sus conferencias en el Trinity College (en Dublín, 1943) sobre la
relación entre física y biología, en particular física cuántica y genética. La respuesta de
Schrödinger no es concluyente. La nuestra tampoco pretende serlo, a pesar de que ha habido
grandes avances desde entonces en la búsqueda de una respuesta convincente.
Efectivamente, hemos avanzado mucho en el último medio siglo. Para empezar, en 1949
Claude Shannon introdujo un nuevo ente físico cuantificable: la información. Cuatro décadas
más tarde fuimos advertidos por John Archibald Wheeler de que la información es más
fundamental que la materia y la energía: it from bit. Hoy hablamos con entera convicción del
procesamiento cuántico de la información. Este es en esencia el contenido de la segunda
revolución cuántica. ¿Existe alguna relación entre la información biológica o genética
contenida en el ADN y la información traducida a bits y qubits? Quisiéramos poder contribuir a
dilucidar este asunto, aunque es preciso advertir al lector que quizá no lo logremos.
Empecemos por el comienzo de la ciencia moderna. En la visión clásica newtoniana,
comúnmente confundida con el mecanicismo, el universo tendría forma esférica y nosotros
ocuparíamos un lugar central, solo hasta cierto punto. Aristarco de Samos fue el primer gran
visionario que develó ese telón antropocéntrico. Posteriormente lo hizo Copérnico, y con él
surgieron las primeras ideas que abrieron camino a la física propiamente dicha. Vinieron
después Galileo, Kepler y muchos más gigantes, como los anteriores, que abrieron el camino a
un «genio entre genios», Isaac Newton. Hubo que esperar dos siglos más para que pudiera
resolverse la gran inquietud que no dejó en paz a Newton: la acción a distancia. Newton, a
pesar de sus profundas convicciones religiosas, logró forjar un esquema de pensamiento
dentro del cual todo en el universo está sometido a unas mismas leyes. Dar el paso siguiente le
correspondió a Darwin y otros, en la biología. Y Maxwell, por la misma época, lo dio desde la
física, con tremendas repercusiones en las demás ciencias y tecnologías, apenas emergentes.
Maxwell encontró su demonio. Aunque no lo llamó así, Darwin también tiene el suyo, o los
suyos, como nos lo explica Eugenio Andrade en Los demonios de Darwin (2003.) Quizá
podamos referirnos metafóricamente también a los demonios cuánticos. El IGUS (Information
gathering using system) desempeñaría ahora ese papel.
La línea evolutiva de pensamiento que claramente distinguió a los presocráticos materialistas
de otras escuelas idealistas, incluida la platónica post-socrática, se vio interrumpida por más
de un milenio. Para que surgiera la ciencia moderna fue necesario inventar instrumentos que
dilucidaran en el terreno experimental la discusión sobre la continuidad o no de la materia.
Esto ocurriría más claramente en el siglo XIX. En las ciencias sociales, correspondió a Marx y
Engels descubrir la capacidad de la dialéctica para explicar los saltos en la historia que llevaron
a diferentes esquemas de producción. No abordaremos este tema, a pesar de su interés, para
no desviarnos del propósito fundamental de estas notas, mas es indispensable advertir al
lector de su importancia y trascendencia.
Ingresamos al siglo XX haciendo un examen de lo que quedaría por descubrir. En física, se
decía, nada. Salvo dos nubarrones a los que volveremos antes de la tormenta, la física estaría
concluida. En matemáticas, se pensó, faltaría poner un orden lógico. No es este el espacio para
referirnos a lo que resultó del examen de los fundamentos o Principia Mathematica. Kurt
Gödel se encargaría de bajarle el perfil a las pretensiones de la matemática de ser una ciencia
exacta. En física, la situación resultó ser doblemente pobre. Del examen de sus fundamentos
surgieron las dos nuevas teorías a las que hemos abreviado QT y GT. Reducirlas a una sola es
una tarea pendiente.
En este orden de ideas, después de una recapitulación que no pretende ser el recuento
histórico sobre lo que pensamos hoy, veamos qué nos llevó al asunto del que tratará este
ensayo en 2 tomos. La historia resumida del desarrollo de las ideas previas en física forma
parte de la evolución cultural a que hemos hecho referencia y se posterga como una
introducción a la primera parte.
Motivaciones intrínsecas y extrínsecas
“Dadme las condiciones iniciales y yo os diré hacia dónde va la evolución.” (Autor imaginario.)
Afirmaciones como esta, con distinta factura, fueron la cumbre del mecanicismo. Arquímedes
fue uno de los grandes pioneros de una tierra estacionaria; de ahí la frase que le ha sido
atribuida con respecto a las palancas. Pero el universo evoluciona, siguiendo unas leyes
supuestamente muy precisas. En palabras de Henri Poincaré, a finales del siglo XIX, parecía
claro que:
«Si conociéramos exactamente las leyes de la naturaleza y la situación del universo en el momento
inicial, podríamos predecir exactamente la situación de ese universo en un momento subsiguiente.»

Esas leyes no son más que las leyes del movimiento de Newton, o las que correspondan
después de hacer las correcciones adecuadas en el régimen relativista.
Mas lo anterior no es del todo cierto. Tampoco lo fue el paradigma newtoniano, ni siquiera con
las correcciones introducidas por Einstein. Desafortunadamente las condiciones iniciales bien
pueden ser una entre 101000 o más posibilidades; y el punto de llegada depende fuertemente
del modelo que se utilice. Afortunada o desafortunadamente, el punto de partida del
mecanicismo es incorrecto: la evolución no está determinada de antemano. ¡Es posible
también que exista el libre albedrío!
Se sabe que una muy pequeña desviación en las condiciones iniciales puede dar lugar a
enormes variaciones en la evolución del sistema. Esa observación fue el comienzo de la teoría
del caos, de las ciencias de la complejidad y de los sistemas complejos, en la primera de las
cuales Poincaré es el indiscutible pionero. Prosigue Poincaré:
«Pero aun si fuera el caso de que las leyes naturales no guardaran ningún secreto para nosotros, solo
podríamos conocer la situación inicial aproximadamente. Si eso nos permite predecir la situación
subsiguiente con la misma aproximación, eso es todo lo que requerimos, y diríamos que el fenómeno ha
sido predicho, que es gobernado por las leyes. Pero no siempre es así; puede ocurrir que pequeñas
diferencias en las condiciones iniciales produzcan variaciones muy grandes en los fenómenos finales. Un
pequeño error en las primeras producirá un enorme error en los últimos. La predicción se vuelve
imposible, y obtenemos el fenómeno fortuito.»

También se sabe que un estado evoluciona hacia cualquiera de los estados posibles, aunque
haya unas evoluciones más favorecidas que otras. Esto es consecuencia de la mecánica que
sustituyó al mecanicismo, la Mecánica Cuántica, una teoría fundamentada en el principio de
indeterminación, comúnmente denominado de incertidumbre, y en la cuantización o
discretización de las cantidades físicas medibles u observables. A propósito, fue Poincaré el
primero en demostrar matemáticamente la equivalencia entre la cuantización de la energía y
el valor finito de la energía de la radiación de cuerpo negro.
Se sabe además que ignoramos la composición y organización exacta del sistema, es decir, su
preparación, y la información que de él disponemos es incompleta. A modo de ejemplo, hoy
sabemos que el 95 % del universo está constituido por energía obscura y materia obscura. De
la primera, solo tenemos vagas ideas sobre su posible composición. Puede afirmarse que sobre
el cerebro, la mente y la conciencia sabemos mucho menos. ¿Cuál es, entonces, el poder
predictivo de la ciencia? ¿Hasta dónde podemos confiar en ella? Aunque incompleta, es lo
mejor de que disponemos para una descripción e interpretación del entorno, del conjunto o
del universo y de su evolución. Veremos que deben tenerse en cuenta otras limitaciones al
conocimiento, además de las anteriores.
La epistemología es el estudio del origen del conocimiento y su validación o negación. A partir
del enfoque propuesto por Thomas Kuhn, durante un tiempo se supuso que pasamos de uno a
otro paradigma, en esencia modelos aproximados sobre la realidad. Se suele hablar también
de teorías, o modelos más refinados. Pero evidentemente una teoría sucede a otra que no
pudo dar cuenta de fenómenos observados posteriormente o que se escaparon a la
observación, o más sencillo: se hicieron predicciones equivocadas y hubo que desechar la
teoría. Fueron algunos físicos, no todos, quienes supusieron que algún día habría de
encontrarse la teoría del todo, la ecuación del universo, o en el lenguaje de sus predecesores,
místicos o alquimistas, la piedra filosofal. Esta idea ha sido una quimera, buena y útil en la
medida en que impulse la investigación científica, pero solo ha servido para encontrar al final
una medida o estimativo de nuestra ignorancia. Reconociendo sus limitaciones, la ciencia y sus
métodos ha sido lo mejor que hemos podido concebir para describir e interpretar el universo,
de paso predecir su comportamiento futuro. Las matemáticas han sido la mejor herramienta.
A pesar de lo escrito en el párrafo anterior, es bueno examinar lo que entienden por una teoría
final quienes impulsan este concepto. Nos dice Weinberg (1992):
«The dream of a final theory did not start in the twentieth century… We do not really know much about
what the pre-Socratic were taught, but later accounts and the few fragments that survive suggest that
the milessian were already searching for an explanation of all natural phenomena in terms of
fundamental constituents of matter».* (Weinberg, 1992.)

Así entendida, como un principio regulador u orientador, es alentador pensar en una teoría
final, si es que se puede llamar de esa manera. Quizá algo cercano a esa imagen nos ayude a
entender quiénes somos, de dónde venimos y para dónde vamos.

*
El sueño de una teoría final no empezó en el siglo XX…
Desde su aparición, después de un largo y prolongado proceso evolutivo, cada uno de los
representantes del homo sapiens ha desarrollado una conciencia individual que lo hace único
en su especie. Hoy sabemos que otras especies tienen también conciencia. En la denominada
Interpretación de Copenhague de la Mecánica Cuántica se pone de relieve el papel de un
observador consciente en el proceso de medida. En la literatura reciente es fácil encontrar
varios ensayos con un título más o menos común, Conciencia cuántica, o Física cuántica de la
conciencia. En general, el título es controversial y su contenido suele serlo mucho más. No es al
esclarecimiento o profundización de esa polémica a lo que queremos aportar con el presente
texto. El adjetivo quantum aplicado al sapiens sustantivado en este escrito, se refiere a dos
aspectos separados: al rol de la nueva física, la cuántica, en el surgimiento de tecnologías que
requieren de ella para su desarrollo, y al papel que pudo haber desempeñado y puede seguir
desempeñando la fenomenología cuántica a nivel fundamental, en procesos elementales que
son de trascendental importancia para la vida misma, aunque no necesariamente para su
aparición; debieron serlo, eso sí, para su preservación y evolución, no solo la biológica sino
también la cultural, en la que pondremos el énfasis de nuestro aporte.
La evolución cultural es lo que ahora está en juego para el Sapiens. Asistimos a un gran
momento histórico en el que la revolución científico-técnica está transformando, para bien y
para mal, nuestro planeta y nuestras vidas, nuestras formas de pensar y de actuar, nuestras
relaciones familiares y sociales, nuestras posibilidades, potencialidades y capacidades. La
contribución de lo que denominaremos física cuántica y sus aplicaciones a esa transformación
es descomunal, por decir lo menos. También el universo se transforma, aunque
aparentemente de manera más lenta, a escala cósmica cada vez a mayor celeridad, y con ello
tiene que ver igualmente la fenomenología cuántica; ese último aspecto, el quantum y la
evolución del universo, lo tocaremos solo tangencialmente en este primer tomo. Es más,
queremos subrayar desde ya que la fenomenología clásica, a cuya explicación pretendió dar
respuesta el mecanicismo clásico o paradigma newtoniano, tiene también como fundamento
el quantum, en el sentido original de Planck o en el más refinado de Einstein, como
aclararemos después.
En ese contexto hay que hablar en general de la evolución de la ciencia y en particular de la
evolución de la física, del paso de la física mecanicista no relativista a la clásica relativista, a la
cuántica y a la cuántica relativista. Se sigue buscando con gran expectativa una formulación
cuántica de la gravedad. ¿Será posible una teoría del todo? En nuestra opinión, es solo la
pedantería de algunos físicos la que lleva a imaginar que estamos próximos a conocer todo lo
que hay que conocer. Los límites del conocimiento mismo se agrandan cada vez más.
No hay una clara línea divisoria entre los dos mundos, el cuántico y el clásico, por más que
pretendamos conocer las leyes que rigen el comportamiento en los extremos. Es en ese
sentido que retomaremos un término cada vez más en boga, Darwinismo cuántico, para
referirnos al paso de lo puramente cuántico a lo clásico, particularmente en sistemas
complejos, en especial los más complejos de todos, los sistemas vivos. Creemos que es posible
comunicar estos aspectos en un lenguaje comprensible para una audiencia o un lector que no
tiene formación en física más allá de la que se proporciona en la enseñanza media.
Como una motivación adicional para escribir estas páginas, se ha tenido en cuenta que las
tecnologías todas dependen cada vez más, en diversas formas, de las aplicaciones de la Teoría
Cuántica, sin lugar a dudas la teoría más amplia y profunda, la teoría física más exacta,
cualitativa y cuantitativamente, hasta donde el Principio de Indeterminación lo permite.
Además sus implicaciones, para lo que podríamos denominar el propósito trascendental de la
física, como interpretación del Universo y de sus partes, son dignas de tenerse en cuenta por
cualquier ser racional. Esos dos aspectos, aplicaciones e implicaciones, en otras palabras,
contribuir a examinar el impacto de la cuántica o del quantum sobre el homo sapiens en su
vida diaria y a su reflexión en la búsqueda de caminos alternativos para su devenir histórico, es
lo que intentaremos con este ensayo. Es demasiado ambicioso el propósito que motiva
nuestra incursión en la nueva física, por lo que no es para desmayar si la tarea, como es
altamente probable, queda inconclusa. Autores y lectores podremos quedar tranquilos si el
cometido se logra parcialmente.
En efecto: así como para reconocer el papel y el significado de la conciencia no se requiere de
mayores conocimientos de biología, para imaginar la trascendencia que tendrán en el futuro
de la humanidad las tecnologías convergentes y emergentes no será necesario saber mucho de
mecánica cuántica. De hecho, todavía no es claro el papel de la biología en la conciencia,
mucho menos el del quantum; y si quisiéramos resaltar en primer término la información
dentro de las tecnologías emergentes, para la mayoría de los lectores no solo es extraño
asociar información con física cuántica sino que es desconocida, ignorada por casi todos a nivel
general, salvo por los especialistas, una posible relación entre esta última teoría y las
tecnologías mencionadas.*
Pareciera pues que, en contravía de lo prometido, de un lado sometiéramos al lector al
desconcierto de lo desconocido y del otro estuviéramos utilizando un lenguaje demasiado
abstracto para el lector no especializado. Para tranquilidad de este último, si bien nos
referiremos a menudo a aspectos generales y en ocasiones vagos, nuestras pretensiones de
suministrar un bagaje conceptual cuántico son mucho más modestas, por lo que emplearemos
una buena parte del texto para ilustrar al menos los conceptos cuánticos (y en el apéndice los
clásicos) en boga, dándole un sentido más tutorial y auto-contenido a estas páginas.
En síntesis, intentaremos acercar al lector a la fenomenología cuántica partiendo de los
conceptos clásicos, contrastándolos con los nuevos conceptos cuánticos y sin recurrir al
formalismo matemático. Esto nos permitirá abonarle el terreno para que entienda al menos
los cimientos de las nuevas tecnologías que en ella se fundamentan sin caer en la trampa del
esoterismo. Este está más alejado de los conceptos cuánticos de lo que están los clásicos que
les precedieron, aunque es necesario advertir que hemos de divorciarnos de los segundos, los
clásicos, si queremos acercarnos a los primeros, los cuánticos. En cuanto a la pseudociencia,
puede calificarse de oportunismo, mediocridad o negligencia apelar a los primeros
simplemente porque no son aprehensibles en una concepción clásica del mundo, invocándolos
para explicar lo que por ahora resulta inexplicable.
Justificando un doble calificativo

*
No hay total acuerdo sobre lo que se entiende por tecnologías emergentes o convergentes, la
denominación misma es ambigua. De ellas no puede excluirse la nanotecnología, importante en todas
las demás. Por simplicidad, mencionaremos las 4 básicas, a saber: N-B-I-C, en su orden nano, bio, info y
cogno, incluyendo en esta última las que tienen que ver con la cognición, en primer término para el caso
la inteligencia artificial, sin descartar la(s) otra(s).
El título mismo de este ensayo podría parecer extraño, aunque el calificativo sapiens, por sí
solo, no generará ninguna dificultad, dado que todos pertenecemos a la misma especie desde
que los humanos se separaron de los demás homínidos, hace más de 50 mil años;
probablemente puede hablarse de 100 mil. El adjetivo neutro quantum, a pesar de las
suspicacias y hasta temores o tal vez intimidaciones que pueda generar, se ha entendido en
primera instancia como cuantificación en números discretos de cantidades elementales. Por
supuesto es mucho más que eso: se refiere ni más ni menos que a la teoría física más extraña y
contraintuitiva que haya podido producirse, comparable quizá en complejidad a la teoría
general de relatividad, aunque esta es más compleja desde el punto de vista matemático. En
realidad es de esperar que la primera sea más ininteligible, si nos atenemos al vaticinio de uno
de los quantólogos más reconocidos del siglo pasado, Richard Feynman quien afirmara
categóricamente: “nadie entiende la mecánica cuántica”. Es por esa razón principalmente, y
por muchas otras que esbozaremos más adelante, por las que vale la pena aclarar para el
lector profano lo que debe entenderse como cuántico, en especial para deslindarlo de la
charlatanería cuántica, cada día más abundante.
Vale la pena intentar una somera justificación del título escogido, como preámbulo al
planteamiento central. Ello nos llevará a explicar mejor las motivaciones que nos impulsaron a
emprender esta labor que pretende ser pedagógica. Después de examinar algunas opciones,
nos hemos decido por el de Quantum Sapiens teniendo en cuenta varias consideraciones,
algunas de las cuales se enumeran y comentan a continuación. La primera está relacionada con
el idioma. Aunque sería demasiado aspirar a que este modesto escrito fuera vertido a varios
idiomas, no es descartable que vea la luz también en inglés. La mayoría de ensayos traducidos
a otros idiomas han corrido con mala suerte cuando se busca que el título refleje en el nuevo
idioma lo que se pretendía en el lenguaje original. Al intentar hacerlo en un latín moderno, no
se considera necesario el cambio del título principal en la posible traducción y eso preservaría
la idea original del ensayo. Del subtítulo de cada tomo en español, primera o segunda
revolución cuántica, nos ocuparemos a su debido tiempo.
La segunda tiene que ver con la inclusión en la física desde hace más de un siglo y el significado
que desde entonces se da al término quantum, con su rápida extensión a otras ramas de la
ciencia y a sus aplicaciones, más recientemente al campo de la información, más amplio que el
de la informática. Cuando nos refiramos a la información, empezaremos por examinar su papel
a nivel biológico; y cuando mencionemos las aplicaciones o tecnologías que se derivan de los
nuevos conceptos cuánticos, no dejaremos de lado las que se refieren a las ciencias de la salud
y de la vida, sin dejar de examinar por supuesto las llamadas t.i.c.
Pero hay más. Las tergiversaciones que se han hecho de la teoría, extrapolándola a otros
campos del conocimiento o peor aún, al terreno de la pseudociencia, son abrumadoras. Se
habla con el mayor desparpajo de medicina cuántica, y a fe que de lo único que puede
hablarse con rigor es de la nanotecnología aplicada a la medicina, la nanomedicina, en la cual
los efectos cuánticos son abundantes. No por eso puede hablarse de medicina cuántica como
si fuera una nueva ciencia de la salud.
La física cuántica es un prototipo de la complejización de la ciencia. En la primera mitad del
siglo XX surgieron nuevas teorías derivadas de las matemáticas aplicadas, particularmente a las
otras ciencias. Se habló así de la teoría de sistemas, de la cibernética y de la teoría de la
información, a la que ya hemos hecho referencia. Cuando hoy se hace alusión a sistemas, se
está casi siempre hablando de sistemas complejos, así que hablar de ciencias de la complejidad
es en esencia trasladarse a ese terreno. El problema de 3 cuerpos, nombre con el que se
conoce la interacción y el consecuente movimiento de 3 objetos, por ejemplo el sistema sol-
tierra-luna bajo los efectos de la gravedad clásica, es un problema complejo. En mecánica
cuántica, el problema de 2 objetos, 2 electrones por ejemplo, es complejo; lo inmediato que
resulta de la interacción de 2 objetos cuánticos es el fenómeno del entrelazamiento. A esos
temas habremos de referirnos, particularmente a este último, del que depende precisamente
la segunda revolución cuántica.
La tercera consideración que se tuvo en cuenta tiene que ver con el sentido de sapiens, como
es fácil imaginar. Sin entrar en discusiones mayores sobre el significado del término, no
parecería aplicarse en rigor muy a menudo. Aceptemos que la especie ha tenido un proceso
evolutivo mayor comparado con sus rivales que le permitió asegurar su primacía. Esto le llevó
a poblar densamente el planeta que lo aloja y a afectarlo mucho más que todas las otras
especies juntas. Para afrontar los retos del momento, cuando todas las especies, incluida la
humana o en el mediano plazo precisamente esta, se encuentran en peligro de extinción, el
recurso del conocimiento acumulado es invaluable, pero mucho más, el uso que de él se haga.
Usarlo apropiadamente para los asuntos que más nos incumben es precisamente la sabiduría,
como la concibieron por ejemplo Bertrand Russell y Sidney Hook. Ella es la que justifica hoy el
calificativo de sapiens.
No se exagera al decir que la cuántica o el quantum entendido cabalmente es la máxima
expresión del conocimiento acumulado en las ciencias, si se quisiera sintetizar en una sola
palabra. Aunque aprehenderlo a fondo está quizá reservado a los expertos, debe haber un
bagaje mínimo en el aprendizaje cultural de cada persona que incorpora la fenomenología y
los conceptos cuánticos. Infortunadamente cuando más se requiere de una formación básica
en ciencias básicas acorde con los paradigmas del momento, se mitifica esa ciencia al punto de
hacer creer al grueso de la población estudiantil universitaria y a los sectores cultos que ni
siquiera podrá aprehender los conceptos elementales del comportamiento cuántico. Pero el
impacto que han causado los contraintuitivos conceptos de la física cuántica son tales, que los
más inquietos y receptivos buscan llenar el vacío con el sensacionalismo característico que
ofrece una literatura no científica, siendo fácil presa de charlatanes de todo tipo. Si en algo
podemos contribuir a llenar ese vacío, habremos satisfecho la pretensión principal. Quizá se
logre, de paso, propiciar espacios para un trabajo interdisciplinario y para la construcción de lo
que se ha denominado una tercera cultura.
Síntesis de la evolución biológico-cultural
A riesgo de repetir lo que la mayoría de los lectores ya sabe, la historia que conocemos,
incluida la prehistoria y lo que le antecedió, comenzó hace aproximadamente 13,750 millones
de años, cuando surgió la materia-energía, el espacio-tiempo y por ende la información. Poco
más de 9 mil millones de años después surgió el planeta Tierra que nos albergaría al cabo de
4,5 mil millones más. Rigurosamente hablando, podríamos afirmar que debemos contarnos
entre los más recientes pasajeros, esa es la palabra, de lo que en realidad es una nave espacial
poblada por las especies vivas conocidas en nuestro sistema solar. Si fuéramos conscientes de
lo que esto significa, tendríamos con ella un mayor cuidado.
Vale la pena detenernos un poco más en el proceso evolutivo del género Homo, que partió de
África hace apenas 2,5 millones de años. En Eurasia dejamos nuestras huellas preliminares por
espacio de 2 millones más, hasta cuando el fuego nos permitió iniciar transformaciones más
fuertes en el entorno y en nosotros mismos. Más recientemente, también en África, surgió el
mal llamado sapiens. Carlos Eduardo Vasco sugiere denominarlo insipiens; el alumno (uno de
los autores) interpretó mal al maestro y se le ocurrió que podría utilizarse el término incipiens
(que apenas comienza), y recordó que Margulis y Sagan, en su clásico texto Microcosmos nos
califican de Homo insapiens insipiens (sin sabiduría y sin sabor). Esta equivocación nos ha
llevado a proponer que se trata de un incipiens insipiens et insapiens. ¡Lo lamentamos mucho!
Para no alargar más una historia bien conocida, recordemos que hace apenas 70 mil años
utilizamos el lenguaje figurado, hace 15 mil colonizamos América, hace apenas 5 mil que
recurrimos a la escritura para acumular información y conocimiento, y que la ciencia moderna
no tiene más de 4 siglos de desarrollo. A pesar de todo, en las últimas 2 décadas hemos
avanzado más que en todos los siglos y milenios anteriores. ¿Será cierto que en unas pocas
décadas más tendremos al superhombre? Es dudoso que lo logremos antes de que
terminemos nuestra desaforada carrera, en la práctica emprendida para aniquilar de paso la
mayor parte de especies vivas sobre la tierra. Léase crónica de una muerte anunciada.
Evolución de la física: ¿fin de la historia?
Quizá sepa el lector que Francis Fukuyama escribió un polémico texto titulado El fin de la
historia y el último hombre. (Fukuyama, 1991.) Un breve artículo que lo precedió es: ¿Fin de la
historia? La tesis de Fukuyama de que con la caída del socialismo terminarían las guerras,
gracias a la democracia perfecta encarnada por los Estados Unidos, hoy nadie se atrevería a
sostenerla.
Como un reto para los físicos, Einstein y sus colaboradores de la década de los 30 sostendrían
lo contrario con respecto a la física. Aunque el argumento de Einstein y sus colaboradores,
Podolsky y Rosen, aparentemente proponía una paradoja, en realidad era una crítica a la
mecánica cuántica en forma de pregunta: ¿Puede considerarse completa (la) descripción
mecanocuántica de la realidad física?
La respuesta de Bohr a la crítica se produjo muy pronto, en un artículo con el mismo título. No
obstante, como veremos, el teorema de Bell y la posterior comprobación de que su
desigualdad se cumple, pone a salvo la mecánica cuántica como teoría no local. Al asunto
volveremos antes de terminar la primera parte.
La prepotencia con que algunos científicos y filósofos se expresan, para no mencionar puntos
de vista arrogantes de otros mortales, contrasta con el punto de vista más modesto de
connotados pensadores y divulgadores. Dice John Gribbin, astrofísico y gran difusor del
conocimiento científico acumulado a quien volveremos, en torno al misterio cuántico (2015):
«Si abrimos los brazos todo lo que podemos y consideramos que toda la historia del universo es de la
punta de un dedo a la otra punta, toda la historia de la civilización humana se eliminaría en un momento
si se pasa una lima por una uña. Así de insignificantes somos en el tiempo, y somos igual de
insignificantes en el espacio.» http://www.eduardpunset.es/charlascon_detalle.php?id=6

No en balde nos recuerda Einstein: “El eterno misterio del mundo radica en su inteligibilidad…
El hecho de que sea comprensible es un milagro.” Hoy sabemos que no lo es en el sentido
clásico, que fue el punto de vista sostenido por Einstein. Pero los autores se atreven a hacer
suyo el párrafo citado: la lectura de varios tomos de lo que se conoce hoy sobre el gran
misterio ha sido una fuente de gozo y satisfacción también para ellos… y de reflexión,
precisamente porque el avance en el conocimiento (artístico, científico, filosófico, tecnológico
y en todas las otras formas de conocimiento), aunque a menudo doloroso, como lo reconoce
Einstein, es prometedor y estimulante; algo de aquello, en el campo cuántico, es lo que
quisiéramos compartir con el lector en estas notas.
La historia no termina ahí. Después de 100 años de teoría cuántica, después de un siglo de
logros inimaginables en la optoelectrónica, en la física del estado sólido y de la materia
condensada, en las físicas nuclear y de partículas elementales, en la astrofísica y la cosmología,
ahora resulta que ese universo nuclear hecho de quarks, el bariónico, como se le denomina
hoy, develado inicialmente por Ernest Rutherford, y el leptónico que empezó con la partícula
descubierta por Joseph J. Thomson, en el que el electrón es apenas una de las 6 variedades,
enriquecidos los 2 por quienes les sucedieron, es apenas una mínima parte del todo; la mayor
parte resultó ser invisible para los más potentes microscopios y telescopios en más de un 96 %.
En efecto, ahora parece claro que la materia oscura, la energía oscura y la energía fantasma o
exótica conforman el 96 % de la materia-energía que constituye el Universo. Aquella expresión
romántica, estamos hechos de la misma materia de que están hechas las galaxias, perdió piso.
En menos de 500 años la humanidad dejó de ser el centro de un universo supuestamente
creado por una divinidad externa a él. Ahora se sabe que cuando la especie humana
desaparezca, ese final de la aventura poco importará al planeta que la generó o facilitó su
desarrollo; vale la pena entonces recordar la frase de Gribbin arriba citada para tomar
conciencia de nuestro insignificante cruce por el espacio-tiempo. Cuando desaparezcamos
como especie de la faz de la tierra, el resto del Universo ni siquiera habrá percibido nuestro
efímero paso por el Cosmos. Sirva esta premonición como argumento en contra de quienes,
intentando dar una fundamentación científica a la nueva astrología, desde la nueva era, dicen
que somos parte del gran átomo universal, un tema al que tangencialmente haremos
referencia más adelante.
La información es más fundamental que la materia y la energía
Información no es conocimiento, pero físicamente es un concepto tan fundamental como la
materia y la energía, o aún más: ese será nuestro punto de partida, como se desprende del
título de esta sección. Cuando se dice que vivimos en la Era de la Información (Information
Age), y no se tiene la intención de señalar que vivimos un periodo de la historia equiparable a
la edad de la piedra o de alguno de los metales en la prehistoria, no se entiende muy bien el
concepto físico de información. De hecho, quienes ignoran que al procesamiento cuántico de
la información se están dedicando ingentes esfuerzos en las regiones más desarrolladas del
planeta, no alcanzan a percibir el impacto que tendrá la información como sujeto en el
desarrollo futuro de la humanidad. Al plantear esta inquietud, se está de paso justificando el
título mismo del presente ensayo. No obstante, examinar algunos de los efectos que tendrá a
nivel fisiológico, particularmente en el cerebro y en la estructura mental del ser humano, el
desarrollo y el uso de las nuevas t.i.c. y en general de las denominadas tecnologías emergentes
a que ya hemos hecho referencia, está por fuera de los propósitos del mismo. (Greenfield,
2015; Giraldo, 2016.)
¿Qué es la información? La respuesta podría ser tan simple o más que la pregunta: todo lo que
aparece o desaparece. Un bit (binary digit) es SÍ o NO, encendido o apagado, 0 o 1 en código
binario. Un qubit, el bit cuántico, es mucho más complejo: encendido y apagado al mismo
tiempo. Recuerde el lector lo que decíamos al comienzo: se es o no se es, clásicamente
hablando. La paradoja del gato de Schrödinger (vivo y muerto, a la vez) nos lleva a concluir lo
dicho dos páginas atrás: si bien clásicamente 3 es complejo, en mecánica cuántica, 2 ya lo es.
Para entender mejor la diferencia, antes de caer la moneda que se lanza al aire, hay solamente
2 posibilidades: cara o sello, cabeza o cola, o cualquiera otra entre 2 alternativas, una de las
cuales ya está determinada de antemano en el mundo clásico: de cómo se lanza, de qué está
constituida, dónde y cómo va a caer, de otros factores que en principio son conocibles, pero
que en la práctica no los podemos conocer. La moneda cuántica difiere de la clásica
precisamente en ese aspecto: ni siquiera en principio las condiciones precisas son conocibles,
porque no podemos por principio disponer de toda la información. Es más, el estado cuántico
no existe antes de que sea observado. La observación crea la información.
Pero la información es mucho más que la simple observación, sea esta de o sobre un objeto
cuántico o clásico. Cabe resaltar que existe una gran diferencia entre el comportamiento
clásico newtoniano reversible, vale decir ideal o utópico, y el cuántico hecho irreversible por la
observación, ya destacada en el título de una de las obras imprescindibles de Ilia Prigogine:
From being to becoming (1980). Este concepto, trasladado al cerebro humano, la más
maravillosa máquina de procesamiento de la información de que tengamos noticia hasta el
presente, nos llevará a la conclusión de que la información somos nosotros, de que la
conciencia es la información registrada a lo largo de nuestra existencia. Con el uso del futuro
(nótese que escribimos nos llevará), consideramos innecesario advertir al lector que vamos a
postergar hasta el final una profundización sobre las implicaciones de esa bizarra afirmación.
Sirva ella de pretexto para reconocer que no son su esencia los pixeles en las imágenes
digitalizadas o las huellas que deja una grabación electrónica en CDs o DVDs o las fuentes en
los libros al imprimirlos u otras materializaciones de la información: ellos son solo el medio
para transportarla, una etapa intermedia de su procesamiento.
Y ya que hacemos referencia al procesamiento de la información, es eso lo que la hace valiosa,
su dinámica. Más que la energía, que puede tomar distintas formas estáticas, la información
puede adoptar múltiples expresiones dinámicas. Aquella está sujeta al tipo de interacciones o
fuerzas, las cuales a su vez dan lugar a un número equivalente de formas de energía potencial
que se pueden convertir en energía de movimiento, por ejemplo. Al igual que ocurre con la
energía, lo importante es lo que se haga con la información, pero su procesamiento la hace
mucho más versátil. Si bien cuando se echa mano de la energía, en general se tiene un
propósito, para hacer uso de la información el propósito ha de estar mucho más definido.
Invariablemente, su propósito es provocar un cambio de algún tipo. En la dinámica del
procesamiento está explícita la diferencia entre una transformación o un cambio por azar o
una modificación intencionada. Y hay algo todavía más radical, que no se exige de la materia o
de la energía: aparte de un propósito, definido casi siempre por el emisor, la información debe
tener también un significado, el cual va a ser determinado o descifrado por el receptor.
Cuando nos preparábamos para ordenar estas notas vino casualmente a nuestras manos la
traducción de un texto que por esa afortunada coincidencia le resultó muy valioso: From
Animals into Gods, traducido como De animales a dioses. (Harari, 2013.) Aunque el cambio de
sentido en la traducción es mínimo, nos parece más fuerte la expresión en inglés. El subtítulo
no es menos sugestivo: Breve historia de la humanidad. El libro empieza (primera parte) con La
revolución cognitiva y termina (cuarta parte) con La revolución científica. Lo que podría
denominarse primera revolución cuántica ha dado lugar a la más reciente revolución industrial.
El lector podrá encontrar una cierta relación entre la estructura de los dos textos, el que tiene
en sus manos y el de Harari, con la particularidad de que, si adelantamos el desenlace, el
subtítulo del segundo tomo de Quantum Sapiens anuncia en realidad una segunda revolución
cognitiva. Una revolución científico-técnica que hemos denominado la segunda revolución
cuántica será la responsable de esa gran transformación cognitiva que se anticipa en el epílogo
(final de QS II). Greenfield la denomina Mind change (cambio mental) y anuncia que será
equiparable al cambio climático en varios aspectos. De esas reflexiones nos ocuparemos
precisamente en el epílogo.
REFERENCIAS
Andrade, E. (2003). Los demonios de Darwin.
Einstein, A. (1984). La evolución de la física. (Salvat, Barcelona.)
Einstein, A. and Infeld, L. (1938). The Evolution of Physics: The Growth of Ideas From Early
Concepts to Relativity and Quanta. (Cambridge University Press.)
Giraldo, J. (2009). Unos cuantos para todo. (Ediciones Buinaima, Bogotá.)
Giraldo, J. (2016). ¿Nano-qué? Nano-revolución. (Ediciones Desde Abajo, Bogotá.)
Greenfield, S. (2016). Mind change. (Random House, New York.)
Kandel, E. et al., editors, 2013. Principles of neural sciences. (5th edition, McGraw-Hill, New
York.)
Margulis, L. y Sagan, D. (1997). Microcosmos. Four billions years of microbial evolution. (En
español, Tusquets, Barcelona.)
Prigogine, I. (1980). From being to becoming. (Freeman and Co., San Francisco.)
Rosemblum, B. y Kuttner, F. (2011). El enigma cuántico. (Tusquets, Barcelona.)
Klein, É. (20013). Física cuántica. (Siglo XXI editores, México.)
Weinberg, S. (1992). Dreams of a final theory. (Pantheon Books, New york.)
PRIMERA PARTE

Qué es y qué no es la Mecánica Cuántica


1. Evolución de las ideas 33
1.1 Visión panorámica con perspectiva histórica
1.2 Los primeros hitos
1.3 De Fenicia a Grecia
1.4 El milagro jónico
1.5 Preconceptos y conceptos
1.6 Evolución de la física
1.7 Las dos grandes teorías deterministas y sus limitaciones
1.8 Lo que falta por descubrir
1.9 Descubrimiento del electrón, del fotón y del núcleo atómico
2. Los primeros conceptos cuánticos 63
2.1 Introducción al gran misterio
2.2 ¿Partículas u ondas?
2.3 Ondas que son partículas y viceversa
2.4 Órbitas cuantizadas: el átomo de Bohr y el nuevo átomo
2.5 Los responsables de la confusión iluminante
2.6 Una revolución que continúa siendo molesta
2.7 Si no siente vértigo, es porque no ha entendido
3. Los primeros experimentos con electrones 99
3.1 Experimento de Frank y Hertz
3.2 Experimento de Stern y Gerlach
3.3 Experimentos de Davisson, Germer y otros
4. De vuelta al gran misterio 111
4.1 El experimento más bello de la física
4.2 De Arquímedes a Higgs y de Newton a Einstein, historias de luz
4.3 Polarización de la luz
4.4 Polarización de fotones
4.5 Fotones entrelazados I
5. Los primeros principios: un formalismo matemático 133
5.1 Los principios como fundamento
5.2 Principio de dualidad onda-corpúsculo
5.3 Principio de indeterminación
5.4 Principio de complementariedad
5.5 Principio de valores propios
5.6 Principio de correspondencia
5.7 Principio de superposición
5.8 Principio de exclusión
5.9 Un Formalismo matemático
6. Acciones fantasmagóricas a distancia 143
6.1 Experimentos pensados: EPR y Bell
6.2 Fotones entrelazados II
6.3 Interferómetro de Mach-Zender
7. De regreso a la filosofía natural
De la filosofía a la física y otra vez a la filosofía
8. Interpretaciones múltiples
Copenhague y su revalidación
El multiverso y sus bifurcaciones
Interpretación estadística de una teoría probabilista
Teorías de variables ocultas
Nuevas posibilidades
¿Qué es y qué no es cuántico?
Si los físicos nos propusiéramos como reto responder a esta pregunta, tendríamos serias
dificultades en hacerlo satisfactoriamente. Quizá lo más riguroso que podamos decir es que el
fenómeno cuántico mismo escapa a su observación. En otras palabras, lo que debe quedar
claro es que la observación es clásica. La observación envuelve una medida de alguna cantidad
física. En ocasiones, el resultado de esa medida, casi siempre indirecto, da una imagen que
puede ser equivocada. Eso ocurre, por ejemplo, con el espín del electrón y de las demás
partículas… o de lo que suponemos que son partículas. Un fotón tiene espín uno; dos
electrones apareados pueden tener espín cero, eso no significa que no tengan esa propiedad,
simplemente quiere decir que esa cantidad es cero, como (cero, cero, cero), un vector con sus
3 componentes nulas, vale la velocidad de un cuerpo en reposo, clásicamente hablando
(0,0,0). Cuánticamente no puede hacerse esa afirmación, el reposo absoluto no existe, a menos
que renunciemos a localizar el objeto del que se sepa con certeza que está en completo
reposo… estará en todas partes… o en ninguna, así de simple. ¡Complejo!, ¿verdad?

Los objetos físicos se manifiestan de alguna manera frente a nuestros sentidos, o en forma
más general, son detectados por nuestros aparatos de medida. Concordaremos en afirmar
entonces que la observación a que nos referimos en física no es solamente la que podemos
realizar con el sentido de la vista. En otro tiempo percibiríamos u observaríamos los objetos
materiales y quizá dudaríamos en reconocer que la luz es un objeto material. ¿Es la gravedad
un objeto material? Pocos se atreverían a responder positivamente, pero las ondas
gravitacionales, recientemente descubiertas, no dejan lugar a duda. Una pregunta más sutil se
refiere a lo que hoy se denomina información. No estamos hablando de lo que venden los
periódicos o lo que escuchamos en la radio o vemos en la televisión. Exploramos a nuestro
alrededor para informarnos de lo que está pasando, eso es indudable, pero la información
misma es algo más etéreo. Sin embargo, después de Claude Shannon debemos reconocer que
la información es algo con contenido físico.

Hubo una época en la que atribuíamos a los cuerpos propiedades que no tienen. Los efectos
del zodíaco en la vida de las personas es una de esas manifestaciones. No es este el espacio
para hacer la distinción entre mito y religión, pero sí lo es para deslindar terrenos entre esos
dos campos, de alguna manera relacionados, y el que ocupa lo que hoy denominamos ciencia.
Ha habido, y es probable que se sigan presentando, periodos de la historia en los que la ciencia
que se practica no difiere mucho de la pseudociencia. No está lejana la época en que solía
hablarse del fluido calórico o del fluido vital, fluidos que hoy claramente están descartados en
la ciencia.

La ciencia clásica es determinista: esta característica es básica. Por el contrario, la nueva


ciencia, la que cae dentro de la comúnmente denominada mecánica cuántica no lo es. Se dice
que esta es una teoría probabilística. ¡Lo es!

Con el advenimiento de la física cuántica, como preferimos denominar a la nueva teoría, el


universo dejó de funcionar como un mecanismo de relojería. La física cuántica es la teoría que
subyace prácticamente a toda posibilidad de entender el universo físico. Tal vez el término
entendible sea menos exigente que la cercana expresión comprensible. En ese sentido, aquello
de que el universo sea comprensible es con toda seguridad una quimera. Algunos físicos, si no
la mayoría, creen que Feynman exagera cuando exclama: Nadie entiende la mecánica cuántica.
Pero debemos aceptar que los más destacados padres fundadores de la teoría debieron
reconocer que no la entendieron. Algunos se lamentaron de haber tenido algo que ver con ella.
Para aclarar el sentido de la afirmación de Feynman, tal como la compartimos o en la medida
en que estamos de acuerdo con él, se entiende perfectamente el aparato matemático, por
complejo que este sea. Pero sus implicaciones no se comprenden. Lo que pasa con los objetos
cuánticos mientras no los observemos, es solo parte de la imaginación, y cuando los
observamos o detectamos, en esencia les obligamos a comportarse de acuerdo a nuestro
aparato de medida. Es certera esta afirmación de Feynman, poco citada: “Podría decir de
inmediato… siempre hemos tenido una gran dificultad en entender la imagen del mundo que
representa la mecánica cuántica. … No puedo definir el problema real, sospecho por lo tanto
que no hay un problema real, pero no estoy tan seguro de que no haya un problema real”.
(Bernstein, 2009.)

En conclusión, antes de la observación, los que podríamos denominar fenómenos


fundamentales son en esencia cuánticos. Mas la observación misma es un fenómeno clásico.
Hecha esta, puede ser que el fenómeno haya dejado de ser cuántico. Definir el proceso de
medida y los posibles observables, en otras palabras, lo que vamos a hacer sobre el universo o
alguna de sus partes cuando lo queremos interrogar, es el primer problema de la física
cuántica. Y se resuelve operacionalmente, es decir, mediante una teoría que es abstracta.
Comunicarla, pues, es una tarea que se deja en manos de un formalismo matemático. El resto
es interpretación. A ella(s) nos referiremos al final de esta primera parte.
APÉNDICE
Las dos grandes teorías deterministas
1. Mecánica
2. Electrodinámica
3. Ondas y Campos
I. LA MECÁNICA
Introducción
En lo que sigue nos limitaremos esencialmente a la dinámica de una masa puntual,
supuestamente la más fácil de entender, para contrastar los resultados o predicciones con el
comportamiento de los objetos cuánticos, predichos por esa teoría. El concepto de masa
puntual es una idealización que consiste en suponer que el objeto bajo estudio no tiene
dimensiones; más rigurosamente, para extender el concepto a lo que después llamaremos
punto cuántico, es un sistema de cero dimensiones. En la práctica, lo que queremos decir con
masa puntual es que la descripción del objeto bajo estudio la podemos hacer limitándonos a
su centro de masa, un promedio aritmético de su posición (rigurosamente un vector, es decir,
dado por 3 números que pueden ser sus coordenadas cartesianas, x, y, z).
Aunque usualmente se asume que masa es lo mismo que cantidad de materia, en física ese
concepto está relacionado con la inercia de un cuerpo, su capacidad y tendencia a mantener el
movimiento que por una u otra causa ha adquirido. El cambio de ese movimiento conlleva a
otro concepto fundamental, el de fuerza o interacción. Mucho va de Arquímedes a Newton.
Para el primero parecía suficiente el concepto de fuerza muerta, la que mantiene la estructura
y por ende la estabilidad. El problema para Arquímedes se reduce al equilibrio. Por el
contrario, para Newton el problema es romper el equilibrio, lo que conlleva a la aceleración
del objeto. Para este, una fuerza neta es la que produce una aceleración, y la relación entre las
magnitudes de la primera y la segunda es precisamente la masa. Si la masa inercial es grande,
el efecto de la fuerza en términos de la aceleración es pequeña.
El campo de la mecánica como ciencia predictiva cambia con el tiempo. Lo primero que
amerita predecirse, por su utilidad práctica, y porque resulta relativamente sencillo bajo
ciertas condiciones, es el movimiento. El cerebro de un niño se va desarrollando para que
pueda controlar los suyos a voluntad. Si no logra hacerlo, tendrá limitaciones en su desarrollo
neuronal. Cuando dos vehículos están en marcha, uno frente a otro, se percibe con facilidad la
relatividad del movimiento. No obstante, espontáneamente intentamos asignarle un sentido
absoluto que no tiene. El movimiento es engañoso, precisamente porque es relativo. En
muchos deportes, una pelota al vuelo debe ser alcanzada y golpeada adecuadamente por un
deportista también en movimiento. El éxito empieza por la precisión alcanzada en el giro o
movimiento que se le debe imprimir. Algo similar ocurre en el billar y otros deportes.
En la antigüedad, el movimiento en los planos inclinados u horizontales (plataformas), el
desplazamiento mediante palancas, poleas, barras, cuerdas, cintas elásticas y resortes o
muelles era lo importante. La hidráulica y la neumática eran parte de ella. Las olas y las ondas
mecánicas también podrían causar movimiento. A pesar de que nadie la entendiera, como
ocurre hoy con la mecánica cuántica, desde muy antiguo se empezó a utilizar el efecto de la
atracción gravitacional, del caudal de las aguas, del movimiento del aire. Se aprendió, con más
intuición que razonamiento, a utilizar el movimiento de los astros. De manera similar, hoy en
día sabemos aprovechar a voluntad el movimiento de los electrones, de los huecos que
resultan de la ausencia de electrones en los semiconductores y de la luz (de los fotones): esto
ha dado lugar a la optoelectrónica, un campo por fuera de la física clásica.
Observar o deducir que los cuerpos celestes cumplen las mismas leyes de los objetos terrestres
fue un avance formidable. Aunque estos últimos siguieron siendo importantes, el centro de
atención de la mecánica teórica, como podríamos llamarla, se desplazó hacia esos objetos
lejanos y desconocidos; la síntesis de todo aquello en la mecánica newtoniana, previamente
formulada en las 3 leyes de Kepler, fue el primer gran triunfo predictivo de la ciencia moderna.
Aunque el concepto de fuerzas o interacciones a distancia estaba vagamente en la descripción
del equilibrio y cambio de movimiento, el desconocimiento del carácter relativo de este último
dificultó reconocer que no es necesaria una fuerza para mantenerlo. Fue Newton quien
visualizó más claramente la acción a distancia, en su observación y descripción detallada del
movimiento planetario mediante la fuerza gravitacional.
Newton era consciente de la importancia de las fuerzas eléctricas y magnéticas, acciones que
podían ocurrir a distancia, como la acción de la gravedad. Pero los fenómenos
electromagnéticos, como les llamamos hoy, son más complejos. Fue después de poder
sintetizar las ideas centrales de las interacciones electromagnéticas cuando surgió el concepto
de campo. Sobre esto volveremos en el siguiente apéndice.
Dejemos de lado los complejos fenómenos de los fluidos y de la termodinámica, en apariencia
sencillos, para concentrarnos en el movimiento planetario, o de la luna alrededor del sol,
cercano al movimiento que deben tener los electrones en los átomos, particularmente en el
átomo más sencillo de todos, el hidrógeno. Fue precisamente estudiando u observando el
movimiento de la luna alrededor de la tierra como Newton llegó a formular su teoría de la
gravitación universal, pieza clave para sintetizar en 3 sus Leyes del Movimiento. En su estudio,
la luna es una masa puntual.
Principio de inercia
El principio de inercia es abordado y enunciado en todos los textos de física. Es conocido
también como primera ley de Newton. Algunos lo interpretan como corolario de la segunda ley
de Newton en ausencia de fuerzas. Nosotros preferimos seguirlo llamando principio. Su
enunciado es casi elemental: todo objeto continúa moviéndose uniformemente (con la misma
velocidad, entendida esta como un vector) mientras no interactúe con otros.
Hay que hacer varias aclaraciones con respecto a esta afirmación. La primera es que Newton y
Galileo lo enunciaron de diferente manera. La más cercana a la nuestra es la del primero,
quien habla de un cuerpo en reposo o movimiento rectilíneo uniforme y de fuerzas exteriores
que lo modifican. En la forma en que nosotros lo hemos enunciado, está implícito otro
principio, atribuido a Galileo. Dejando de lado muchas sutilezas que no vienen al caso para los
propósitos del presente ensayo, señalemos que este está relacionado con otro asunto que
aparentemente pasó desapercibido hasta cuando él lo examinó a fondo: el movimiento es
relativo. Fue precisamente Galilei quien empezó un estudio sistemático del movimiento, a
partir del movimiento sobre planos horizontales e inclinados, posteriormente el de caída libre
y el movimiento de proyectiles. Este último ilustra muy bien la relatividad del movimiento. Si
un ave vuela horizontalmente, agreguemos que con velocidad uniforme, llevando en su pico
una presa y suelta ésta, la presa o el objeto caerá en movimiento parabólico desde el punto de
vista de un observador en tierra, no para el ave, que la verá caer en línea recta si continúa su
vuelo uniforme horizontal. Podemos descomponer el movimiento del objeto en dos: el
horizontal y el vertical. Aparte de ilustrar el principio de relatividad, este procedimiento nos
permite hablar del proceso inverso, la composición del movimiento, en general las 3
componentes que en el espacio habitual se le pueden asignar, X, Y y Z.
Otro aspecto a destacar, esencial por las condiciones en que se cumpliría el principio y que a
menudo se olvida, es este: ¿hay algún objeto en el universo que no interactúe en cada instante
con muchos otros, así sea leve o sutilmente? Evidentemente es imposible aislar por completo
cualquier sistema bajo estudio. A lo más que podemos aspirar es a que muchas de las diversas
interacciones se neutralicen y a que otras más sean imperceptibles. Eso quiere decir que nadie
ha podido comprobar rigurosamente la validez de la primera ley o sobrepasar la barrera de
enunciar una verdad que no se puede demostrar, como si se tratara del teorema de Gödel
aplicado a la física experimental.
Movimiento relativo y sistemas de coordenadas
Por simplicidad, pues, aceptemos que el movimiento es relativo. A esto debería agregarse que
hay sistemas de referencia o ejes de coordenadas, con respecto a los cuales se especifica una
posición del cuerpo u objeto bajo estudio u observación, posición que al variar determina la
velocidad. Hoy es fácil reconocer que no hay un sistema de referencia absoluto, lo cual
equivale a decir que el éter no existe. Es preferible postular que hay sistemas de referencia
inerciales, aquellos en los cuales se cumple el principio de inercia, y que todos esos sistemas
son equivalentes. Si se habla de fuerzas exteriores, como aclara Newton, es porque se asume
que también hay fuerzas interiores, y eso nos lleva a la tercera ley, que garantiza el equilibrio
entre las partes que componen un sistema mecánico. Cada parte del sistema puede ser objeto
de observación. Newton introdujo varias definiciones en sus Principia. Ellas ayudan a entender
el enunciado de sus leyes, en cada una de las cuales se hace indispensable hacer referencia a
las otras. Reinterpretándolo, una de esas definiciones bien podría referirse a la masa puntual,
idealización que lleva a imaginar que el objeto bajo estudio se reduce a un punto matemático.
Esto es válido para el movimiento de traslación. Asociado con él, se introduce una cantidad
dinámica de suma importancia, a saber, la cantidad de movimiento lineal. Cuando hablemos de
giros o rotaciones, tendremos que referirnos a otra cantidad dinámica, la cantidad de
movimiento angular. Definiremos estas cantidades más adelante, aunque el lector bien
informado ya tendrá elaborado un concepto sobre ellas.
Como corolario, diremos que para cambiar el movimiento de un objeto, debemos
“impulsarlo”. Esto nos lleva necesariamente a la Segunda Ley de Newton. En el sistema más
sencillo en que podemos observarlo antes de perturbar su estado, estará en reposo, y hay que
hacer una fuerza sobre él para desplazarlo. Así lo entendieron las culturas primitivas, los
presocráticos y otras culturas o civilizaciones que vinieron posteriormente.
Desafortunadamente la experimentación no fue la característica principal del platonismo y el
aristotelismo. Esto llevó a una imagen del mundo totalmente equivocada. Las malas
interpretaciones surgen de la concepción que tenemos sobre el universo, generalmente
geocéntrica., o si se quiere, antropocéntrica. Un apéndice no es el espacio adecuado para
examinar los mil quinientos y más años que vinieron después en occidente y preservaron una
noción o concepto equivodado. Un punto de partida diferente fue el adoptado por Galileo y
Kepler, retomado por Newton. Surgieron así leyes del movimiento basadas en la observación
meticulosa del movimiento planetario, guiado ahora por el telescopio. (Weinberg, 2016.)
El cambio de paradigma llevó a identificar como fuerza todo lo que actúe sobre un objeto, esté
en reposo o en movimiento. Si un objeto se detiene, es porque actúa una fuerza sobre él. Pero
si esto es válido, entonces podemos concluir que hay múltiples y variadas acciones por doquier
que se oponen al movimiento de los objetos. Identificar los causantes o responsables de las
fuerzas no es entonces tarea fácil. No obstante, con los avances del último siglo la tarea se
simplifica.
Fuerzas en la naturaleza
Afortunadamente esa tarea de identificación de fuerzas, a nivel fundamental condujo a lo que
se denominan fuerzas o interacciones fundamentales. Aunque inicialmente no se la vio de esa
manera, la gravitacional es una de ellas. Todo cuerpo que tenga masa, y antes del
descubrimiento del fotón no se sabía de alguno que no lo tuviera, salvo algunas sustancias
imponderables que resultaron ser imaginarias, ejerce una atracción gravitacional sobre otra.
Desde muy antiguo se conocen las interacciones eléctricas y magnéticas, pero hasta el siglo
XVII fueron más bien arte de magia. A mediados del siglo XIX se logró algo maravilloso:
descubrir que las interacciones eléctricas y magnéticas, o más bien, los fenómenos eléctricos y
magnéticos están estrechamente relacionados. Por eso hoy hablamos de la interacción o
fuerza electromagnética. Pero con el descubrimiento de la radiactividad y del núcleo se
descubrieron también otras interacciones fundamentales, la débil y la fuerte.
Habría pues 4 interacciones fundamentales, a saber: gravitacional, electromagnética, débil y
fuerte. Mas, como hemos anticipado, se ha avanzado también en otro proceso que se inició en
el siglo XIX. Así como las fuerzas eléctricas y magnéticas finalmente se unificaron en una sola,
finalmente, en la segunda mitad del siglo XX se unificaron las interacciones electromagnética y
débil en la denominada electro-débil. No ahondaremos en este asunto, pero agreguemos que
Einstein dedicó la mayor parte de su vida a la unificación de la gravedad con las otras fuerzas,
en particular la electromagnética: vano intento. La gravedad continúa siendo la más sutil de
todas las interacciones. La electromagnética, la más importante. Las ondas electromagnéticas
fueron producidas en el laboratorio en la segunda mitad del siglo diecinueve. Cuando estas
notas se revisan (Febrero, 2016), se ha anunciado finalmente la verificación de la hipótesis
básica de Einstein: detrás de la interacción gravitacional también hay ondas gravitacionales.
Pero para detectarlas no solo se requieren sofisticados equipos; es necesario observar
acontecimientos que difícilmente se dan en el universo, como es la colisión entre 2 agujeros
negros.
Volvamos a la manifestación de fuerzas en la vida cotidiana. Es debido principalmente a
fuerzas eléctricas (o electrostáticas, en primera aproximación) que se mantiene la cohesión
entre las partes de los objetos sólidos y, aunque solo parcialmente, en los líquidos. Un objeto
que se acerque a su superficie, invariablemente es atraído o repelido: son fuerzas
electroquímicas, de origen eléctrico o electromagnético. Rigurosamente hablando, es
imposible eludir a estas fuerzas, si bien en ciertos casos se vuelven insignificantes. Las que
mencionábamos en la introducción, debidas a cuerdas o resortes por ejemplo, también las de
rozamiento y fricción, son de carácter eléctrico. Al igual que la gravitacional, en general van a
depender de la separación entre las partes. En ocasiones dependen también de la velocidad,
como se ilustrará en el segundo apéndice.
Aunque no son de la vida cotidiana, las fuerzas nucleares sí se manifiestan permanentemente
y dan lugar a objetos (partículas) que influyen sobre los seres vivos de todo tipo,
modificándolos en ocasiones genéticamente, para bien o para mal. Tampoco examinaremos
este asunto.

Figura I.1. Ilustración de la posición y del desplazamiento en 2 dimensiones.

Posición y velocidad como vectores


Describir la posición de un objeto y su desplazamiento es la tarea de la cinemática. El
movimiento generalmente se hace en forma curvada. Las figuras I.1 y I.2 ilustran el
movimiento en 2 dimensiones (en el plano) de una masa puntual, m. En un instante de tiempo
que denominaremos t, el objeto ocupa una posición x(t). La escribimos así por simplicidad; la
hubiéramos podido denotar r(t) o, como en la figura, una flecha encima que indica su carácter
vectorial. Las cantidades relacionadas con la posición, como el cambio de posición en el
tiempo, que es la velocidad, y el cambio de velocidad, denominado aceleración, son cantidades
vectoriales. No precisaremos la definición matemática de un vector, concepto que se
generalizará en el texto (Capítulo tercero y siguientes), cuando hablemos del denominado
vector de estado.
Es más fácil hablar de las componentes X y Y de un vector en el plano. En el espacio, se
agregará la coordenada z y la componente Z del vector asociado. A las direcciones o
componentes X y Y asociaremos respectivamente vectores unitarios i y j. Para la dirección Z, se
suele utilizar el símbolo k para el vector unitario asociado. De la figura I.1b es claro que
podremos escribir:

x(t) = x(t)i + y(t)j.

Cuando trabajemos con los vectores de estado, esta técnica permitirá expresar en términos
matemáticos el principio de superposición. La suma de vectores en la forma clásica indicada es
el punto de partida para la superposición de estados en la mecánica cuántica.

Un poco más tarde (tan cerca como queramos del instante t), en el instante t+t, el objeto o
masa puntual se ha desplazado a su nueva posición x(t+t):

x(t+t) = x(t+t)i + y(t+t)j.


La velocidad, una cantidad clásica vectorial que se suele designar por v, es la evolución con el
movimiento de la posición de un objeto: es el cambio de posición en el tiempo.
Evidentemente, es una cantidad referida a un determinado observador, es decir, relativa. La
Tierra se mueve con respecto al Sol, pero no podemos decir lo mismo respecto de nosotros, al
menos cuando estamos anclados a ella. Cuando la masa puntual m se desplaza a lo largo de la
curva (trayectoria) mostrada en la figura I.1 o la mostrada en la figura I.2, además de su
posición en cada instante de tiempo debemos suministrar su velocidad en cada punto,
también para cada instante de tiempo, si queremos describir su movimiento; le llamaremos
velocidad instantánea, o simplemente vector velocidad v. Más explícitamente, v(t); su
orientación, por definición, es la de la tangente a la curva que describe la trayectoria en el
punto considerado, como se ilustra en la figura I.2.

La relación entre el desplazamiento xy el intervalo de tiempo t, cuando ese intervalo es
suficientemente pequeño, es matemáticamente la velocidad instantánea. Como el concepto
es un poco abstracto, refirámonos primero a la velocidad promedio o rapidez media.

Y P El vector velocidad media, se


define como el cociente entre
el vector desplazamiento x y
el tiempo t empleado en el
desplazamiento:
x X1
1
El vector velocidad media tiene
P´ la misma dirección que el
vector desplazamiento, es
X´ decir, la secante (tangente en
el límite t →0) que une los
´´ puntos P y P´ cuando se calcula
la velocidad media <v1> entre
los instantes t y t´.
Para pasar a la velocidad
instantánea, o simplemente
vector velocidad, es necesario
X calcular la relación anterior en
el límite, cuando el intervalo de
tiempo se hace tender a cero.

Figura I.2. Ilustración del vector velocidad (variación del vector de posición) para 2 posiciones
diferentes. El vector velocidad, o velocidad a secas, es siempre tangente a la trayectoria del móvil.

La posición exacta suele darse por simplicidad, aunque no siempre, por las llamadas
coordenadas cartesianas de un punto matemático (x,y,z) y suele representarse por el vector
(tridimensional) r; en ocasiones es mejor hacerlo mediante las denominadas coordenadas
esféricas (r, , ), siendo r la magnitud del vector de posición, r,  el ángulo que forma la
dirección de este vector con el eje z, y  el que forma su proyección sobre el plano XY con el
eje x, pero no es necesario ahondar en el tema. La medida de la rapidez media, magnitud de la
velocidad promedio <v> (o <v>), es la relación entre el desplazamiento o espacio recorrido
(s), denotémoslo por Δs, y el tiempo (t) empleado para recorrerlo, designémoslo por Δt: v =
Δs/Δt. El espacio recorrido depende del intervalo de tiempo medido, pero la relación lo es
menos si el intervalo de tiempo es pequeño. Asumimos que en t la posición es r, en t1 r1 y así
sucesivamente: en t’ es r’. Limitémonos de nuevo, por simplicidad, al plano XY para ilustrarlo.
Cuando se tiene el vector velocidad para cada instante de tiempo, v(t), es fácil trasladar la
información al espacio de velocidades. El origen en dicho sistema es el reposo. Las unidades
para la velocidad en el sistema MKSA (metro·kilogramo·segundo·amperio) son m/s (metros
sobre segundo), o mejor, ms-1. Más que el espacio de velocidades, se suele hablar del espacio
de momentos o de cantidad de movimiento. A este concepto volveremos en la siguiente
sección.
El símbolo Δ a menudo se emplea para indicar que se hace referencia a cantidades
minúsculas. Esto es muy conveniente, porque se pueden, en principio, observar los cambios
que se producen de un instante de tiempo al siguiente, sin precisar el lenguaje: aceptemos, sin
más, que el tiempo fluye en forma continua; y que la línea (curvada o no) que representa la
trayectoria es una sucesión continua de puntos. Si no cambia por lo menos una de las
componentes de la posición del objeto, no hay movimiento.
Aceleración, cambio en la cantidad de movimiento e impulso dado por una fuerza
Introduzcamos ahora el concepto de aceleración. Su importancia mayúscula reside en la
relación que tiene con las fuerzas o interacciones: no habrá aceleración en ausencia de estas.
Ésta es el cambio de velocidad, exactamente en la misma forma en que velocidad es el cambio
de posición: a es, pues, un vector: vector aceleración. Precisémoslo un poco más, siguiendo la
figura.
Si en el instante t el objeto móvil se encuentra en P y tiene una velocidad v, cuya dirección es
tangente a la trayectoria en dicho punto, como ya dijimos, y en el instante t' el móvil se
encuentra en el punto P' y tiene una velocidad v', en general ese objeto habrá cambiado su
velocidad tanto en módulo como en dirección en una cantidad dada por el vector diferencia
v=v’-v. Trasladando los vectores velocidad a un espacio imaginario de velocidades, se
traslada el vector (velocidad final) al extremo de –v y tendremos lo que se ilustra a
continuación para el cambio de velocidad (aceleración), aplicando lo que denominan regla del
paralelogramo:

-v

Δv

Se define la aceleración media como el cociente entre el vector cambio de velocidad v y el


intervalo de tiempo t=t'-t, en el que tiene lugar dicho cambio: <a> = v/t. La aceleración
instantánea a se define mediante un proceso de límite que para esta breve introducción no
nos interesa precisar. La aceleración lleva la dirección del cambio de velocidad y en general
tiene dos componentes: una tangencial, debida al cambio en la magnitud, y otra normal o
perpendicular a la curva (tangente) que hace la trayectoria en el punto considerado.
Para efectos dinámicos, más que a la simple velocidad, tiene más sentido referirse a la
cantidad de movimiento o momentum, p = mv, donde m es la masa del objeto físico cuyo
movimiento se está describiendo matemáticamente. Recuérdese que la masa de un objeto es
la medida de su inercia. La denominaremos simplemente masa inercial, y debe distinguirse de
otro concepto que envuelve también masa, a saber, la masa gravitacional. No es ni de lejos
semejante o equiparable el esfuerzo (rigurosamente impulso) invertido tratando de detener
un pesado camión con doble remolque cuando está avanzando, así sea muy lentamente, que
parar una pelota de tenis impulsada con la mayor rapidez posible en un juego real; así que la
rapidez (o velocidad, si se especifica la dirección del movimiento) no es lo más importante
desde el punto de vista dinámico. Si se tiene en cuenta que, de acuerdo con la teoría de
relatividad, la masa de un objeto crece con su rapidez, hay una razón adicional para referirse,
no a la velocidad, sino a la cantidad de movimiento (momentum), cuando quiere hablarse de
la cantidad física fundamental desde el punto de vista dinámico. El impulso, efecto de una
fuerza actuando durante un intervalo de tiempo (FΔt, en magnitud), es su contraparte, pues
se manifiesta en un aumento (o disminución) del momentum (FΔt =Δp), de acuerdo con la
segunda ley de Newton, a la que se volverá en breve.
En física clásica afirmamos que el estado de una partícula se describe dando su posición (r) y
su cantidad de movimiento (p) o velocidad (v) en cada instante de tiempo. Si lo logramos
hacer en instantes sucesivos, estamos describiendo lo que se denomina trayectoria. Para ello
requerimos de una cantidad física adicional; esta es precisamente la fuerza, una cantidad
vectorial que en español, inglés y otros idiomas indoeuropeos se suele denotar por F.
F pierde sentido, rigurosamente hablando, cuando pasamos al dominio cuántico. Pero
intentemos dar una noción vaga de ese ente clásico: es demasiado importante en la
fundamentación de la mecánica y del mecanicismo. Interacción es un término más preciso,
incluso en la terminología de las ciencias sociales. A propósito, un término como fuerza social
no está definido físicamente. Regresando a la vieja terminología de las fuerzas, en la práctica
de nuestro mundo cotidiano basta con dos, la gravitacional y la eléctrica. La primera es la más
desconocida, aunque sea la más antigua o supuestamente mejor estudiada en la historia de la
ciencia moderna: arrancó con ella. Así que no nos cuesta mayor esfuerzo imaginar un campo
gravitacional (véase la figura 2.1); los gravitones, sus supuestas partículas mediadoras, justo
han sido detectadas indirectamente, según se anuncia, cuando se están revisando estas notas
para su distribución electrónica (febrero, 2016).
La cantidad de movimiento puede variar por variación en la velocidad o por variación de la
masa o por ambas. La masa varía también con la magnitud de velocidad o rapidez, de acuerdo
con la fórmula de Einstein. Pero un objeto que en principio no tiene masa en reposo, también
transporta cantidad de movimiento. Es el caso de los bosones intermediarios. En particular,
para un fotón su cantidad de movimiento es proporcional a lo que se denomina vector de
onda, cuya magnitud se denomina número de onda y es proporcional al inverso de la longitud
de onda: k = 2π/λ. Específicamente, la cantidad de movimiento de un fotón está dada por la
expresión p = ħk.
Segunda ley del movimiento de Newton
Volveremos a la noción de campo más adelante. Por ahora, retornemos a las fuerzas clásicas.
El peso es la manifestación de la fuerza gravitacional. Por eso el peso de un cuerpo, a
diferencia de su masa, es diferente en la superficie de la Luna que en la de la Tierra. Las
fuerzas en los resortes, en las cuerdas, en los planos inclinados, la denominada fuerza de
rozamiento y muchas otras fuerzas empíricas son de origen eléctrico, como ya se ha señalado.
Lo importante, desde el punto de vista de la mecánica newtoniana, es que toda fuerza (léase
toda interacción) causa una aceleración.
Lo más importante que debe tener en cuenta el lector es que al sumar las diferentes fuerzas
que actúan sobre el cuerpo utilizando la técnica de suma de vectores que hemos indicado, el
resultado es una aceleración que va en la dirección del vector fuerza resultante o fuerza neta.
El resultado preciso está contenido en la denominada segunda ley de Newton. Sin que nos
molestemos en demostrarlo, en general para un objeto que tiene en cierto momento una
cantidad de movimiento p se puede enunciar así de simple: F = dp/dt. Estamos utilizando el
símbolo de derivada del cálculo diferencia, una herramienta utilizada por Newton, descubierta
simultáneamente por Leibnitz, a la que no recurriremos aquí. En términos más sencillos,
teniendo en cuenta que a las velocidades usuales no relativistas la masa se mantiene
constante, la segunda ley de Newton se escribe cuantitativamente así:

F = ma.
La masa que aparece aquí es la misma que se ha utilizado para la definición de la cantidad de
movimiento, a saber, masa inercial. Con la tercera ley de Newton de acción y reacción (toda
fuerza ejercida por un objeto sobre otro hace que este último ejerza sobre el primero una
fuerza igual y opuesta), combinada con la segunda ley, se encuentra un principio fundamental
de la mecánica: el de conservación de la cantidad de movimiento.
Colisiones y momentum
Cuando dos objetos interaccionan, intercambian lo que hemos definido como cantidad de
movimiento. Aunque no lo demostraremos, el principio de la conservación de esa cantidad es
uno de los pilares de la mecánica clásica o cuántica. Hay algunas sutilezas que deben tenerse
en cuenta al aplicarlo. Por ejemplo, si se aplica al sistema tierra-luna, cuando esta avanza hacia
un lado con cierta velocidad respecto a un sistema inercial, hará que la tierra se mueva en
dirección contraria con una velocidad en magnitud muy inferior a la de la luna, en la relación
entre las masas tierra/luna. Lo mismo ocurre con el sistema protón-electrón, etc. En este caso,
la relación entre masas es de 2000 y el núcleo puede considerarse fijo.
Para un electrón libre, lo contrario de ligado, normalmente uno conoce con precisión con qué
velocidad se mueve, es decir, su cantidad de movimiento, la cual se conserva. El principio de
indeterminación de Heisenberg nos dirá que es imposible saber dónde se encuentra. Pero esa
discusión la dejaremos para el cuerpo principal del presente texto (primera parte), porque
forma parte de uno de los aspectos más relevantes en la nueva física.
En la formulación de Newton de la mecánica y su generalización posterior hecha por Lagrange,
Hamilton y otros, la masa se conserva. La ley o ecuación de movimiento, generalizada o no, se
convierte en la mecánica cuántica en la ecuación (de onda) de Schrödinger, la cual no dice
cómo se mueve un sistema cuántico sino cómo evoluciona su función de onda. Este aspecto se
tocará cualitativamente en la primera parte.
El concepto de masa también se utiliza en la energía de movimiento, a la que nos referimos a
continuación. No sobra advertir que la expresión general para la energía cinética en la
mecánica cuántica no es la misma de la mecánica clásica.
Conservación de la energía y energías de diverso origen
Hay un principio cuya validez ha sido a puesta a prueba y que, hasta donde sabemos hoy, solo
puede ser violado por la preservación o primacía de otro principio, esta vez de origen
cuántico, a saber el principio de indeterminación. Nos estamos refiriendo al Principio de
Conservación de la Energía. La confirmación experimental de ese principio hace que podamos
hablar más rigurosamente de una ley de conservación. Se podría empezar cualquier curso de
física invocando esa ley. Cuando ya se tiene claro el concepto de fuerza y el significado de la
segunda ley de Newton, es preferible referirse al trabajo hecho por una fuerza, para
demostrar un teorema que relaciona el trabajo de la fuerza neta sobre un objeto simple o
masa puntual y lo que se denomina energía de movimiento o energía cinética. Separando
cuidadosamente el trabajo hecho por fuerzas cuya intensidad depende solo de la separación,
el cual puede agruparse en otro tipo de energía acumulada denominada potencial, se puede
hacer un enunciado débil del principio en la forma que la mecánica newtoniana lo permite.
Veámoslo más detenidamente.
Expresable en términos newtonianos modernos mediante la fórmula p2/2m (o, si lo prefiere,
½mv2; lo cual no es cierto cuando hay que tener en cuenta la relatividad de Einstein, cuando
se reconoce la equivalencia entre masa y energía, a la que volveremos a menudo), la energía
de movimiento o energía cinética es la manifestación más inmediata de la energía de un
objeto simple o masa puntual. Para aprovechar una analogía con el concepto de impulso, de
gran trascendencia, nótese que la extensión de la fuerza en el espacio, FΔx para el caso
unidimensional, conduce al concepto de trabajo y por ende al de aumento (o disminución) de
la energía: FΔx es el aumento en la energía de movimiento, si no hay otra fuerza que se
oponga a éste y aquella actúa en la dirección x. De manera más general, en mecánica clásica
se habla del Teorema del Trabajo y la Energía Cinética, según el cual el trabajo de la fuerza
neta (resultante de la composición vectorial de todas las fuerzas que actúan sobre el objeto)
es igual al incremento en la energía cinética; FΔx incrementa además la energía de posición,
llamada también potencial, si un campo de fuerza conservativo, por ejemplo el campo
gravitacional, o una fuerza elástica (procesos reversibles, caso de un resorte ideal)
contrarresta la acción de la fuerza aplicada por un agente distinto al campo o al medio
elástico. Imagine, para el caso, un montacargas que levanta o descarga pesados bultos a lo
largo del eje vertical, y; para elevar un peso mg (m en este caso es la masa gravitacional, y g es
el valor de la aceleración de la gravedad en la posición en que se encuentra el montacargas;
mg es la magnitud de la fuerza gravitacional, denominada peso) a una altura y, el montacargas
realiza un trabajo mgy, cantidad que es precisamente la energía potencial almacenada por el
cuerpo.
La energía de posición es un término bastante amplio; es energía almacenada, de ahí el
adjetivo de potencial, más general que “de posición”. Un satélite moviéndose alrededor de la
Tierra tendrá una energía potencial gravitacional (¡cuidado!, ya no es mgh, es proporcional a -
1/r, donde r es la distancia del satélite al centro de la Tierra). La energía potencial puede estar
almacenada en muelles comprimidos o en mecanismos menos fáciles de identificar; en
nuestra escala usual, envuelve a menudo energía eléctrica (a veces llamada electroquímica) o
electromagnética o en últimas se reduce a ella (la del muelle rigurosamente es de origen
eléctrico o electromagnético); quien esté familiarizado con circuitos eléctricos, puede pensar
en un resonador u oscilador eléctrico, en el que se acumula o aprovecha energía
electromagnética. Al concepto volveremos en el segundo apéndice. Generalizando, la energía
electromagnética en últimas se convierte en energía de radiación, energía que se propaga con
la onda electromagnética a ella asociada. Es, en últimas, el haz de fotones descritos mediante
la onda misma.
Un oscilador mecánico, cuyo ejemplo más sencillo es el péndulo simple o la masa atada a un
resorte, sirve también para ilustrar el concepto de transformación permanente de energía de
movimiento en energía de posición y viceversa. El movimiento planetario es un típico
movimiento de conservación y transformación de energía, de potencial gravitacional en
cinética o de movimiento y viceversa: en el apogeo, mayor distancia al centro atractivo, el
planeta (o satélite) se mueve con menor rapidez que en el perigeo, por lo que su energía
cinética (siempre positiva) es menor justamente en la cantidad en que se ha aumentado la
potencial, siempre un número negativo para el caso, haciendo de la suma una constante. Para
un resorte, caracterizado por una constante elástica k, la energía potencial puede escribirse en
primera aproximación como ½kx2, siendo x el desplazamiento con respecto a la posición de
equilibrio del muelle. El módulo al cuadrado (observe que el desplazamiento x podría ser
negativo en el caso del resorte, pero x2 siempre será positivo) es característico de muchos
términos que expresan la energía; veremos que esa magnitud también caracteriza otra
cantidad física fundamental en la nueva física, la probabilidad. Hay también osciladores
eléctricos, en la actualidad de mayor importancia diaria que los mecánicos. Al tema
volveremos en el siguiente apéndice.
Se suele representar a la energía de movimiento por T (no confundir con temperatura, una
cantidad física muy importante a la que prácticamente no nos referiremos a lo largo del
ensayo) y a la de posición por U. En los sistemas mecánicos que no disipan energía (no hay
cambios de temperatura), decimos que ésta se conserva: E = T + U = constante. Son sistemas
conservativos. Uno de los casos más sencillos es el de un satélite que se mantiene en una
órbita, determinada precisamente por la energía E y la forma particular en que se le puso en
órbita (condiciones iniciales); ocurre algo parecido con un electrón ligado al protón (átomo de
hidrógeno); pero, como veremos, en éste caso no se puede hablar de órbitas; cuando más, de
orbitales, solamente para hacer referencia a lo que en un lenguaje riguroso habrá que
denominar estado cuántico. Si se sobrepasa el límite relativista, en procesos nucleares y otros
más, es esencial recordar el principio de la equivalente entre masa y energía. Cada objeto
material de masa en reposo mo tiene una energía interna Eo = moc2, siendo c la velocidad de la
luz.
Hay otras formas de energía; el lector habrá oído hablar de energías térmica, nuclear, de
radiación y otras más. La energía solar, energía de radiación, proviene de procesos nucleares
(de fusión) que se dan en nuestra estrella. La radiación electromagnética se interpretaba antes
como energía calórica, y la energía térmica, también asociada al calor, es a menudo energía de
movimiento. Baste por ahora con afirmar que es frecuente no saber a qué se está haciendo
referencia cuando se habla de energía. Usted puede observar cómo cualquier lego en la
materia usa y abusa del término, en ocasiones para engañar incautos.
Compendio de la dinámica de un objeto puntual
Las dos cantidades físicas, propiedades físicas de un cuerpo con inercia m (recuerde que en
física m es la medida de la inercia de un objeto), que varían al prolongar, respectivamente, la
acción de una fuerza en el tiempo y en el espacio, a saber, la cantidad de movimiento y la
energía, sobreviven más allá del campo clásico; se asignan también como cantidades variables
de entes o sistemas cuánticos para los que el término ‘fuerza’ puede haber perdido
significado: las dos son observables cuánticos. Veremos que el hecho de ‘observarlas’,
determinarlas, generalmente altera lo que se denomina el estado del sistema, estado del
cuerpo de masa m para el caso. Nótese que la observación, casi siempre una interacción,
resulta en una perturbación, no siempre reducible a ‘fuerza’; con mayor razón puede
anticiparse esta conclusión en los experimentos ya citados, medidas libres de interacción. Es
entonces de subrayar que el concepto clásico de fuerza es reemplazado en la nueva teoría por
el de interacción. Este cambio de terminología es conveniente, porque permite una mayor
precisión en el lenguaje.
La energía como un todo es una cantidad fundamental en la dinámica. Su transformación, de
cinética en potencial y viceversa, es la esencia de la dinámica y da origen a diversas
formulaciones. Pero hay otra cantidad de fundamental importancia, ya mencionada. El
momenum angular o cantidad de movimiento angular. Precisaremos el concepto a
continuación. Veremos que en mecánica cuántica tiene un significado más profundo,
sintetizado en lo que se denomina momentum angular intrínseco o espín.
Conservación de la cantidad de movimiento angular

El momentum angular o momento cinético, mejor descrito como cantidad de movimiento


angular, es un concepto de gran trascendencia en la dinámica de una masa puntual que gira y
en cualquier otro objeto compuesto que hace rotaciones de cualquier tipo, en general en el
espacio tridimensional. En el caso más elemental, una masa puntual que es atraída hacia un
centro por una fuerza central, su momentum o cantidad de movimiento va a variar, salvo si su
trayectoria es circular, como ocurre con la luna alrededor de la tierra (también con el electrón
en el átomo de hidrógeno, en su estado base). El momentum angular de una masa alrededor
de un origen se define simplemente como el momento del momentum (brazo por cantidad de
movimiento), o más rigurosamente:

L = r×p,
operación vectorial que se denomina precisamente “producto vectorial”, con las siguientes
características: la dirección es perpendicular al plano formado por los vectores r y p, y su
magnitud es el producto de las dos magnitudes de esos vectores multiplicada por el seno del
ángulo entre ellos. A partir de la segunda ley de Newton, F = dp/dt, si F está en dirección r, es
fácil demostrar que L se conserva, es decir, su variación es nula para estos casos. En otras
palabras, el momento cinético de un sistema se conserva cuando el sistema gira alrededor de
un centro de fuerza (fuerzas centrales, de las cuales la gravitacional es solo un caso).
Sistemas físicos y formalismos
En física clásica, el sistema físico es una idealización de la realidad. Cuando se habla del
movimiento de la Luna, se suele decir que es como “un punto matemático que se mueve en
una trayectoria circular, manteniéndose a una distancia de 384,403 kilómetros de la Tierra”.
Puede agregarse que su diámetro es 3,476 kilómetros; que su movimiento es sincrónico: tanto
la rotación de la Luna como su órbita alrededor de la Tierra duran 27 días, 7 horas y 43
minutos; y que esa rotación síncrona se debe a la distribución asimétrica de su masa. La
primera parte de la frase es una verdadera abstracción del sistema físico real; en la segunda,
se suministra información suficiente (a la que se añade otra) para cuestionarse sobre la validez
de esa abstracción. Cuando se aplica un formalismo matemático a la descripción del
comportamiento o evolución en el tiempo de un sistema físico, es indispensable hacer
idealizaciones. Así se procedió para la descripción del movimiento de la luna alrededor de la
tierra y de esta alrededor del sol. Antes de terminar esta sección, queremos dejarle al lector
no científico una inquietud: ¿será que la Luna va a continuar moviéndose de esa manera?
Téngase en cuenta que no siempre se movió así… la tierra tampoco ha permanecido invariable
en su movimiento como planeta alrededor del sol. ¿No se estará extrapolando demasiado?
Movimiento planetario
El movimiento de la Luna (y de los planetas) sólo pudo ser entendido de manera global cuando
Newton incorporó, adicionalmente a sus leyes de movimiento, una ley de fuerza, la llamada
ley del inverso del cuadrado de la distancia. Sobre esa ley hablaremos ahora a modo de
ilustración del éxito de la mecánica clásica, aplicada a puntos materiales que no son tales,
pues nos estamos refiriendo a los planetas, sin preocuparnos por su rotación interna o
intrínseca. Para esa también vale la conservación del momentum angular.
Una vez que se ha observado que el movimiento de la Luna es circular, pueden utilizarse las
otras leyes para concluir, a partir del resultado, que la Luna se mantiene en su órbita con el
periodo de 27.3 días aproximadamente, gracias a que la Tierra la atrae con una fuerza
proporcional al cuadrado de la distancia, una nueva ley. Eso fue lo que hizo Newton, echando
mano de las leyes del movimiento planetario de Johannes Kepler, deducidas a partir de
cuidadosas observaciones del movimiento de los cuerpos celestes. La primera se refiere a la
forma de las órbitas: son elípticas; recuérdese que el círculo es una forma particular de elipse.
La segunda sostiene que las áreas barridas por el ‘radio’ de la órbita (r, un radio variable para
el caso general; o r, un vector de posición cuya variación describe la trayectoria) son tales que
áreas barridas en tiempos iguales son iguales. Más sencillo: la tasa de cambio del área que
barre la distancia del cuerpo celeste al Sol es constante. Esa afirmación parece obvia en el
caso del movimiento circular: la podemos utilizar para deducir cuál es la rapidez o velocidad
promedio en el movimiento circular uniforme de la Luna alrededor de la Tierra, si usamos
como datos el radio de la órbita lunar y su período. La tercera es más complicada, y fue el
triunfo más grande de las observaciones de Kepler, a la vez sustentado en las de sus
predecesores, Nicolás Copérnico y Tycho Brache: afirma que los cuadrados de los períodos son
proporcionales al cubo de los semiejes mayores, en este caso el radio mismo: T2  R3. A partir
de la segunda ley de Newton sobre el movimiento, es fácil demostrar que la relación exacta
es: T2 = 42R3/GM, siendo M la masa de la Tierra en el caso del movimiento de la Luna, o del
Sol para el caso de la Tierra o cualquiera de los planetas o cuerpos del sistema solar que giran
en órbita elíptica alrededor del Sol. Las tres leyes de Kepler sobre las órbitas traen pues
implícitas la segunda de movimiento y la de gravitación universal.
Veamos ahora cómo usar lo anterior para deducir la ley de fuerzas mencionada en un caso
muy particular, cuando la órbita es circular. Tal es el caso del movimiento de la Luna alrededor
de la Tierra. Pero la ley es completamente general para los cuerpos celestes.

Figura I.3 Leyes de Kepler. La primera se refiere a las trayectorias (elípticas) de los planetas y la segunda
a las áreas barridas en tiempos iguales. La ley de los periodos es consecuencia de la variación de la
intensidad de la fuerza atractiva, proporcional al inverso del cuadrado de la distancia.

Si un cuerpo se mueve con velocidad constante, es decir, en línea recta recorriendo tramos
iguales en tiempos iguales, es porque no hay fuerza neta actuando sobre él: es el enunciado
de la primera ley de Newton, también conocida como ley de inercia, deducida empíricamente
por Galileo cincuenta años antes en un proceso de abstracción nuevo para la ciencia. Por el
contrario, un movimiento curvilíneo no puede ser uniforme, es decir, no puede ocurrir sin
aceleración. Sin entrar en detalles, es fácil concluir que cuando un cuerpo se mueve en
trayectoria circular (r = R) con rapidez constante, experimenta una aceleración centrípeta
(hacia el centro de la trayectoria, o de manera más general, perpendicular al segmento de
curva) proporcional al cuadrado de la rapidez (magnitud de velocidad, v) e inversa a la
curvatura, el radio en este caso: en símbolos, a = v2/R. No es difícil ver, a partir de la definición
de rapidez (distancia recorrida/tiempo empleado en recorrer esa distancia), que v está dada
por 2πR/T, denotando por T el periodo del movimiento circular, un movimiento periódico
porque se repite cada T segundos. En consecuencia, a = v2/R = 4π2R2/T2R  1/R2. Más
exactamente, a = GM/R2, enunciado de la ley de gravitación universal de Newton, lo que es
equivalente a afirmar que en magnitud
F = (GM/R2) m,
expresión equivalente a la segunda ley de Newton sobre el movimiento. En el último paso, se
ha hecho uso explícito de la tercera ley de Kepler. Es evidente que en la superficie de la Tierra,
a = g, una “constante” cuyo valor exacto depende de la posición, longitud, latitud y altura.
Suele asignársele el valor de 9.8 m s-2. Para simplificarles la vida, redondearse ese valor a 10 m
s-2.

Figura I.4 Comunicando suficiente impulso, podría aspirarse a poner un objeto material, por ejemplo
una pelota de béisbol, en órbita. En la práctica, muy cerca de la superficie de la Tierra esto no funciona,
porque hay un fuerte rozamiento con la atmósfera terrestre. Para la velocidad que habría que
imprimirle, 8 km/s, o más dramático, 29,000 km/hora, la pelota no tardaría en arder en llamas. En la
ionosfera el efecto es mucho menor. Por eso se elevan a unos 200 km sobre la superficie de la Tierra los
satélites artificiales.

Veamos el proceso inverso. Si se invoca de nuevo la segunda ley de Newton, F = ma, se


concluye a partir de Kepler que sobre la Luna actúa una fuerza debida a la Tierra cuya
magnitud se expresa de esta manera: FTL  ML/R2. Recuerde el lector el enunciado simple de
la tercera ley de Newton: si un cuerpo hace fuerza sobre otro, el segundo a su vez hará una
fuerza sobre el primero, igual en magnitud y en dirección opuesta. En símbolos, para el
sistema Tierra-Luna, la Luna hará una fuerza dada en magnitud por FLT  MT/R2. No exige
mayor razonamiento concluir que tienen que estar envueltas, en la expresión definitiva, tanto
la masa de la Luna como la de la Tierra: FTL = FLT  MTML/R2. Salvo por la constante de
gravitación universal, G = 6.610-11 m3/kg s2, ese fue el resultado arriba anunciado. Este valor
es justo el necesario para que podamos movernos en la Tierra con la desenvoltura con la cual
lo hacemos. En la Luna, g resulta ser un orden de magnitud inferior. Exigirá un fuerte
entrenamiento aprender a desenvolverse en esas nuevas condiciones, un entrenamiento que
requieren los astronautas y al que se someten algunos excéntricos multimillonarios que
piensan viajar al espacio.
Aparentemente simple, la generalización del resultado exigió un nivel de abstracción como
nunca antes había ocurrido en la historia de la ciencia y la introducción (el descubrimiento) del
cálculo diferencial. Basta con echar una mirada a Philosophia naturalis principia matemática,
la monumental obra de Newton impresa por primera vez en 1676 con su debido imprimatur o
permiso eclesiástico; y a su historia.
Algunos de los lectores dirán: el movimiento de la Luna es demasiado complicado; les asiste la
razón. ¿Por qué no partir del movimiento de una piedra? Veamos qué tan sencillo es este
último: si la piedra cae, lo hace también por la atracción gravitacional de la Tierra. Obsérvese
que cerca de la superficie de la Tierra hay también una gruesa capa de aire, no siempre en
reposo, en ocasiones capaz de alterar drásticamente el movimiento de una piedra. Si la piedra
intentara ponerse en órbita, como puede hacerse con un satélite artificial, este efecto sería
severo, con toda seguridad, aun a las distancias a que suelen colocarse los satélites artificiales.
Se han hecho muchas aproximaciones; se supone que los resultados pueden mejorarse
indefinidamente, como imaginaron los físicos hasta antes de 1900. Tal vez los cráteres y las
montañas que hoy tenemos más o menos bien detectadas en la Luna no importen mucho para
su movimiento alrededor de la Tierra: ella arrastra una tenue capa de gases, su propia
atmósfera, en su movimiento; esa capa forma parte del sistema bajo estudio, como ocurre con
la atmósfera terrestre cuando nuestro planeta gira elípticamente alrededor del Sol. La
mecánica newtoniana da por sentado que las simplificaciones hechas en los dos casos son
válidas. Pero si la superficie de la piedra es muy rugosa, si hay poros que permiten el flujo de
aire a través de la piedra, si no es grande comparada con... las suposiciones son muchas,
seguramente mayores que en el caso de la Luna en su órbita circular, o de la Tierra en su
trayectoria elíptica; bueno, todo depende... podríamos seguir añadiendo peros y enmendar
posibles fallas del modelo; o por el contrario, usar balines de forma esférica para simplificar,
utilizar bombas de vacío para aproximarse a las condiciones ideales, etcétera, etcétera.

La magia de Newton, más allá de sus famosas tres leyes del movimiento, estuvo en
aventurarse a encontrar «leyes de fuerza». La más famosa es la Ley de Gravitación Universal,
escrita aquí una vez más, ahora en forma matemática precisa:
F = -GMmr/r3.
Esta es una ley de fuerza central, atractiva (en la dirección –r), cuadrática: la intensidad de la
fuerza varía con el inverso del cuadrado de la distancia, y va en la dirección opuesta (atractiva)
a la que une los centros de los cuerpos que interactúan o se atraen gravitacionalmente: M, la
masa mayor de, por ejemplo, la Tierra, y m la pequeña masa, por ejemplo la Luna o cualquier
satélite artificial. r/r corresponde a lo que suele denominarse un vector unitario: no tiene
dimensiones, pero siempre tiene la unidad de magnitud; por eso r/r3 tiene dimensiones de
1/r2, resultado al que ya se había hecho referencia. En coordenadas cartesianas se suele
escribir i, j y k para los tres vectores unitarios en direcciones X, Y y Z, respectivamente, de tal
suerte que si se toma como referencia el origen, donde se encuentra en el caso mencionado la
Tierra, se tendrá:
r = xi + yj + zk.
Si se quisiera representar la posición y el movimiento de la Luna o de un satélite artificial que
gira alrededor del centro de la Tierra en trayectoria circular, el esquema sería el representado
en la figura I.5.

Figura I.5. Movimiento de la Luna o de un satélite en trayectoria circular alrededor de la Tierra.


Ilustración del campo gravitacional cerca a la superficie de la tierra, con simetría esférica.

Otra ley de fuerza de mucha utilidad, aunque con mayores limitaciones, es la llamada Ley de
Coulomb. Es el punto de partida de los fenómenos electrostáticos. Basta cambiar la constante
G gravitacional por una nueva constante k, eléctrica; y utilizar a cambio de las expresiones o
símbolos que se refieren a masa por otros que tengan en cuenta la nueva propiedad física
intrínseca de los cuerpos cargados eléctricamente, la cual ahora se presenta en dos clases
diferentes, dando lugar a atracciones o repulsiones. En rigor, a excepción de los 3 neutrinos,
que conforman con el electrón, el muón y el tauón, la familia de los leptones, los objetos que
con mayor precisión podrían denominarse partículas por estar más cercanos al concepto de
masa puntual, tienen todos carga eléctrica; cada uno de los seis quarks tiene carga, en
magnitud 1/3 o 2/3 la carga del electrón o de cualquiera de los leptones cargados. Si el
sistema físico fuera un protón y un electrón (átomo de hidrógeno; recuérdese, de paso, que el
protón, núcleo del hidrógeno, no es, rigurosamente hablando, una partícula elemental), cada
una de las partículas interactuantes tendría carga de magnitud e, la una positiva y la otra
negativa. Como resultado se atraen, en la misma forma que el sistema Tierra-Luna. He aquí la
expresión correspondiente al átomo de hidrógeno:
F = -ke2r/r3.
1.8. Generalización de la mecánica.
La formulación newtoniana de la mecánica clásica, aunque relativamente sencilla, es de
aplicaciones prácticas limitadas en el terreno teórico.
La formulación de Lagrange, utilizando coordenadas y fuerzas generalizadas, es más poderosa.
Todavía más apropiada es la que se denomina formulación Hamiltoniana (Hamilton, 1838). En
esta, las ecuaciones diferenciales de segundo orden de las formulaciones anteriores se
convierten en ecuaciones de primer orden, las cuales relacionan la variación en el tiempo de
las coordenadas o momentos generalizados con variaciones de la denominada función de
Hamilton (hamiltoniano) con respecto al momentum o coordenada generalizada
respectivamente. Fue este enfoque el que permitió a Schrödinger encontrar su ecuación de
onda, aplicable precisamente al Hamiltoniano en su versión cuántica. Implícitamente estamos
hablando así del espacio de fase o de coordenadas y momentos generalizados.
Sin necesidad de entrar en ese terreno esencialmente matemático, terminaremos esta
sección haciendo alusión a otras alternativas que permiten visualizar el problema de la
dinámica en términos más simples. La figura I.6 es una excelente representación de las dos
imágenes más usuales en física clásica: la trayectoria en el espacio directo, o espacio de
coordenadas, y la del espacio recíproco o espacio de velocidades (o momenta). Fue tomada de
una preciosa pieza recuperada de Feynman, denominada La conferencia perdida de Feynman
(Metatemas 56, Tusquets, 1999).

Figura I.6. Movimiento de un planeta en trayectoria elíptica alrededor del Sol. A la derecha se muestra
el espacio recíproco o de momentos. El radio vector p (o para el caso la velocidad Vp), en general
variable en magnitud y dirección, describe una trayectoria circular alrededor del centro C en el espacio
recíproco o de momentos; el origen O de los vectores velocidad coincide con C solamente cuando la
trayectoria en el espacio de posiciones es circular, pero la curva que describe el vector variable p es
circular para la Luna, los planetas o los meteoritos.

En la trayectoria de la tierra alrededor del sol, parcialmente ilustrada en la figura I.6 a la


derecha, se muestra el vector velocidad en dos puntos diferentes, J y P. Estos vectores se han
trasladado, en la figura de la derecha, a un origen común. El hecho de que esos vectores
generen una circunferencia corresponde a una propiedad muy especial, bien conocida, de la
atracción gravitacional: disminuye con el inverso del cuadrado de la distancia y hay un centro
de fuerza, el sol en este caso.
Hay, como se dijo, otra fuerza que varían con el inverso del cuadrado de la distancia: es la de
interacción entre cargas. En principio, esa fuerza podría aprovecharse para guiar partículas
cargadas. La solución de ese tipo de problemas a menudo escapa a la mecánica newtoniana.
En efecto, aunque el mismo esquema de la figura I.5 valdría, en principio, para representar el
movimiento del electrón alrededor del protón, hay al menos dos graves problemas que vale la
pena mencionar desde ya : 1) en la teoría clásica, una carga acelerada (es el caso del electrón,
el cual tendría una aceleración centrípeta) radia, es decir, emite energía electromagnética (en
el esquema de la figura I.5 terminaría por caer al centro, donde está el núcleo, en una
trayectoria en espiral); 2) el principio de indeterminación ha prohibido establecer un esquema
tan determinista.
La figura I.7 muestra lo que podemos concluir de la solución del problema en el caso más
simple de simetría esférica: el electrón se ubica con alta probabilidad alrededor de un
cascarón esférico de radio medio 0.5 Å. Pero es imposible determinar su posición sin afectar
su cantidad de movimiento, por ende su energía, de tal suerte que debemos renunciar a
ubicarlo exactamente.

Figura I.7a. Nube electrónica alrededor del núcleo en el átomo de hidrógeno que muestra la
distribución de la probabilidad en la interpretación de Born de la función de onda.

F igura 1.7b. Posible secuencia de


observaciones de la posición del
electrón.
Se suele decir que el electrón está distribuido alrededor del protón con una probabilidad que
depende de la densidad, mas no es así. La nube electrónica en la región cercana a 0.51 Å da la
región de máxima probabilidad de ubicación del electrón en su estado o nivel más bajo de
energía. Se habla de distribución de la probabilidad, es decir, el electrón no ha dejado de ser
una masa puntual y así se manifiesta. Es lo que se intenta ilustrar en la figura I.7b: al electrón
lo encontraremos, cada vez que se observe de alguna manera, en una posición definida, no en
varias a la vez.
Hay otros detalles que no se han tenido en cuenta, pero que no surten mayor efecto en un
primer acercamiento al problema: por simplicidad, se han hecho algunas idealizaciones sobre
el protón. La más obvia, se le ha considerado como si fuera un punto fijo de cuyo movimiento
no hay que preocuparse. Una forma elegante de manejar esa simplificación exagerada es
resolver lo que desde la mecánica newtoniana se llama el problema de los dos cuerpos, pero
no se va a entrar aquí en los detalles del asunto: baste con decir que el problema se soluciona
describiendo el conjunto protón – electrón en el sistema del centro de masa. Otro detalle que
se ha pasado por alto es que el protón en realidad está formado por tres quarks; pero eso no
va a agregar nada a la descripción exacta del problema atómico. Acerquémonos a él desde
otro punto de vista.
Así como la posición y la cantidad de movimiento son el punto de partida para una descripción
dinámica del movimiento, las energías de posición (energía potencial) y de movimiento
(energía cinética) lo son para una descripción más sencilla de problemas como los que
venimos tratando, pues en la mayoría de ellos, tanto de la mecánica clásica como de la
cuántica, puede invocarse el principio de conservación de la energía. En el caso anterior, la
energía de posición está dada por una variable u observable U y la de movimiento por otra
que se suele denotar por T, mientras no dé lugar a confusión con el parámetro que mide la
temperatura del sistema. Escribámoslas para el caso del electrón, asumiendo que el protón,
por ser mucho más masivo, prácticamente no se mueve:
U = -ke2/r; T = ½mv2.
Estas expresiones, fácilmente aceptables para el movimiento planetario, hasta cierto punto
pierden significado bajo el nuevo esquema, pero siguen siendo representaciones útiles. Para
que la energía cinética o de movimiento tenga algún sentido, es preferible hablar de un valor
esperado (semejante al valor medio) y representarlo por <T>. Hay algo que no tiene duda
alguna: la suma de las dos cantidades nos da un observable, una cantidad medible más o
menos directamente; explícitamente, la energía total, E = U + T, como veremos, puede tomar
un conjunto de valores que son los aceptados (valores propios) en la nueva teoría, aunque
cada una de las partes no toma valores definidos. De hecho U y T representan operadores y su
suma, H = U + T, también. La relación matemática es relativamente sencilla; si cada uno de los
estados se representa por Ψn (en el esquema de Schrödinger), a cada uno de esos estados le
corresponde un valor de energía En, el punto de partida es la ecuación de valores propios

HΨn = EnΨn.

La lectura de la expresión anterior es todavía más sencilla: mediante el operador de energía H


obtenemos los posibles valores que puede tomar la energía E.
Este conjunto de ecuaciones en la presente y en situaciones similares se denominan estados
estacionarios. H = U + T se denomina “operador Hamiltoniano”. La gran hazaña del
formalismo cuántico es predecir los valores permitidos para E, denotados por En (n=1, 2, 3…),
con absoluta precisión, siempre y cuando el operador que representa la energía potencial lo
haga fielmente. No incomodaremos al lector escribiendo el operador que representa la
‘energía cinética’. La potencial sigue siendo una expresión común y corriente.
Hay otra variable dinámica de mucho interés a la que ya se ha hecho referencia: la acción. Su
definición, como se ha anticipado, es más abstracta, pero se intentará dar enseguida una vaga
noción. Así como la energía clásicamente resulta de la acción de una fuerza en el espacio, o
mejor, trabajo igual a fuerza por desplazamiento, siempre y cuando la fuerza vaya en la
dirección del desplazamiento y sea siempre de la misma intensidad, acción es cantidad de
movimiento por desplazamiento, A = ps, en condiciones equivalentes. Recuérdese que las
unidades de la acción son las de energía por tiempo; pero también son el producto de masa
por velocidad por longitud.
Oscilaciones y ondas
Las oscilaciones mecánicas (las hay también eléctricas) en un medio continuo dan lugar a
perturbaciones que se propagan en el medio: esas perturbaciones se llaman ondas mecánicas.
Es usual que un curso básico de física cuántica empiece hablando de ondas. Por esa sola
razón, esta sección es muy importante. Las ondas electromagnéticas se producen en el
laboratorio gracias a osciladores eléctricos, en realidad, oscilaciones en cavidades
(conductores) con los que se crean campos eléctricos y magnéticos, o más precisamente,
mediante cargas y corrientes que varían en forma sinusoidal (alterna, si lo prefiere),
generando campos electromagnéticos dentro de esas cavidades.

Figura I.8 a) Oscilador vertical. b) Oscilador horizontal. La


característica común es que la fuerza recuperadora es
proporcional a la deformación, lo cual es válido en primera
aproximación, vale decir, si la deformación es pequeña. En el
primer caso, el peso mg es compensado por una
deformación inicial; en el segundo, por la fuerza normal.
Hemos supuesto que las fuerzas de roce y de fricción con el
aire son pequeñas comparadas con la fuerza elástica debida
F = -KΔY
al resorte.
Empezaremos por oscilaciones mecánicas. Hay muchos tipos de osciladores, de los cuales el
más simple es el denominado oscilador armónico. Movimiento armónico simple es el que
ejecuta una masa atada a un resorte en condiciones ideales, después de desplazarlo
levemente de su posición de equilibrio. El péndulo simple es una aproximación a ese tipo de
movimiento, válida para pequeñas oscilaciones. El resorte, en condiciones ideales, ejerce una
fuerza de recuperación, dirigida hacia el punto de equilibrio, proporcional a la deformación, de
ahí el tipo de movimiento oscilatorio que resulta. Por el contrario, son anarmónicas las
oscilaciones provocadas por fuerzas no lineales (cuadráticas, por ejemplo).
Aunque el caso más sencillo de describir no es el que ilustra la figura I.8a, sí es el más fácil de
visualizar. Si se atara a la masa una punta con tinta y se apoyara suavemente sobre una hoja
de papel dispuesta en forma vertical que se desplaza horizontalmente (digamos que a lo largo
del eje Z) con velocidad constante mientras el resorte vertical ejecuta una oscilación, el
resultado ideal (sin tener en cuenta pérdidas de energía) sería el que ilustra la figura I.9, a
condición de que se leyera con el tiempo invertido, hacia atrás en el tiempo. Para una
representación física más adecuada, el eje horizontal debería multiplicarse por t/T, siendo T el
periodo de oscilación. Su inverso corresponde a la frecuencia de la onda. Proyectando la
sombra del movimiento circular uniforme de un objeto en las direcciones y o x, se obtienen
movimientos oscilatorios. A partir de allí es fácil describir cada una de las componentes del
movimiento en ambas direcciones.

Figura I.9. Representación


numérica de una sinusoide.
En el eje vertical se repre-
senta el ángulo en radianes. Si
la masa vertical empezara a
caer desde el punto de
equilibrio, la posición inicial
habría quedado registrada y
correspondería a la de la cinta
al cabo de un periodo,
correspondiente al ángulo 2Π.
Figura I.10. El movimiento circular uniforme se puede visualizar como la superposición de dos
movimientos armónicos simples, uno en dirección x¸ otro en dirección y, desfasados en π/2.

Una forma más sencilla para describir el movimiento oscilatorio periódico es descomponer el
movimiento circular uniforme, como ilustra la figura I.10. Para ello es conveniente introducir
el concepto de velocidad angular ω, de tal suerte que el ángulo barrido después de transcurrir
un cierto tiempo t es: Θ = ωt. Eso quiere decir, si el punto de partida del móvil fue B, que x = R
cos(ωt) y y = R sen(ωt).
A partir de movimientos oscilatorios periódicos se pueden generar ondas en diferentes medios
materiales. La clave está en transmitir esos movimientos oscilatorios de un punto a otro en ese
medio. La figura I.9 podría servir para representar una onda monocromática, la propagación de
una perturbación con una determinada frecuencia, una onda con una longitud de onda
específica. El ángulo 2Π correspondería a una posición λ si el eje horizontal en esa figura
representa la dirección de propagación de la onda, el eje Z, perpendicular al plano en la figura
I.10. O puede corresponder a T, un periodo completo (inverso de la frecuencia), si el eje
horizontal es el tiempo.
Longitud de onda

Intensidad

Figura I.11. Ilustración espacial de la intensidad de una onda matemática en una dimensión. (La
intensidad de la onda es proporcional al cuadrado de la amplitud, por ende siempre es una cantidad
positiva.)

En la figura I.11 se hace la representación matemática de la intensidad (cuadrado de la


amplitud para una función sinusoidal) de una onda monocromática (de un solo color, vale
decir, de frecuencia muy bien definida) que rigurosamente se extiende en las dos direcciones
hasta el infinito y que viaja en una de las dos direcciones, positiva o negativa, con velocidad c.
Se suele decir que una onda mecánica es una perturbación que se propaga en un medio
material con determinadas propiedades elásticas. Al contrario de lo que ocurre con una
partícula, a la que clásicamente le podemos asignar posición y velocidad entre otras
cantidades físicas, una onda generalmente no está localizada: es un fenómeno que, en
términos clásicos, lo asociamos con un continuum, un medio continuo, aunque bien sabemos
que ese medio, cualquiera que sea, está constituido por átomos o moléculas con separaciones
que dependen del estado y la composición específica del medio. La propagación de una onda
en una cuerda es un claro ejemplo en una dimensión: los puntos en la cuerda están
conectados de alguna manera; en el caso sencillo de una cuerda muy delgada, ésta puede
visualizarse como una cadena de átomos, aunque para ilustrar el fenómeno también serviría
cualquier cadena hecha de eslabones o las espiras entrelazadas que forman un largo resorte.
En dos dimensiones, una membrana elástica es el mejor ejemplo de medio portador, aunque
el más fácil de visualizar es la superficie del agua contenida dentro de un recipiente abierto de
gran superficie; una cubeta es la materialización práctica más sencilla en el laboratorio. En tres
dimensiones, un sólido cualquiera o una mezcla de gases como el aire pueden servir de medio
continuo.
Empecemos con la cuerda. Si una parte de ella se agita, desplazándola transversalmente, esa
agitación se comunica o transmite a otros puntos de la cuerda, precisamente por la conexión
que hay entre los diversos puntos que la conforman. La cuerda está hecha de un material
elástico que se puede someter a tensión por sus extremos; es lo que se hace con los
instrumentos musicales de cuerda.

Figura I.12. Ondas estacionarias en cuerdas, generadas mediante láminas o diapasones de diferentes
frecuencias. La velocidad de propagación de la onda está determinada por la densidad (masa por
unidad de longitud) de la cuerda y por la tensión a que está sometida. En la figura a) la cuerda está libre
por el extremo derecho.

Mediante un diapasón conectado a un extremo de una cuerda cuyo otro extremo puede estar
fijo a un peso que causa una cierta tensión, por medio de una polea, por ejemplo, pueden
generarse ondas. Acomodando tensiones y longitudes para diapasones de diferentes
frecuencias, es posible generar ondas estacionarias muy diversas, como las que se ilustran en
la figura I.12.
Ya que hablamos de diapasones, nótese que a menudo su vibración se acopla a una caja vacía
en su interior, buscando que se produzca un interesante fenómeno característico de las
oscilaciones y las ondas: la resonancia. Es lo que ocurre, por ejemplo, con las vibraciones de
los instrumentos de cuerda frotada, entre los que destaca el violín, o algunos de percusión
como el tambor. En los instrumentos metálicos, de viento o de percusión, el acople es más
complejo.
Los medios materiales en que se propagan las ondas mecánicas pueden ser sólidos, líquidos,
gaseosos o plasmas, cuatro estados de la materia. (Algunos se refieren al condensado de Bose-
Einstein como un quinto estado.) Decimos que una onda se propaga, y mecánicamente
imaginamos que es la perturbación o agitación lo que se transmite, a una cierta velocidad
característica. Ésta depende, en primera instancia, del medio en que se propaga la
perturbación, de la tensión a que está sometida la cuerda, por ejemplo, y de su densidad
(composición y grosor).
Es fácil observar la propagación de ondas en un trozo de gelatina: distintas texturas dan
diferente velocidad de propagación. A lo largo de un tronco de madera suficientemente
extenso puede percibirse la propagación de una onda sonora con una velocidad mayor que en
el aire. Se esperaría que es más ilustrativo hacer el experimento con una varilla metálica:
dando un golpe en un extremo se transmite rápidamente una señal sonora al otro extremo. La
velocidad de propagación es demasiado rápida para ser observada a simple vista.
Un largo tubo vacío con superficie de vidrio, preferiblemente de sección circular, nos permite
propagar ondas sonoras a través del aire en una dirección muy precisa. Podría ponerse a
vibrar un diapasón colocado en un extremo del tubo y percibir las ondas en el extremo
opuesto, si la longitud del tubo fuera apropiada: son de la misma frecuencia, más intensas que
cuando simplemente viajan en el aire debido a un interesante fenómeno llamado resonancia.
Esas son ondas longitudinales: a diferencia de la cuerda, en la cual las oscilaciones de las
partículas son transversales, las oscilaciones de cada una de las capas de aire se hace en la
misma dirección en que avanza la onda sonora. Véase la figura I.13. Nótese que estamos
hablando ya de vibraciones de un oscilador. Los átomos solían visualizarse clásicamente como
osciladores. Véase el capítulo quinto.

Figura I.13. Ondas longitudinales que se propagan a lo largo de una columna de aire en un tubo con
superficie de vidrio, para localizarlas mejor y evitar su disipación. El diagramador dibujó algunas
partículas de aire demasiado grandes, lo que facilita imaginar lo que ocurre en otras circunstancias. Las
ondas sonoras se generan mediante las vibraciones de un diapasón de la frecuencia que se desee.

Pero también es posible observar ondas de torsión, como las que se muestran en la figura
I.14. Para visualizar mejor lo que ocurre, imagine que se anclan a una varilla metálica
transversalmente trocitos rectos de alambre grueso. La torsión de una sección transversal de
la varilla se transmite a cada una de las secciones sucesivas: es fácil ver a qué velocidad avanza
esa perturbación observando el movimiento torsional de los trozos de alambre, aunque por
supuesto ellos van a afectar la velocidad de propagación, dado que modifican drásticamente
la dinámica de cada sección de la cuerda.

Figura I.14. Ondas de torsión. Son fáciles de visualizar en una barra metálica.

Hay muchos experimentos sencillos que pueden hacerse con ondas. Igualmente se encuentran
muchos cursos con autocontenido en la red.
Las ondas sonoras que se producen en los instrumentos de cuerda o de viento se acoplan
invariablemente a otro medio para propagarse y llegar al receptor: el aire es el medio de
propagación, por excelencia; en él se forman generalmente ondas esféricas, cuya intensidad
decae con el cuadrado de la distancia, un fenómeno típico de conservación de energía,
acompañado en mayor o menor grado de un fenómeno de origen diferente, en el que
igualmente decae la señal: la disipación. La disipación está ligada a otro interesante tema: lo
que ocurre realmente en el interior de cada una de las partes de materia, los átomos y
moléculas; ellos responden más frecuentemente y dan lugar, entre otras, a un tipo de ondas
de trascendental importancia: la denominada radiación electromagnética, a discutir en el
siguiente apéndice. Por simplicidad se puede imaginar que las ondas electromagnéticas en los
átomos, la luz que emiten, son como la que ilustra la figura I.15, en la cual se indica que a gran
distancia esa onda esférica se vuelve plana. Ocasionalmente el modelo funciona.

Figura I.15. Onda esférica (o circular) que se vuelve plana a gran distancia.

Cuando se concluyó que la luz es un fenómeno ondulatorio, se encontró lo que ‘suponemos


obvio’: la luz se propaga más rápidamente en el aire que en el vidrio u otro medio material
cualquiera; es más fácil correr contra el aire que nadar contra el agua. Pero, ¿por qué habría
de ser ‘obvio’, si acabamos de decir lo contrario sobre las ondas sonoras? A mayor densidad
del medio, la velocidad de una onda mecánica como el sonido aumenta. La respuesta es sutil:
las ondas de luz son un tipo muy particular de ondas. Para empezar, observe que pueden
propagarse sin necesidad de medio material alguno: al menos eso ocurre en los espacios
intergalácticos donde la densidad de materia es extremadamente baja. Por el contrario, las
ondas sonoras no pueden propagarse en el vacío. Dicho en otras palabras, la luz no es el tipo
de onda mecánicamente producida que acabamos de discutir. O mejor: El señor es sutil
(Subtle is the Lord, reseña sobre Einstein escrita por Ronald W. Clark.).Volveremos a este
asunto más adelante, no sin antes mencionar que para resolver el problema en el pasado se
supuso que había un medio extraño, imponderable, al que denominaron éter, hoy en día
desechado por la física ortodoxa.
La noción de onda es menos intuitiva que la de partícula; en las ondas mecánicas hay una
característica común: las oscilaciones, las cuales se transmiten de uno a otro punto gracias a la
elasticidad del medio. Se verá que hay complicaciones aún mayores, y diferencias radicales en
su comportamiento, si se le compara con el de partículas. La más importante, para los
fenómenos que aquí se van a considerar, es el siguiente: las ondas exhiben un fenómeno
peculiar, el de superposición o interferencia, ausente por completo en las partículas clásicas,
sean ellas balas de cañón, diminutos proyectiles o, mejor aún, cuerpos tan gigantes como una
galaxia (que también son partículas desde un punto de vista cosmológico).
Clásicamente, al menos en lo que se refiere a las ondas mecánicas (la luz, como se dijo, es
caso aparte), una onda simple resulta de un fenómeno oscilatorio. En la figura I.13, cuando se
pone a vibrar un diapasón y se le ata al extremo de una cuerda (figura I.12), preferiblemente
liviana, se pueden percibir dos ondas: la sonora, que se propaga en el aire, con la frecuencia
característica del diapasón y la velocidad propia del sonido en el aire a la temperatura a que se
encuentre, y una onda a lo largo de la cuerda; ésta última viajará con una velocidad que
depende de la tensión a que esté sometida la cuerda y de su densidad (masa por unidad de
longitud). Intuitivamente puede entenderse que a mayor tensión y menor densidad (mayor
aceleración y menor inercia), la velocidad de propagación sea mayor. Bajo ciertas condiciones,
en la cuerda se forma una onda estacionaria. Es como si partes de la cuerda, separadas por
medias longitudes de onda, vibraran al unísono; de hecho, así es. Consideremos un caso más
sencillo.

Figura I.16. Ondas estacionarias en una cuerda fija por sus dos extremos. En el primer caso, L = ½ λ; en
el segundo, L = ; en el tercero, L = (3/2) λ; para el cuarto, L = 2.

Sujétese una cuerda liviana (de baja densidad) por dos extremos, tensionándola, no muy
fuertemente para que se pueda observar mejor y para que no se rompa. Al presionar
transversalmente por el centro de la cuerda y liberarla repentinamente, la cuerda va a oscilar:
todos los puntos de la cuerda irán de abajo hacia arriba durante medio ciclo y de arriba hacia
abajo en el medio ciclo siguiente. Obsérvese que la cuerda tiene media longitud de onda, L = ½
λ. Ahora presiónese en sentidos opuestos a (1/4)L y (3/4)L, buscando que el centro
permanezca estático: se observa que, mientras la mitad de los puntos de la cuerda se mueven
en una dirección, los de la otra mitad se mueven en dirección contraria. Se ha logrado formar
una onda estacionaria con una longitud de onda λ igual a la longitud de la cuerda. (Véase la
figura I.16.)
Sin necesidad de hacer la demostración matemática, conviene advertir que la onda en el caso
anterior es una superposición de dos ondas: una que viaja hacia la derecha y otra
exactamente igual en amplitud y frecuencia que viaja hacia la izquierda. La amplitud de la
onda resultante es el doble de la de cada una de sus componentes, un efecto lineal fácil de
visualizar; la intensidad va a ser el cuádruplo. El fenómeno se denomina superposición de
ondas, y vale para todo tipo de ondas que se propaguen en medios lineales. Ya se dijo que la
superposición va a ser de gran importancia en la descripción de los fenómenos cuánticos.
De manera similar a la superposición de ondas, en el fondo lo mismo pero de manera más
general, funciona el fenómeno conocido como interferencia de ondas. Para ilustrarlo, es mejor
recurrir a ondas bidimensionales más extensas que las ondas en una cuerda (éstas, al igual
que las ondas sonoras en un tubo, son un tipo muy particular de ondas en una dimensión). Las
ondas en el agua son convenientes para visualizar lo sustancial en el experimento propuesto.

Las figura I.18 y I.19 ilustran el fenómeno de interferencia en el caso de la luz, para el llamado
experimento de interferencia a través de dos ranuras. En la I.20 se ilustra esquemáticamente
cómo se suman.

Figura I.17. Patrón de interferencia de ondas. El primer caso representa una situación idealizada,
ilustrada originalmente por Huygens (principio de Huygens), para las ondas de luz, considerando cada
punto en el frente de ondas como una nueva fuente de luz; el segundo, es una fotografía de ondas en el
agua durante un experimento real (laboratorio del PSSC, Physical Sciences Study Committee, 1964).

Si se pulsa, ojalá armónicamente, la superficie del agua, se forman ondas concéntricas o


circulares. Piénsese en pulsar en fase dos corchos mediante un motor. Se formarán dos ondas
con frentes circulares que interfieren. Con algunas precauciones y trucos, puede observarse
que en algunas partes interfieren constructivamente y en otras lo hacen destructivamente.
Figura I.18. a) Patrón de interferencia de dos ranuras. b) Las ondas de luz que llegan a un punto C sobre
la pantalla pudieron viajar por los dos caminos posibles, la trayectoria A o la trayectoria B. La diferencia
en recorrido entre los dos caminos es AC – BC.

El fenómeno de interferencia de dos fuentes o a través de dos ranuras se ilustra


esquemáticamente en las figuras I.17 a I.20. , en la I.17a, para una situación idealizada, a partir
de un dibujo hecho por Huygens para explicar el fenómeno, en la I.17b para un caso real: dos
puntas que se hacen oscilar vertical y sincrónicamente, perturbando la superficie del agua.
Otra forma de hacerlo, para garantizar que las dos fuentes estén en fase, consiste en utilizar
una barra o rodillo para producir ondas planas en la cubeta de ondas. El frente de ondas
planas avanza; más adelante, se puede colocar un obstáculo con dos ranuras, dando lugar a
dos frentes de onda en fase. Esto es lo que se ilustra en las figuras I.18 a I.20, pero con ondas
de luz. Éstas son más interesantes que las de agua, utilizadas en estas notas sobre todo por la
facilidad para materializarlas y por la riqueza conceptual que encierran. La figura ilustra,
además, una representación del cambio semi-cuantitativo de la intensidad en las distintas
franjas.
Se pueden apreciar en esta última figura dos fenómenos muy similares, estrechamente
relacionados: interferencia y difracción. La difracción es una especie de interferencia
generalizada, aunque no es fácil explicarlo en pocas palabras. Para simplificar, digamos por
ahora simplemente que la difracción es la propiedad de expandirse o ensancharse que tiene la
onda. Eso le permite “doblar” esquinas.
Agustín Fresnel y Thomas Young, independientemente, hicieron experimentos que
confirmaron plenamente el carácter ondulatorio de la luz, de los rayos de luz. Fresnel, un
ingeniero de caminos, elaboró además una teoría matemática bastante compleja.
Figura I.19. Ondas de luz esféricas que dan lugar a dos frentes de ondas mediante dos agujeros o dos
rendijas verticales formando un patrón de interferencia, con franjas alternas brillantes y oscuras. La
figura inferior ilustra la variación de la intensidad, proporcional al cuadrado de la amplitud de la onda
en cada punto.

Se volverá a las ondas de luz en el Apéndice II y a lo largo del texto. Por ahora, para terminar
nuestra introducción a las ondas mecánicas, agreguemos que la perturbación que se propague
puede ser en principio de cualquier forma, en general, una superposición de muchísimas
perturbaciones periódicas armónicas.
Figura I.20. Superposición de dos ondas en fase (derecha) y en antifase (izquierda). Que la interferencia
sea constructiva o destructiva depende de la diferencia de caminos en la figura I.18 b. Si la diferencia en
el recorrido de las dos ondas es un número entero de longitudes de onda, la interferencia es
constructiva y las dos ondas se refuerzan. En caso contrario, número semi-entero de longitudes de
onda, es de aniquilación y las dos ondas se cancelan. Dependiendo del resultado, aparecen franjas
brillantes u obscuras en las figuras I.18 y I.19.
II. ELECTRODINÁMICA
Maxwell dijo: ¡hágase la luz!

En este apéndice abordaremos la tarea de describir cualitativa y unificadamente los


fenómenos electromagnéticos y deducir la óptica física a partir del electromagnetismo, la
descomunal obra de Maxwell.
Al igual que la química, la termodinámica surgió primero como una ciencia empírica. Después
de la mecánica, el siguiente gran capítulo formal de la física, pieza magistral de la ciencia
matemático-experimental, es la electrodinámica (ED). Los fenómenos electromagnéticos son
más difíciles de describir en pocas palabras y en términos sencillos que los puramente
mecánicos. En últimas sus ingredientes masivos, para no llamarlos materiales, son las
partículas cargadas eléctricamente; en movimiento, tales partículas dan lugar a corrientes
eléctricas. Las cargas, por sí solas, dan lugar a campos eléctricos; en movimiento, generan
también campos magnéticos. Los ingredientes no masivos, no por eso inmateriales, son los
campos eléctrico y magnético. Lo más grandioso de la noción de campo es esto: ¡un campo
magnético cambiante en el tiempo genera un campo eléctrico; un campo eléctrico cambiante
en el tiempo genera uno magnético! Pero los campos generados son también cambiantes, por
lo que el proceso de autogeneración continúa indefinidamente... y se propaga en el espacio:
eso son las ondas electromagnéticas… parte de ellas es la luz visible, tan importante para el
homo sapiens y para otras especies, prácticamente todas las vivas.
Los fenómenos eléctricos y magnéticos inicialmente se atribuían a flujos eléctricos y
magnéticos. Así ocurrió también con el calor (flujo calórico) y hasta con la vida (flujo vital y
otros efluvios y humores). La idea de describir la interacción entre cargas y corrientes en
términos de campo se atribuye a Faraday. Esa idea fue muy afortunada; en definitiva, rebasó
ampliamente la fenomenología que en su tiempo abarcaban estos fenómenos. Lo que empezó
siendo una descripción gráfica de las fuerzas entre cargas y corrientes, un artificio
matemático, se volvió un ente material, el campo electromagnético, con energía y
momentum. Veamos.
En principio, la importancia de los campos radica en la posibilidad de describir
matemáticamente la fuerza que experimenta un objeto que posee carga q y tiene masa m, por
ende describir su trayectoria recurriendo a la segunda ley de Newton F = ma; la expresión
correspondiente se denomina fuerza de Lorentz:

F = q (E + vB).
En palabras, una carga (supuestamente puntual) que se mueve con velocidad v experimenta
una fuerza total que es la suma de dos términos: uno que depende solo del campo eléctrico,
otro que depende del campo magnético y del vector velocidad, en la forma que establece el
denominado producto vectorial. Resulta así fácil visualizar una descripción, en términos de
campos, de la fuerza que una carga puntual puede hacer sobre otra colocada a cierta distancia
y de la fuerza que un pequeño imán o un circuito de corriente puede hacer sobre otro imán u
otro circuito diminuto cercano, o simplemente sobre una carga en movimiento; en el primer
caso, se hablará de un campo eléctrico; en el segundo, de un campo magnético.
El lector ya estará acostumbrado a la descripción de interacciones en términos de campo:
basta con que regrese a la figura I.5. Allí se ilustra el campo gravitacional en el exterior
producido por la Tierra, una tierra esférica con densidad uniforme. Podríamos escribir: F = mg
(muy similar en su forma a qE). Pero debe tenerse cuidado: la magnitud de g, escribámosla
|g| o simplemente g, ya no es constante. Rigurosamente estaría dada por la relación: g =
GM/r2, siendo M para el caso la masa de la Tierra y r la distancia del objeto de masa m al
centro de la Tierra, o mejor, la distancia entre los centros de masa de los dos objetos que
interactúan gravitacionalmente, a condición de que los dos sean de forma esférica.
Los campos fueron tomando una realidad física a medida que el concepto se aprovechó para
avances conceptuales. El paso decisivo lo dio Einstein y está bosquejado en el manual que
escribiera con Infeld. Para los lectores menos experimentados en este tema, se hace aquí una
breve descripción gráfica de los campos en circunstancias muy sencillas, pero se les
recomienda bajar de nuestra página (o de algún otro lugar) el manual de Einstein e Infeld y
degustarlo en su capítulo tercero: Campo y relatividad. (La versión en español parece estar
agotada.)

Figura II.1. Campos eléctricos de cargas puntuales: a) positiva; b) negativa.

Figura II.2. Dipolos a) eléctrico y b) magnético.


Una carga eléctrica neta se denomina técnicamente monopolo eléctrico. No existe monopolo
magnético, o mejor, no ha podido determinarse su existencia. Históricamente, el estudio del
campo magnético se hizo con imanes (Fig. II.3), lo que oscureció el concepto mismo,
particularmente con la introducción de polos magnéticos.

Figura II.3. Campo magnético producido por un imán. La aguja o brújula se orienta en la dirección de las
líneas de campo.

Figura II.4. Un solenoide por el que se hace circular una corriente estacionaria (constante, denominada
también corriente directa, c.d.) por medio de una pila o batería o cualquier otro tipo de fuente de c.d. A
la derecha se ilustran las líneas de campo, resultado de la superposición de varias espiras como la de la
figura II.2b.

Aunque la situación es realmente más compleja, un imán produce un campo magnético


similar al de un conjunto de espiras circulares, como se ilustra en las figuras II.4; basta que se
compare con la figura II.3b; en la II.3ª se ilustra el efecto del campo resultante sobre un imán
diminuto; la figura sugiere la orientación del pequeño imán (imagíneselo a nivel atómico, una
molécula de magnetita, si lo prefiere), el cual de paso puede utilizarse para detectar el campo
magnético.
Se suele introducir el término momento de dipolo, eléctrico o magnético según el caso, para
caracterizar una propiedad intrínseca del dipolo mismo. A nivel atómico, el dipolo eléctrico se
visualiza como una deformación del átomo o molécula en la cual el núcleo no está en el centro
de la nube electrónica. Una imagen sencilla del dipolo magnético del átomo la suministra el
modelo de Bohr, aunque no debe tomarse literalmente: el electrón orbitando alrededor del
núcleo produce una corriente eléctrica, la cual a su vez produce un campo magnético similar al
de la espira de la figura II.2b. Pero se puede reemplazar el electrón por una esfera
macroscópica pequeña girando en círculo: regresamos, pues, de lo micro a lo macro, en
contravía de la historia. La materialización de este último sistema la logró Rowland a fines del
siglo XIX, a partir de los experimentos de Ørsted; de ahí se obtuvo un resultado de gran
importancia, al que volveremos en la siguiente sección.
El momento de dipolo magnético, o momento magnético, por brevedad, es más importante,
porque es proporcional al momento angular. Hablando de cargas y agujas magnéticas, los
casos descritos en las cuatro situaciones anteriores son los sistemas más sencillos que cabe
imaginar. Los polos vienen en parejas complementarias. Pero no se olvide que no hay
monopolo magnético; el polo norte y el polo sur resultaron ser una ficción: lo que hay es una
circulación de corriente, como se muestra en la figura II.2b.

Figura II.5 Experimento de Rowland. Una carga eléctrica girando en círculo produce un campo
magnético. El campo magnético es similar al de la espira, pero rigurosamente hablando es un campo
dependiente del tiempo. O mejor, para adelantarnos a la discusión de la sección 4.9, la carga se ve
como un campo eléctrico variando en el tiempo que a su vez genera un campo magnético. Ese campo
magnético se manifiesta desviando la aguja o brújula colocada en el centro.
Figura II.6. a) Campo eléctrico de dos cargas del mismo signo; b) campos magnéticos cuando dos imanes
se acercan, con diferente o la misma polaridad, término ambiguo que dio lugar a equívocos.

Otro caso sencillo lo constituyen líneas rectas muy extensas de carga y de corriente, alambres
infinitos si se quiere idealizar aún más, vale decir, cuando la longitud de los segmentos rectos
considerados es muy grande comparada con la distancia a la cual se quiere examinar el
campo. Para visualizarlos más fácilmente, considérense solo las secciones transversales de
esos segmentos o líneas; es como si se estuvieran observando puntos, siempre y cuando el
grosor de los segmentos sea suficientemente delgado. De nuevo las líneas del campo eléctrico
del alambre cargado positivamente (representado a la izquierda) divergen en dirección
perpendicular a la línea (recuerde que ya no se trata de un punto); en cambio las del campo
magnético del alambre de corriente en dirección hacia el lector son circulares, se cierran
sobre sí mismas. Esto se ilustra en la figura II.7. Si se observan con atención, se verá que las
del imán también se cierran sobre sí mismas (la que va sobre el eje se cerrará en el infinito).
Quizá el lector haya oído hablar de condensadores cilíndricos y de cables coaxiales. En uno y
otro se encierra el campo (eléctrico o magnético, respectivamente) entre dos cilindros
concéntricos. Las líneas de campo siguen la misma orientación que tienen en la figura II.7.
Por analogía con los fluidos, las líneas de campo dan lugar a un flujo a través de una sección
superficial. En ocasiones, es conveniente pensar en el flujo a través de una superficie cerrada.
A diferencia de los flujos de campo, en los fluidos mecánicos (líquidos o gases) esta situación
no es tan interesante, porque el flujo hacia dentro es invariablemente el mismo que el flujo
hacia fuera: las líneas de flujo son en principio cerradas. En el caso del campo eléctrico, en
cambio, éste puede dar lugar a un flujo neto (es el caso usual cuando hay una carga dentro), lo
que no ocurrirá con el campo magnético, precisamente porque sus líneas de campo son
cerradas.
Figura II.7. Sección transversal de los campos de líneas de carga y de corriente. a) Campo eléctrico de
una línea recta cargada; b) campo magnético de una línea de corriente, segmento recto muy extenso,
en dirección entrante a la hoja.

Por último, considérense dos placas paralelas muy extensas (representadas por planos
paralelos), y visualícese un corte transversal. Discutiremos brevemente dos situaciones
interesantes en que pueden producirse campos eléctrico o magnético muy aproximadamente
uniformes. En el primer caso, se trata de placas cargadas, la de la derecha con carga positiva,
la de la izquierda con carga negativa: es lo que suele denominarse un condensador de placas
planas, un dispositivo muy usual en diversos acumuladores y en múltiples circuitos eléctricos o
electrónicos.

Figura II.8. Campos producidos por placas paralelas ilimitadas. Se muestra solo una región de las placas.
a) Campo de placas cargadas con cargas iguales y opuestas. b) Campo magnético producido por un par
de placas que transportan corriente en direcciones opuestas.

El segundo caso es menos realista (poco frecuente) y representa igualmente dos láminas muy
extensas que llevan corriente, la inferior en la dirección que se aleja del lector y la superior
acercándose hacia él. A diferencia de las líneas de campo eléctrico, que empiezan y terminan
en las placas, las de campo magnético se cierran sobre sí mismas en el infinito, para el caso
ideal considerado, por fuera de las placas en el caso real de placas finitas. Las líneas de campo
se ilustran en la figura II.8. En ambos casos, debería tenerse en cuenta la deformación que
tiene lugar en los extremos de las placas, para satisfacer algunas propiedades de los campos
que no discutiremos en esta breve síntesis.
Hasta aquí se han hecho suposiciones muy fuertes, no solamente en cuanto a la geometría de
los objetos: se ha supuesto, por ejemplo, que las cargas o las corrientes han estado ahí desde
siempre. En un caso práctico, de la vida diaria, la fuente de carga sobre las placas del
condensador podría ser una fuente de voltaje alterno; lo mismo puede pensarse con la de
campo magnético en el lado derecho: corriente alterna que durante medio ciclo va hacia la
derecha por la placa inferior, hacia la izquierda en la superior, para luego hacerlo a la inversa.
El resultado para el primer caso se esquematiza en la figura II.9; no hemos dibujado las líneas
de campo magnético inducido: ellas son líneas circulares, siempre perpendiculares al campo
eléctrico, con centro en el centro de simetría de la figura, similares a las de la corriente de un
alambre muy largo, como el de la figura II.7b. De hecho, es como si la corriente hubiera
continuado dentro del condensador en la dirección de las líneas de campo eléctrico, en
sentido positivo si el campo eléctrico está aumentando, en sentido opuesto si está
disminuyendo con el transcurso del tiempo. Para el segundo caso (placas que llevan corriente,
alternando su sentido), surge un campo eléctrico inducido cuyas líneas de campo son
nuevamente perpendiculares, esta vez a las líneas del campo magnético que está oscilando en
el tiempo. Debe quedar claro que esos campos inducidos no tienen origen en cargas o
corrientes eléctricas: su origen es la variación en el tiempo de su contraparte, eléctrica o
magnética. A esos campos inducidos, no producidos por cargas o por corrientes eléctricas,
volveremos en breve.
4.9 Campos y ondas electromagnéticas
Esta última sección está destinada a examinar lo que ocurre cuando cargas y corrientes
cambian con el tiempo. Es lo que se conoce con el nombre de electrodinámica.
La historia de la electricidad y el magnetismo es muy rica e ilustrativa. No nos detendremos en
ella, por estar fuera del propósito de estas notas. Pero vale la pena rescatar los fenómenos
fundamentales que encierra y que pasaron desapercibidos durante muchos siglos. Uno de
ellos es el resultado del experimento de Rowland ya mencionado. Nos limitaremos a destacar
el hecho subrayado por Einstein e Infeld, a saber: del movimiento en trayectoria circular de la
carga surge un campo eléctrico variable en el tiempo que produce un campo magnético. Pero
lo contrario también ocurre: si se dispone de un campo magnético variable en el tiempo,
seguramente debe surgir un campo eléctrico. Históricamente las cosas ocurrieron a la inversa:
Faraday descubrió la ley que lleva su nombre, según la cual un imán o cualquier otra fuente de
campo magnético en movimiento puede generar, bajo condiciones adecuadas, una corriente
eléctrica, por ende, un campo eléctrico, responsable este último de la corriente generada. El
experimento más elemental seguramente es conocido por el lector: al acercar un imán a un
circuito como el que ilustra la figura II.9, no alimentado por ninguna fuente o batería, surge
una corriente en cierta dirección la cual se puede detectar mediante un galvanómetro; por el
contrario, al alejar el imán, aparece una corriente en dirección contraria. La dirección de la
corriente inducida sigue una regla denominada Ley de Lenz: el campo magnético producido
por esa corriente tiende a compensar la variación del campo magnético (en realidad del flujo,
pero ese concepto no lo hemos introducido).

Figura II.9 Inducción electromagnética. Al acercar un imán a un circuito (bobina) como el de la figura, se
genera una corriente en cierta dirección; al alejarlo, la corriente va en dirección contraria: es una
corriente inducida. Mientras no haya movimiento relativo entre el imán y la bobina, no habrá corriente
inducida. (Imagen tomada de http://www.rena.edu.ve/TerceraEtapa/Fisica/CorrientesInducidas.html)
La imagen inferior muestra con mayor detalle lo que se suele hacer en la práctica, utilizando un
solenoide.

Después de muchos experimentos similares, en los que Faraday acercaba el circuito al imán,
utilizaba un solenoide como el de la figura II.4, hacía variar la corriente que producía un campo
magnético, etcétera, llegó a la conclusión que resume su más importante contribución al
campo: cuando un campo magnético varía en el tiempo de alguna manera, da lugar a un
campo eléctrico inducido.
Figura II.10. Una fuente de corriente alterna produce entre las placas paralelas un campo oscilante. Ese
campo eléctrico variando en el tiempo, al igual que ocurre en el experimento de Rowland, produce un
campo magnético. No se ilustran las líneas de campo magnético, pero se puede entender fácilmente
que ellas son líneas circulares, siempre perpendiculares al campo eléctrico, con centro en el centro de
simetría de la figura, similares a las de la corriente de un alambre muy largo, como el de la figura 2.27b,
oscilantes para el caso. Obsérvese que alrededor de los segmentos rectos que llevan la carga (corriente)
de la fuente a las placas hay también líneas de campo cerradas, aproximadamente circulares cerca de
cada segmento.

A partir de las observaciones que siguieron al efecto descubierto por Faraday y en sus
esfuerzos por sintetizar las leyes del electromagnetismo, Maxwell se preguntó si un efecto
similar se observaría por variación de campos eléctricos. Su procedimiento experimental para
verificar su hipótesis se bosqueja en la figura II.10.
La predicción exacta de la forma en que varían espacial y temporalmente los campos eléctrico
y magnético en diversas geometrías bajo ciertas circunstancias y condiciones, su relación con
las cargas y las corrientes que los producen, la generación de nuevas corrientes y por ende la
nueva distribución de esas cargas dando lugar a nuevas formas de los campos, constituyen el
gran triunfo de la electrodinámica, como se conoce la teoría que sintetiza la descripción de
todos estos fenómenos electromagnéticos. Su enunciado son cuatro ecuaciones que llevan el
nombre de Maxwell, quien con su gran ingenio logró tan brillante síntesis. Combinándolas,
surge la maravillosa predicción a que hemos hecho referencia: los campos electromagnéticos
se propagan en el vacío a una velocidad que es precisamente la velocidad de la luz.
En palabras, se puede dar una somera idea de las consecuencias de aquella síntesis,
ejemplificada en lo que hemos dicho e ilustrado desde la sección anterior: 1) una forma de
generar campos eléctricos es mediante cargas; ellos obedecen a la ley del inverso del
cuadrado de la distancia en la forma que indica la ley de Coulomb; las líneas de campo se
originan en cargas positivas o parecen provenir del infinito; y se sumen en cargas negativas o
parecen proseguir al infinito; 2) otra forma de generar campos eléctricos es mediante campos
magnéticos que varían en el tiempo, bien sea moviendo imanes o mediante corrientes
alternas; las líneas de campo eléctrico así generadas son cerradas (a diferencia de las del
primer punto), lo que puede dar lugar a corrientes inducidas, si se colocan conductores allí
donde surgen esos campos; 3) a su vez, los campos magnéticos son producidos, en primera
instancia, por corrientes, es decir, cargas en movimiento; las líneas de campo magnético son
siempre cerradas; 4) pero al igual que los campos eléctricos inducidos mediante campos
magnéticos que varían en el tiempo, los campos eléctricos que varían en el tiempo dan lugar a
campos magnéticos inducidos.
A diferencia de los campos eléctricos inducidos, dando lugar a las corrientes inducidas que a
nivel experimental estudió tempranamente Faraday, los campos magnéticos inducidos por
campos eléctricos variables en el tiempo fueron predichos por Maxwell teóricamente y luego
verificados experimentalmente por él mismo y posteriormente por Rowland. Ése fue quizá el
mayor mérito experiimental del primero; fue, de paso, lo que le condujo a la unificación del
electromagnetismo y de la óptica, dos campos hasta entonces totalmente separados. Fue así
como apareció una constante fundamental que ha trascendido todos los campos: la velocidad
de la luz. Formado en la escuela newtoniana, Maxwell no tuvo más remedio que apelar a un
medio físico ya previsto por otros, el éter luminífero, para dar cabida a su constante: sus
ondas, incluida la luz visible, se moverían a velocidad c en ese tenue medio material; en
cualquier otro sistema, por ejemplo la Tierra, la cual para entonces era bien sabido que se
mueve alrededor del Sol, esas ondas se moverían con otra velocidad, resultado de la adición
de velocidades de la mecánica galileana y newtoniana; las ondas de luz y la Tierra misma se
moverían también en ese medio, el omnipresente éter. Las contradicciones no tardaron en
presentarse, pero aquí no se hará más que una mención circunstancial a esos problemas,
resultado del experimento negativo de Michelson y Morley.
Volvamos a los campos, campos en el vacío, para mayor facilidad. Cada vez que un campo
eléctrico cambia produce un campo magnético igualmente variable, el cual a su vez va a
generar un campo eléctrico cuya variación provocará un campo magnético y así
sucesivamente: esa es la razón para que se produzcan las ondas electromagnéticas: campos
entrelazados que se propagan, aún en el vacío, o mejor, sobre todo en el vacío, haciendo que
nos llegue valiosa información del interior de las estrellas, del confín del Universo. En la
materia, esos campos producen efectos sobre las cargas que hay en sus ingredientes
fundamentales y se generan nuevos campos que se superponen con los iniciales. Los campos
resultantes satisfacen las ecuaciones de Maxwell, cuya elegante formulación matemática el
lector puede consultar en los textos (por ejemplo en la sencilla presentación que de ellas hace
Sagan en El mundo y sus demonios, capítulo 23) y de cuya aplicación cotidiana está inundado
el mundo de las comunicaciones.
No valdría la pena el esfuerzo anterior hacia la visualización de los campos electromagnéticos
para lo que nos incumbe, el mundo microscópico, si no tuviéramos en cuenta la producción de
esos campos en el interior mismo de la materia, en los átomos y, por qué no, en los núcleos.
Ilustrémoslo con un ejemplo dinámico de singular trascendencia para el universo cuántico.
Surgirán de paso nuevas contradicciones del enfoque mecanicista de la física.
Figura II.11. Propagación de una onda electromagnética plana. Obsérvese que los tres vectores, a saber,
E, B y c, son perpendiculares entre sí. Se dice que esta onda tiene polarización lineal en dirección y.

Recuérdese que un movimiento circular, en un plano XY, puede verse como la suma o
superposición de dos movimientos oscilatorios, uno en dirección x, el otro en dirección y. En la
imagen clásica del átomo más sencillo, el de hidrógeno, el electrón estaría revoloteando
alrededor del protón, en un movimiento circular. Visto de canto, desde el eje Y o desde el eje
X, es como si el electrón estuviera oscilando, a lo largo de X o de Y respectivamente, con una
amplitud A igual al radio de la supuesta órbita. En esas condiciones, se tiene un dipolo
eléctrico que oscila, dando lugar así a ondas electromagnéticas.
Si los físicos hubieran adivinado más temprano que las corrientes son cargas eléctricas
(elementales) en movimiento y que el magnetismo es producido por el movimiento de esas
cargas, habrían podido dar un soporte fundamental a la hipótesis atómica. Fue el haber
pasado por alto esta hipótesis lo que hizo que llegaran la mayoría de los físicos más
prominentes del siglo XIX a los albores del siglo XX menospreciando la hipótesis atómica.
Seguramente esta reflexión sirva para elevar aún más la imagen del joven Einstein. De sus
cinco históricas contribuciones, publicadas todas ellas, a excepción de su tesis doctoral, en
1905, la que llamó más la atención inicialmente fue la que se refiere al tamaño de los átomos
y a su movimiento browniano. Pero volvamos a una imagen más reciente, a saber, la del
electrón circulando como se ilustra en la figura, una imagen prevista por el modelo de
Rutherford del átomo.
En términos clásicos, se diría que el electrón está radiando, generando campos que se
propagan, lo cual significa que estaría perdiendo energía. En condiciones estacionarias el
electrón no radia, lo que llevó a descartar el modelo de Rutherford. Que eso no sea lo que se
observe significa, de paso, el colapso del edificio clásico: los electrones no pueden estar
siempre radiando si no tienen una fuente que los esté alimentando permanentemente.

Figura II.12. Un punto de partida de toda teoría clásica. Una carga girando en círculo produce ondas
electromagnéticas. Estas ondas pueden visualizarse como el resultado de osciladores cruzados (vertical
y horizontal; véase el apéndice I).

Ese fue el derrumbe de la pieza más monumental de la teoría clásica, al tenerse que concluir
que la radiación atómica ocurre de otra manera, no predicha por el electromagnetismo de
Maxwell. De eso diremos algo en el capítulo cuarto y nos ocuparemos más a fondo en la
segunda parte.

Figura II.13. Campo variable de un dipolo eléctrico. A grandes distancias, las ondas electromagnéticas
forman ondas planas, como sugiere la figura I.6. (Tomado de Panofsky y Phillips: Classical Electricity and
Magnetism,Addisson Wesley 1958.)
Espectro Electromagnético
A pesar de lo anterior, una antena es la materialización de la oscilación dipolar, componente a
lo largo del eje X o del eje Y que acabamos de describir; para ese caso, las leyes de la
electrodinámica funcionan inequívocamente. Es así como se generaron ondas
electromagnéticas para la comunicación desde finales del siglo XIX, en esencia el mismo tipo
de ondas que nos llega de los átomos que constituyen la materia estelar. El tipo de ondas o
radiación electromagnética que se puede producir es muy amplio y cada vez estamos en
mejores condiciones para manipular y utilizar las ondas resultantes, desde muy bajas
frecuencias, por ende muy larga longitud de onda (ondas de radio y de TV), hasta la región de
muy altas frecuencias o altas energías, en la región del ultravioleta (UV). En la tabla adjunta se
muestran los rangos respectivos en longitud de onda, frecuencia y energía equivalente.

Figura II.14. Espectro electromagnético.


Es suficiente por ahora con lo que acabamos de hacer para adentrarnos en la descripción del
rango de fenómenos que puede describir la teoría cuántica relativista. Faltaría agregar algunas
nociones elementales adicionales sobre el comportamiento de las ondas clásicas, a las que ya
nos hemos referido. Lo haremos cuando sea necesario.
Polarización de la luz
“Y a nuestro alrededor o hay ingenuos que siguen creyendo en el
Progreso Incesante de la Humanidad mediante la Ciencia y los
Inventos, o monstruos enloquecidos que sueñan con la
esclavitud o la destrucción de razas y naciones enteras.” Sábato

También podría gustarte