Está en la página 1de 96

FÍSICA CUÁNTICA PARA

PRINCIPIANTES
Los fenómenos más impresionantes de la física
cuántica facilitados:
la ley de atracción y la teoría de relatividad

[Brad Olsson]

Derechos de autor del texto © [Brad Olsson]


Todos los derechos reservados. Ninguna parte de esta guía puede ser reproducida en forma alguna sin
permiso escrito del autor, excepto en el de breves citas incorporadas en artículos o informes.

Legal & Descargado de Responsabilidad


La información contenida en este libro y sus contenidos no está diseñada para reemplazar o sustituir
ninguna forma de consejo médico o profesional; y no tiene por objeto sustituir la necesidad de
asesoramiento o servicios médicos, financieros, jurídicos o profesionales de otro tipo independientes,
según sea necesario. El contenido y la información de este libro se ha proporcionado sólo con
propósitos educativos y de entretenimiento.
El contenido y la información de este libro ha sido recopilado de fuentes consideradas fiables y es
exacto según el conocimiento, la información y la aencia del autor. Sin embargo, el Autor no puede
garantizar su exactitud y validez y no puede ser considerado responsable de ningún error y/u omisión.
Además, se realizan periódicamente cambios en este libro cuando y como sea necesario. Cuando sea
apropiado y/o necesario, usted debe consultar a un profesional (incluyendo, pero no limitándose a su
médico, abogado, asesor financiero o cualquier otro asesor profesional) antes de usar cualquiera de
los remedios, técnicas o información sugeridos en este libro.
Al utiliza el material y la información contenida en este libro, usted acepta eximir al Autor de
cualquier daño, costo y gasto, incluyendo los honorarios legales que puedan resultar de la aplicación
de cualquier información proporcionada por este libro. Esta exención de responsabilidad se aplica a
cualquier pérdida, daño o perjuicio causado por el uso y aplicación, ya sea directa o indirectamente,
de cualquier consejo o información presentada, ya sea por incumplimiento de contrato, agracio,
negligencia, lesión personal, intención criminal o bajo cualquier otra causa de acción.
Usted está de acuerdo en aceptar todos los riesgos de usar la información presentada dentro de este
libro.
Usted está de acuerdo en que, al continuar leyendo este libro, cuando sea apropiado y/o necesario,
deberá consultar a un profesional (incluyendo, pero no limitándose a su médico, abogado o asesor
financiero o cualquier otro asesor según sea necesario) antes de usar cualquiera de los remedios,
técnicas o información sugeridos en este libro.

Contenido

Introducción

Capítulo 1: ¿Qué es la Física Cuántica?


Capítulo 2: El Vínculo Entre las Ondas y Las Partículas
Capítulo 3: Max Planck el Padre de la Teoría Cuántica
Capítulo 4: Las Leyes de la Física Cuántica
Capítulo 5: Teoría del Campo Cuántico
Capítulo 6: El Átomo de Hidrógeno
Capítulo 7: Teoría de la Relatividad de Einstein
Capítulo 8: Experimentos Populares
Capítulo 9: Superconductores
Capítulo 10: Entrando a la Tercera Dimensión con la Física Cuántica
Capítulo 11: Momento Angular en el Nivel Cuántico
Conclusión
Introducción

Todo lo que conocemos consiste en materia compuesta por partículas, es


decir, átomos, que están formados por partículas más pequeñas: electrones,
protones y neutrones (los dos últimos están compuestos por partículas de
quarks), y por interacciones o fuerzas energéticas invisibles, entre las que se
encuentran la gravedad, las fuerzas de atracción y repulsión de objetos
cargados o imanes, los rayos X, los rayos gamma y las ondas de radio
(teléfonos móviles, Wi-Fi, radio y televisión).
De hecho, sólo hay cuatro fuerzas invisibles. La primera, la gravedad, es
vital para nuestro medio ambiente ya que asegura que todos los objetos a
nuestro alrededor permanezcan en su lugar. Incluyendo el que cada uno de
nosotros se mantenga en el suelo, así como el que la Tierra permanezca en
una órbita consistente alrededor del Sol.
Sin embargo, es la fuerza menos potente de todas. Hay dos mucho más
fuertes dentro de los núcleos atómicos (llamadas simplemente interacciones
débiles y fuertes), que aseguran la existencia y estabilización del núcleo de
cada átomo en el universo conocido (incluyendo los átomos que componen
cada uno de nosotros).
El resto de la realidad invisible (fuera de la gravedad y las fuerzas
nucleares) es clasificada en dos subtipos, fuerzas electromagnéticas o
radiación electromagnética (toda fuerza cuenta con un origen, es decir,
siempre es emitida por algo). Incluyendo las fuerzas mencionadas
anteriormente, ondas de radio, rayos X y rayos gamma, al igual que algunas
otras, como veremos a continuación.
Para comenzar el estudio de la física cuántica es necesario tener una
comprensión general de la radiación electromagnética, ya que la física
cuántica surgió de los intentos de comprenderla.

Capítulo 1: ¿Qué es la
Física Cuántica?

Los científicos utilizan ecuaciones matemáticas para explicar lo que


observan en el mundo que les rodea y lo que examinan a través de diversos
experimentos. A medida que las herramientas del oficio científico
progresan y desarrollan precisión, los científicos han logrado obtener un
mejor conocimiento del mundo molecular. Hoy en día, nos beneficiamos
del trabajo de estos científicos para discernir mejor nuestro mundo y el
universo a un nivel molecular. Como veremos, la Física Cuántica es la
matemática en acción, explicando el mundo que existe a nuestro alrededor
hasta el más mínimo detalle.
Los científicos han formulado teorías como la dualidad onda-particular y el
túnel cuántico por medio de numerosos experimentos.
El campo de las matemáticas:
Sin duda tiene algún conocimiento de física por medio de lo que estudió en
la academia, ¿qué es lo que recuerda? Seguramente mucho de lo que viene
a la mente está relacionado con las matemáticas, lo que no hace a la física
más atrayente. Desafortunadamente no se puede evitar la matemática con el
tema, ya que son indispensables para la física. Galileo Galilei (1564 -
1642), el padre de la física moderna, lo expresó de esta manera: "El libro de
la naturaleza está escrito en el lenguaje de las matemáticas". Sin embargo,
prácticamente todo se puede explicar sin ella. Tal como lo hago en este
libro. Al menos en parte, puesto que presentaré una fórmula muy simple y
fácil de entender.
La pregunta más antigua es, ¿será la matemática invento del hombre o
tendrá alguna existencia independiente? Y la respuesta es que sigue siendo
un tema suma mente controversial hoy en día. Sin embargo, la mayoría de
los matemáticos y prácticamente todos los físicos suelen considerar una
existencia independiente. Esta idea se origina en Platón (428 a.C. - 348
a.C.), aunque no haya mencionado las matemáticas, se refería al mundo de
las ideas y las formas perfectas del universo como modelos a seguir.
Unámonos a la mayoría y supongámonos que la existencia de la matemática
es independiente. ¿Entonces, qué es el universo? Por definición, representa
la totalidad de lo que existe, por lo cual abarca dos mundos. El mundo
material, cual está compuesto de la materia y la energía integrada en el
tiempo y el espacio. Al igual que el mundo de las matemáticas, al cual
atribuimos una existencia independiente, separada de nosotros los humanos.
¿Pero es así como lo conocemos? Claro que no, porque lo que conocemos
está construido por nuestros cerebros, esto aplica tanto al mundo material
como al mundo de las matemáticas. En la realidad ambos son diferentes,
aun así, constituye una conexión entre los dos, aunque no siempre sea
visible. Por eso mismo los físicos y matemáticos adoptan el método
pragmático e ignoran las diferencias fundamentalmente desconocidas.
Mantengamos en cuenta que el mundo material y el mundo de las
matemáticas esta “pintado” por el cerebro humano. Es decir, solo
conocemos las versiones humanas de estos mundos. Los extraterrestres, si
es que existen, podrían por lo tanto tener una idea completamente distinta a
la realidad que nosotros conocemos de ambos mundos.
El físico matemático Roger Penrose (nacido 1931) asume la existencia de
tres mundos, uno de estos es el mundo de la conciencia. Claro que el mundo
material está asociado a ella, ya que el mundo que conocemos aparece en
nuestros cerebros por lo cual se conoce como la conciencia. ¿Pero cómo se
genera si todo está en la oscuridad? Los neurocientíficos han descubierto
que existen los llamados correlatos de la conciencia en el cerebro. Esto
significa que se puede establecer una conexión entre la aparición de la
conciencia y la actividad del cerebro. ¿Pero de dónde viene lo que
experimentamos a través de nuestra conciencia? Por ejemplo, el rojo de una
puesta de sol. Los neurocientíficos no tienen nada que decir sobre esta
experiencia. Cada vez son más capaces de descifrar la estructura y función
del cerebro usando métodos de investigación progresivamente más
avanzados, pero no se acercan a la conciencia misma. Lo que sabemos por
seguro es que insuperable mente existe una profunda brecha entre la
conciencia y lo que puede ser descubierto mediante los métodos de las
ciencias naturales. Por lo cual podemos concluir que la visión científica del
mundo actual está incompleta. ¿Pero cómo debería ser complementada? En
los últimos dos capítulos presentare una propuesta al respecto, culla cual
proporciona la clave de la conciencia.
El principio de incertidumbre de Heisenberg:
Un famoso principio del que casi todo el mundo ha oído hablar al menos
una vez en su vida es el principio de incertidumbre (o indeterminación) de
Heisenberg.
Por lo general, el principio de Heisenberg se explica con unas pocas frases o
con analogías erróneas. Lo cual produce una comprensión incorrecta en la
mayoría de las personas e incluso entre físicos profesionales. Para obtener
una imagen clara y evitar malentendidos es útil profundizar nuestro
entendimiento en los fenómenos de difracción e interferencia para los casos
de una, dos y muchas redigas.
Ahora surge la pregunta: ¿Qué pasa si usamos sólo una rendija? O
viceversa: ¿Qué pasa cuando usamos varias rendijas?
A finales del siglo XVII y mucho antes del nacimiento de la MQ, los
fenómenos de interferencia de rendijas simples y N eran bien conocidas y
ampliamente estudiadas.

Capítulo 2: El Vínculo Entre las Ondas y Las


Partículas

Ha llegado el momento de descreditar el “mito del observador” de la FQ ya


que declaraciones similares ya son contradictorias. Como, por ejemplo, si
una partícula es una onda no era partícula para comenzar, podría decirse que
en lugar de partícula actúa como una onda. Por esto mismo algunos físicos
les gustaría eliminar cualquier referencia a las “dualidades” de los libros por
completo. Ningún fenómeno cuántico necesita que una mente o conciencia
humana lo observe para validar su existencia, y no hay una “transmutación
de partículas” en el sentido que nuestra intuición ingenua tiende a seguir.
No es casualidad que presentemos al lector la dualidad onda-particular
después de detenernos primero en una introducción histórica y conceptual
para proporcionar el contexto con el que comprender el significado y las
implicaciones más profundas de la teoría. De igual manera presentaremos el
principio de incertidumbre de Heisenberg en la siguiente sección.
Hemos visto que los fotones pueden comportarse como ondas o como
partículas, según el contexto y la disposición experimental. Si el
estenopeico es pequeño determinará la posición de una partícula con mayor
precisión, pero también producirá un patrón de difracción relativamente
amplio que hace incierta la posición del fotón en la pantalla. Podemos saber
con relativa precisión dónde el fotón o la partícula de materia atravesó el
trozo de papel, dentro del espacio limitado por la abertura del agujero. Aun
así, se desplazará lateralmente en la pantalla debido a los fenómenos de
difracción e interferencia.
Por ejemplo, el efecto fotoeléctrico o el efecto Compton da una respuesta, y
el experimento de la doble rendija y la difracción de Bragg dan la respuesta
opuesta. En este último caso también hemos visto cómo el carácter de la
onda encaja con partículas materiales al igual como electrones o neutrones.
Sin embargo, podríamos preguntar: ¿Cómo, ¿cuándo y bajo qué
circunstancias surge uno u otro aspecto? ¿Es una propiedad que los objetos
cuánticos adquieren al pasar de un estado a otro? ¿Hay algún momento en
el tiempo en el que una entidad de alguna manera mal definida es o se
comporta como una partícula y después se transforma en una onda? Si es
así, ¿ocurre de forma continua o instantánea? ¿O hay otra posible
interpretación y comprensión que une los dos aspectos de los fotones, como
ondas y como materia y energía?
En cierto sentido ya hemos visto cómo, con la hipótesis de De Broglie, es
posible unificar esta disparidad con el concepto de paquete de ondas.
Por lo tanto, hasta ahora hemos arrojado algo de luz (juego de palabras)
sobre esta dualidad onda-partícula, pero el cuadro sigue siendo algo
incompleto. Porque, pensándolo bien, nadie ha observado una ola de luz de
la forma en que podemos observar una ola de agua en la superficie de un
océano. Lo que siempre observamos son los efectos de algo que
imaginamos, por medio de la deducción después del hecho, que es algo que
actúa como una onda. Los diversos experimentos que insinuaban el carácter
de partícula u onda de la luz no mostraron que la luz sea una partícula o una
onda, sino que se comporta como una partícula o una onda. No debemos
confundir nuestras proyecciones mentales humanas (a veces incluso
ideológicas) de cómo aparece la realidad, con la realidad misma.
Es aquí donde el famoso experimento de la doble rendija de Young entra en
juego de nuevo en su versión cuántica moderna. Aclara aún más algunos
aspectos muy importantes y la naturaleza de los objetos físicos en la FQ.
Retrocedamos al plano transversal del frente de onda de la luz, digamos,
sólo un rayo de luz proveniente de una fuente que idealmente es altamente
monocromática, es decir, que tiene un rango único o muy estrecho de
longitudes de onda y colores (hoy en día una tarea fácil de realizar con la
luz láser).
Sabemos que las rendijas deben tener un tamaño y una separación
comparables a las de la longitud de onda de la luz entrante (esto es algo
que, incluso para longitudes de onda pequeñas, puede lograrse con gran
precisión utilizando las modernas tecnologías litográficas). Cuando la onda
plana pasa por estas rendijas se difracta y se detecta con una pantalla a
cierta distancia, y aparece el patrón de interferencia resultante habitual.
Estas franjas pueden ser fácilmente fotografiadas con una placa fotográfica
o una cámara CCD o cualquier tipo de sensor sensible a la longitud de onda
que estemos utilizando.
A través del experimento de Young, la pregunta sobre la naturaleza de la luz
parecía recibir una respuesta clara. Concebimos la luz como una onda ya
que se comporta como una onda, debido a que muestra el fenómeno de
interferencia típico de las ondas.
Sin embargo, al examinar a nivel microscópico, esto resulta ser sólo una
vista invertida de la versión más grande. ¿Cómo es eso? Porque lo que
detectamos son siempre y únicamente interacciones entre la luz y la pantalla
del detector en pequeños puntos localizados. Lo que se observa localmente
no es un bonito sombreado continuo de la intensidad entre las franjas
blancas y negras, sino una distribución aleatoria de puntos, es decir, de
interacciones puntuales localizadas en la pantalla del detector, como los
píxeles de un monitor. Por ejemplo, si utilizamos una antigua placa
fotográfica convencional como pantalla de detección, la revelamos y luego
observamos la fotografía en el microscopio, vemos muchos pequeños
puntos blancos que corresponden a los granos que, debido a una reacción
química, se convierten blancos si se incorpora un fotón.
Después de todo, cuando hacemos una medición, lo que finalmente
observamos son partículas, no ondas. Ya sea una placa fotográfica, un
moderno sensor CCD, o cualquier otro tipo de detector que responda a una
señal eléctrica o sólo a "clics" (como un fotodiodo o un fotomultiplicador),
lo que realmente medimos son uno o muchos puntos, interacciones locales
puntuales que forman un patrón de interferencia granular, nunca un patrón
continuo. Incluso si construyéramos un detector con la mayor resolución
posible, digamos que cada píxel es un átomo, el mismo patrón de
interferencia punteada emergería a escalas más pequeñas. Esto no debería
sorprendernos, ya que lo que hemos aprendido sobre la teoría de la
radiación de cuerpo negro, sabemos que la materia, y por lo tanto los
átomos y las moléculas, absorben "cuantos" no de manera continua sino
más bien en forma de cantidades discretas de energía.
Por lo tanto, también en el experimento de Young, recuperamos y
encontramos de nuevo la naturaleza corpuscular de la luz: Lo que parece
difractarse en las rendijas e interfiere en la pantalla se comporta como una
onda, pero lo que finalmente se observa son fotones chocando con la
pantalla. Por un lado, tenemos algo que imaginamos es una onda que pasa
por las dobles rendijas; pero cuando intentamos detectarla, inevitablemente
aparece como una interacción localizada.
En cierto sentido nos encontramos de nuevo en el punto donde iniciamos.
¿Qué es un fotón realmente? Si es una onda, ¿por qué, ¿cuándo y cómo se
convierte en una partícula para ser detectada como una estructura puntual?
Inspeccionemos más a fondo esta situación. Si mantenemos estrictamente la
imagen de las partículas, entonces debemos asumir que cada partícula debe
pasar por una u otra rendija, y luego viajar más en dirección a la pantalla
del detector y aparecer en una u otra franja, es decir, en dos conjuntos de
partículas apiladas detectadas sólo en dos lugares de la pantalla.
Sin embargo, ahora sabemos que no es así, ya que observamos otras líneas
que también aparecen en las franjas de interferencia. Esta imagen ingenua
es simplemente refutada por los hechos.
Izquierda : Lo que se esperaría, pero no se observa.
Derecha : Lo que se observa y no puede ser reconciliado con un clásico
"cuadro de partículas".
Uno tiene que asumir la existencia de alguna "ola" o "fuerza" mal definida
o "campo" que "guía" las partículas a lo largo de su camino, para que
coincidan con las franjas de interferencia. De hecho, esta es una
interpretación que se toma en serio por algunos físicos, con la llamada
"teoría de la onda piloto" (descrita más adelante en nuestro segundo
volumen), formulada originalmente por el físico americano David Bohm
(1917-1992). Pero le sugiero encarecidamente que siga leyendo y
aprendiendo lo que hasta ahora se considera cierto, antes de saltar a la
plétora de interpretaciones de MQ; muchas de estas especulaciones no
pueden presumir de ninguna evidencia sólida de apoyo.
De hecho, demos un paso más en nuestro razonamiento y preguntémonos
qué pasa si sólo se envía un fotón hacia las dobles rendijas. ¿Surgen
también franjas de interferencia con un solo fotón? ¿O son el resultado de la
interacción colectiva de muchos fotones? O, lo que parece ser otra posible
interpretación alternativa, ¿interfiere la partícula única en sí misma?
Esta última cuestión puede parecer en principio sin sentido, porque
podríamos objetar que un solo fotón no podría estar sujeto a interferencias,
ya que para observar estos fenómenos de interferencia necesitamos una
colección de fotones que se acumulen como franjas en la pantalla. Sin
embargo, hay una forma de probar esta hipótesis: Podríamos tratar de
engañar a la Naturaleza viendo si y cómo el patrón de interferencia se
acumula si enviamos sólo un fotón tras otro y luego esperamos a ver cómo
se desarrollan las cosas con el tiempo. Uno tras otro significa que
disparamos un solo fotón en las dos rendijas, esperamos hasta que el único
fotón alcance la pantalla y registramos su posición, y sólo después de eso,
enviamos el siguiente fotón, esperamos de nuevo hasta que se detecte en la
pantalla, y así sucesivamente.
Capítulo 3: Max Planck el Padre de la Teoría
Cuántica

Todos los objetos emiten radiación electromagnética, que se llama radiación


de calor. Pero esta radiación solo es visible cuando un objeto está
sumamente caliente, porque cuando un objeto se calienta emite luz visible.
Como por ejemplo el hierro brillante o nuestro sol. Por supuesto, los físicos
buscaban una fórmula que describiera correctamente la emisión de
radiación electromagnética, pero a pesar de sus intentos esto no funcionó.
Eso fue hasta que, en el año 1900 el físico alemán Max Planck (1858 -
1947) valiente mente dio un paso hacia adelante.
La emisión de radiación electromagnética significa la emisión de energía y
de acuerdo con las ecuaciones de Maxwell, esta liberación de energía se
debería llevar a cabo continuamente. "Continuamente" significa que
cualquier valor es posible para la producción de energía. Max Planck
supuso que la producción de energía sólo podía ocurrir en múltiples
paquetes de energía, es decir, en pasos. Esta teoría lo condujo a la fórmula
completa que después lo llevaría a identificar a los paquetes de energía
como “cuanta” (quanta). Por lo tanto, el año 1900 se considera el año de
nacimiento de la teoría cuántica.
Importante: Sólo la emisión y la absorción de la radiación electromagnética
deben tener lugar en forma de cuantos. Planck no asumió que la radiación
electromagnética estaba compuesta de cuantos. Porque eso significaría que
tendría un carácter de partículas. Sin embargo, como todos los demás
físicos de su época, Planck estaba completamente convencido que la
radiación electromagnética consistía exclusivamente de ondas. El
experimento de la doble rendija de Young lo demostraba y las ecuaciones
de Maxwell lo confirmaban.
En 1905 un forastero llamando Albert Einstein fue aún más valiente, el
observo más de cerca el efecto fotoeléctrico. Esto es el proceso en el que los
electrones pueden ser eliminados de los metales por irradiación con luz.
Según la física clásica, la energía de los electrones expulsados debe
depender de la intensidad de la luz. Por extraño que parezca, este no es el
caso. La energía de los electrones no depende de la intensidad, sino de la
frecuencia de la luz. Einstein podría explicar eso. Pero para esto,
regresemos de nuevo a los cuantos de Max Planck. La energía de cada
cuanto depende de la frecuencia de la radiación electromagnética. Cuanto
más alta sea la frecuencia, mayor será la energía del cuánto. Einstein
asumió ahora, en contraste con Planck, que la radiación electromagnética en
si misma consiste en cuantos. Es la interacción de un solo cuántico con un
solo electrón en la superficie metálica lo que causa que este electrón sea
eliminado. El quantum descarga su energía al electrón. Por lo tanto, la
energía de los electrones noqueados depende de la frecuencia de la luz
incidente.
Sin embargo, el escepticismo era grande al principio. Porque esto
significaría que la radiación electromagnética tendría un carácter tanto de
onda como de partícula. Después de poco tiempo otro experimento también
mostro su carácter de partícula. Este fue el experimento con rayos X y
electrones llevado a cabo por el físico americano Arthur Compton (1892 –
1962) en 1923. Como ya se ha mencionado, los rayos X también son
radiación electromagnética, pero tienen una frecuencia mucho mayor que la
luz visible. Por lo tanto, los cuantos de los rayos X son muy energéticos.
Esta frecuencia mayor los capacita con el poder de invadir el cuerpo
humano y esto los hace muy peligrosos. Compton pudo demostrar que los
rayos X y los electrones se comportan de manera similar a las bolas de
billar cuando se encuentran. Lo que nuevamente mostro el carácter de
partícula de la radiación electromagnética. Así que su naturaleza dual, el
llamado “dualismo onda-partícula", fue finalmente aceptado. Por cierto, fue
Compton quien introdujo el término “fotones” para los cuantos de radiación
electromagnética.
¿Qué son los fotones? Eso todavía no está claro hoy en día. Bajo ninguna
circunstancia deben ser imaginados como pequeñas esferas moviéndose
hacia adelante a la velocidad de la luz. Ya que los fotones no se encuentran
en el espacio nunca están en un lugar determinado. Una cita de Albert
Einstein, aunque se remonta a 1951, también se aplica a la situación actual:
“Cincuenta años de duro pensamiento no me han acercado a la respuesta a
la pregunta “¿Que son los cuantos de luz? Hoy en día, todos los Tom, Dick
y Harry se imaginan que lo saben. Pero están equivocados”.

El modelo atómico de Bohr


Damos por sentado los átomos. De hecho, su existencia fue todavía
controvertida hasta principios del siglo XX. Pero ya en el siglo V a.C. los
antiguos griegos, especialmente Leukipp y su pupilo Demócrito, hablaban
de átomos. Pensaban que la materia estaba compuesta por unidades
diminutas e indivisibles. Llamaron a estos átomos (del griego antiguo
“átomos” = indivisibles). En su año milagroso de 1905, Albert Einstein no
solo presento la teoría especial de la relatividad y resolvió el misterio del
efecto fotoeléctrico, sino que también fue capaz de explicar el movimiento
Browniano. En 1827 el botánico y médico escocés Robert Brown (1773 -
1858) descubrió que las partículas de polvo sólo visibles bajo el
microscopio hacen movimientos espasmódicos en el agua. Einstein pudo
explicar esto por el hecho que partículas mucho más pequeñas, que no son
visibles ni siquiera bajo el microscopio, colisionan en grandes cantidades
con las partículas de polvo y que esto está colisionan en grandes cantidades
con las partículas de polvo y que esto está sujeto a fluctuaciones aleatorias.
Esto conduce a los movimientos bruscos. Las partículas invisibles deben ser
moléculas. Por lo tanto, la explicación del movimiento Browniano fue
considerada como su validación así también como la validación de los
átomos.
En 1897, el físico británico Joseph John Thomson (1856 – 1940) descubrió
los electrones como un componente de los átomos y desarrollo el primer
modelo atómico, el llamado modelo del Pastel de pasas. Los átomos, por lo
tanto, consisten en una masa cargada positivamente en la que los electrones
en la que los electrones cargados negativamente están incrustados como
pasas en una masa de pastel. Esto fue falsificado en 1910 por el físico
neozelandés Ernest Rutherford (1871 – 1937). Con sus experimentos en la
Universidad de Manchester, pudo demostrar que los átomos están casi
vacíos. Consisten en un pequeño núcleo cargado positivamente. A su
alrededor están los electrones y estos deben girar alrededor del núcleo como
los planetas giran alrededor del sol. Otra forma de movimiento era
inconcebible en ese momento. Eso llevo a la física a una profunda crisis.
Porque los electrones tienen una carga eléctrica y un movimiento circular
hace que liberen energía en forma de radiación electromagnética. Por lo
tanto, los electrones deberían caer en el núcleo. De ahí la profunda crisis,
porque considerando esa teoría no debería haber ningún átomo.
En 1913 un joven colega Ernest Rutherford, el físico danés Niels Bohr
(1885 – 1962), trato de explicar la estabilidad de los átomos. Transfirió la
idea de los cuantos a las orbitas de los electrones en los átomos. Esto
significa que no hay órbitas arbitrarias al redor del núcleo para los
electrones, sino que solo se permiten ciertas orbitas. Cada uno tiene una
cierta energía. Bohr asumió que estas órbitas permitidas eran estables
porque los electrones en ellas no emiten radiación electromagnética. Sin
embargo, este razonamiento no tenía base del por qué debería ser así. No
obstante, inicialmente su modelo atómico tuvo bastante éxito porque podía
explicar la llamada fórmula de Balmer. Se sabe desde hace tiempo que los
átomos sólo absorben la luz a ciertas frecuencias, esto se conoce como
líneas espectrales. En 1885, el matemático y físico suizo Johann Jakob
Balmer (1825 - 1898) encontró una fórmula con la que se podían describir
correctamente las frecuencias de las líneas espectrales. Pero no podía
explicarlas. Bohr entonces tuvo éxito con su modelo atómico, al menos para
el átomo de hidrógeno. Esto se debe a que los electrones pueden ser
excitados por los fotones, lo que hace que salten en órbitas con mayor
energía. Este es el famoso salto cuántico, el más pequeño posible. Dado que
en el modelo atómico de Bohr sólo se permiten ciertas órbitas, la energía y,
por tanto, la frecuencia de los fotones excitados debe corresponder
exactamente a la diferencia de energía entre la órbita inicial y la órbita
excitada. Esto explica la fórmula de Balmer. Pero el modelo atómico de
Bohr alcanzó rápidamente sus límites porque sólo funcionaba para el átomo
de hidrógeno. El físico alemán Arnold Sommerfeld (1868 - 1951) la amplió,
pero aún representaba una mezcla poco convincente de física clásica y
aspectos cuánticos. Además, todavía no podía explicar por qué ciertas
órbitas de los electrones debían ser estables.
Sommerfeld tuvo un joven asistente, Werner Heisenberg (1901 - 1976),
quien en su tesis doctoral trató el modelo de átomo Bohr extendido por
Sommerfeld. Por supuesto, quería mejorarlo. En 1924 Heisenberg se
convirtió en asistente de Max Born (1882 - 1970) en Göttingen. El avance
llegó poco tiempo después, en 1925 en la isla de Helgoland, donde se curó
de la fiebre del heno. Fue capaz de explicar las frecuencias de las líneas
espectrales incluyendo sus intensidades usando las llamadas matrices.
Publicó su teoría en 1925 junto con su jefe Max Born y Pascual Jordan
(1902 - 1980). Se considera que es la primera teoría cuántica y se llama
mecánica matricial. No lo explicaré con más detalle porque no está muy
claro, y además hay una alternativa matemáticamente equivalente a ella. La
cual goza de una aceptación mucho mayor porque es más fácil de usar. Se
llama mecánica ondulatoria y fue desarrollada en 1926, sólo un año después
de la mecánica matricial, por el físico austriaco Erwin Schrödinger (1887 -
1961).

La ecuación de Schrödinger
Antes de llegar a la mecánica ondulatoria de Erwin Schrödinger, tenemos
que hablar del físico francés Louis de Broglie (1892 - 1987). En su tesis
doctoral, que completó en 1924, hizo una propuesta audaz. En esos tiempos,
como se explica en la penúltima sección, el dualismo onda-partícula era una
característica exclusiva de la radiación electromagnética. ¿Por qué, de
Broglie, no debería aplicarse también a la materia? Entonces, ¿por qué la
materia no debería tener también un carácter ondulatorio además de su
indiscutible carácter de partícula? El comité de examen de la famosa
Universidad de la Sorbona en París no estaba seguro de poder aprobar tal
tesis y le preguntó a Einstein. Estaba profundamente impresionado, así que
de Broglie obtuvo su doctorado. Sin embargo, no pudo presentar ninguna
teoría elaborada para las ondas de materia.
Poco después Erwin Schrödinger tuvo éxito. En 1926 introdujo la ecuación
que lleva su nombre. Las circunstancias que rodean su descubrimiento son
inusuales. Se dice que Schrödinger lo descubrió a finales de 1925 en Arosa,
donde estaba con su amante.
La ecuación de Schrödinger está en el centro de la mecánica de las olas.
Como ya se ha dicho, es matemáticamente equivalente a la mecánica
matricial de Heisenberg. Pero se prefiere porque es mucho más fácil de
usar. Hay una tercera versión, más abstracta, desarrollada por el físico
inglés Paul Dirac. Las tres versiones juntas forman la teoría cuántica no
relativista llamada mecánica cuántica. Como bien sospechas, también hay
una versión relativista. Me ocuparé de ello brevemente en la siguiente
sección. Sólo brevemente porque no aporta ningún aspecto nuevo a los
temas tratados en este libro.
La ecuación de Schrödinger no es una ecuación de onda ordinaria, ya que se
utiliza, por ejemplo, para describir el agua o las ondas de sonido. Pero
matemáticamente es muy similar a una ecuación de onda "real".
Schrödinger no pudo explicar por qué no es idéntica. Lo había desarrollado
más por intuición. Según el lema: ¿Cómo podría ser una ecuación de onda
para los electrones? Esto también puede ser llamado creatividad. De hecho,
muy a menudo en la historia de la teoría cuántica, no hubo una derivación
rigurosa. Era más bien un ensayo y error hasta que se encontraban las
ecuaciones que producían el resultado deseado. Es muy extraño que una
teoría de tal precisión pueda surgir de esto. Sin embargo, como explicaré en
detalle, la teoría también está dominada por problemas que aún no han sido
resueltos.
Las soluciones de la ecuación de Schrödinger son las llamadas funciones de
onda. Sólo con ellas se puede explicar de forma convincente la estabilidad
de los átomos. Consideremos el átomo más simple, el átomo de hidrógeno.
Consiste en un protón como núcleo y un electrón que se mueve a su
alrededor. Si se resuelve la ecuación de Schrödinger para el átomo de
hidrógeno, entonces se encuentra que el electrón asume sólo valores de
energía específicos. Es importante que haya un valor de energía más
pequeño. Esto significa que el electrón siempre tiene una cierta distancia
del núcleo. Lo que hace que el átomo de hidrógeno sea estable. El modelo
atómico de Bohr también proporciona los valores específicos de energía,
pero no puede justificarlos. ¿Eso hace que la ecuación de Schrödinger sea
mejor? En realidad, no, es el formalismo matemático utilizado el que llevó
a los valores específicos de energía. Por qué es exactamente este
formalismo que se ajusta a la realidad, nadie puede responder hasta hoy.
A un objeto se le asigna un estado en cualquier momento. En la física
clásica, consiste en una posición y una velocidad inequívoca. Esto se llama
determinismo, uno de los pilares centrales de la física clásica. En la
mecánica cuántica los estados son completamente diferentes, están
representados por las funciones de onda. Por lo tanto, son cantidades
abstractas del mundo de las matemáticas y no son directamente observables.
Pero proporcionan las posiciones y las velocidades. Y en cualquier
momento muchas posiciones y velocidades diferentes. Por lo tanto, los
estados no son inequívocos, son los llamados estados de superposición.
Como consecuencia, la mecánica cuántica ya no es determinista. Aunque
eso no es del todo incontrovertible, como veremos.

Las teorías del campo cuántico


El desarrollo de la teoría cuántica no terminó con la mecánica cuántica.
Porque tiene sus límites: No contiene la teoría especial de la relatividad. Por
lo tanto, sólo se aplica a los objetos que se mueven mucho más lento que la
velocidad de la luz. Lo que es cierto para los electrones en los átomos y
moléculas, por lo tanto, la mecánica cuántica encaja allí maravillosamente.
Pero especialmente los fotones, que siempre se mueven a la velocidad de la
luz, no están cubiertos en absoluto por la ecuación de Schrödinger. Como
ya se ha mencionado, el físico inglés Paul Dirac no sólo ha desarrollado la
versión abstracta de la mecánica cuántica. En 1928 logró integrar la teoría
especial de la relatividad en la ecuación de Schrödinger. Esta es la ecuación
de Dirac, que he dado como un ejemplo impresionante (palabra clave
antipartículas) que descubrimos las matemáticas y por lo tanto las leyes de
la física y no las inventamos.
Pero incluso con la ecuación de Dirac, los fotones no podían ser descritos.
Además, como la ecuación de Schrödinger, sólo se aplica a un número
constante de partículas. La teoría especial de la relatividad, sin embargo,
hace posible su creación y destrucción. Tanto los fotones como el número
de partículas variables requerían un concepto completamente nuevo, que es
la teoría de campo cuántico (TCC). El paso de la mecánica cuántica a la
TCC, sin embargo, fue sólo un pequeño paso en comparación con la enorme
revolución de la física clásica a la mecánica cuántica. Y lo más importante,
la TCC no puede ayudar a resolver los problemas que discutiré en el
próximo capítulo.
Su desarrollo comenzó ya en los años 20, en paralelo a la mecánica
cuántica. Paul Dirac, Werner Heisenberg y Pascual Jordan estuvieron
involucrados de manera significativa. Ya los conoces. También el físico
italiano Enrico Fermi (1901 - 1954) y el físico austriaco Wolfgang Pauli
(1900 - 1958) hicieron contribuciones. Pero, el desarrollo se detuvo
rápidamente porque había absurdidades en forma de valores intermedios
infinitamente grandes que no podían ser eliminados durante mucho tiempo.
No fue hasta 1946 que la gente aprendió a tratar con ellos. La primera teoría
de campo cuántico surgió alrededor de 1950, fue la electrodinámica
cuántica (EDC), la versión cuántica de las ecuaciones de Maxwell. El físico
americano Richard Feynman (1918 - 1988), un personaje carismático,
desempeñó un papel decisivo en su desarrollo. Él tendía a realizar acciones
extrañas, por ejemplo, tocar el tambor regularmente en un club nocturno. Y
estuvo involucrado en la resolución del desastre del Challenger en 1986.
Richard Feynman es el único físico que dio todavía conferencias para
principiantes cuando ya era famoso. Eso fue a principios de los 60. También
se han publicado en forma de libro y todavía se utilizan ampliamente hoy en
día. Los libros de texto alemanes de física son, como era de esperar,
factuales y secos. Los libros de texto de Feynman son más "relajados" y
contienen mucho más texto. Mi impresión: Para el primer contacto con la
física son menos adecuados, pero mejoran su comprensión, si uno ya ha
aprendido algo de física.
La EDC es la base de todo lo que nos rodea. Toda la química y por lo tanto
también la biología se desprende de ella. Pero incluso con ella, el desarrollo
de la teoría cuántica aún no estaba completo. Porque se descubrieron dos
fuerzas más, la fuerte y la débil. Sólo juegan un papel en los núcleos
atómicos, así que no los notamos. Sólo notamos la fuerza gravitacional y
electromagnética. Aunque los cuerpos grandes son siempre eléctricamente
neutros, la EDC también juega un papel importante en la vida cotidiana. La
materia está casi vacía. Por consiguiente, si dos vehículos colisionan,
deberían penetrarse mutuamente. Si no fuera por la EDC.
La fuerza fuerte y la débil condujeron al desarrollo de otras dos teorías del
campo cuántico. Con lo cual la TCC de la fuerza débil podría combinarse
con la EDC. Para completar, la TCC de la fuerza fuerte se llama
cromodinámica cuántica (CDC). Las TCC de las tres fuerzas que pueden
ser descritas con ellas se combinan para formar el llamado modelo estándar
de la física de partículas. Representa la base de la física moderna.
En las TCC, cada tipo de partícula elemental se describe como un campo en
el que se crean y destruyen partículas = cuantos. Este es el núcleo de las
TCC. ¿Qué son las partículas elementales? La materia está formada por
moléculas que consisten en átomos que pueden ser separados en núcleo y
electrones. Los electrones se llaman partículas elementales porque no
pueden ser divididos según los conocimientos actuales. El núcleo está
compuesto de protones y neutrones, cada uno de los cuales consta de tres
quarks, o más precisamente de diferentes mezclas de quarks arriba y abajo.
Son partículas elementales. La materia ordinaria, por lo tanto, consiste en
tres partículas elementales diferentes. Pero hay muchas más partículas
elementales de materia, 24 en total, y eso no es todo, porque tres de las
cuatro fuerzas diferentes también consisten en partículas elementales. Sólo
la fuerza gravitatoria no puede ser integrada en el concepto de las TCC.
Y hay otra partícula elemental, la partícula Higgs, que fue descubierta en el
Gran Colisionador de Hadrones (GCH) en Ginebra en 2012. Desempeña un
papel especial, no voy a entrar en más detalles [10] .
Dado que la teoría general de la relatividad no puede ser integrada en el
modelo estándar de la física de partículas, debe haber una teoría más
fundamental. La teoría de las cuerdas era un candidato prometedor, pero la
esperanza se está desvaneciendo [11] .
¿La teoría más fundamental, si es que se encuentra, será la "teoría del
todo"? ¿Así que anunciará el fin de la física teórica? Algunos creen esto,
como el recientemente fallecido físico Stephen Hawking (1942 - 2018).
Hasta ahora, sin embargo, toda teoría física siempre tiene algo inexplicable.
Se puede esperar que encontremos una teoría que lo explique todo. Pero
dudo que alguna vez tengamos éxito. Por lo tanto, incluso en un futuro
lejano, debería haber físicos teóricos que busquen nuevas teorías.
Capítulo 4: Las Leyes de la
Física Cuántica

Como todo buen libro de texto sobre electromagnetismo te dirá, una sola
rendija, o un hoyo pequeño, producirá un patrón de interferencia, aunque
uno menos pronunciado que el que produce una rendija más grande. Es un
experimento fácil que puedes hacer por ti mismo, sólo tienes que coger un
trozo de papel, hacer un pequeño agujero redondo con un alfiler o una aguja
y mirar hacia una fuente de luz. Observarán la imagen de la fuente de luz
rodeada por varias franjas concéntricas de color (los colores aparecen sólo
debido a que, afortunadamente, el mundo en el que vivimos no es
monocromático).
Debido a la difracción que se produce siempre que una onda se encuentra
con un objeto o una rendija, especialmente cuando su tamaño es
comparable a la longitud de onda, el frente de onda plano se convierte en un
frente de onda esférico o distorsionado, que luego se desplaza hacia la
pantalla del detector.
En este caso se ve que, aunque se trata de una sola rendija, se pueden
observar algunos mínimos y máximos secundarios débiles, pero aun
claramente visibles.
Un punto importante que hay que tener en cuenta es evitar un concepto
erróneo común (que se promulga con frecuencia en algunos libros de
ciencia popular) que afirma que sólo dos o más rendijas pueden producir
franjas de interferencia, mientras que, en el caso de la única rendija, los
efectos de interferencia desaparecen. Esto no es del todo correcto.
Es cierto que es más fácil producir patrones de interferencia más
pronunciados con más de una rendija (o estenopeico); y para la mayoría de
las aplicaciones, especialmente cuando la longitud de onda de la onda
incidente es mucho más pequeña que el tamaño de la rendija, estos efectos
pueden ser descuidados.
Onda plana transversal incidente en una sola rendija con apertura a=5.
Sin embargo, en sentido estricto, una sola rendija también produce
pequeños fenómenos de difracción e interferencia.
Una elegante explicación de cómo se produce la interferencia, también para
una sola rendija, se remonta al físico francés A. J. Fresnel. Tomó prestada
una idea de Huygens (de ahí el nombre "principio de Huygens Fresnel"),
según la cual cada punto de un frente de onda debe ser considerado como
un punto-fuente de una onda esférica.
A lo largo de la abertura de la rendija emiten al mismo tiempo sus propios
frentes de ondas esféricas que, sin embargo, cuando se ven desde una
posición en la pantalla, se suman para producir un patrón de interferencia.
La razón de esto no es tan difícil de visualizar.
Dado que todos los frentes se inician en diferentes lugares a lo largo de la
apertura, también recorrerán una longitud de camino diferente, lo que
implica que tienen diferentes desplazamientos de fase cuando se
superponen en la pantalla.
Por ejemplo, donde vimos los dos caminos de las dos fuentes desde los
bordes. Como en el caso de la doble rendija, estos dos rayos tienen un
desplazamiento relativo de fase en una cantidad ∆ y, cuando se superponen
en la pantalla, forman una intensidad resultante según las leyes de
interferencia. En este caso, sin embargo, esto es válido no sólo para dos
ondas, sino para un número infinito de fuentes puntuales a lo largo de la
apertura. Fresnel, haciendo los cálculos apropiados, fue capaz de mostrar
que, si uno suma todos los frentes de ondas esféricas que provienen de los
puntos de la apertura de la única rendija y los proyecta en todos los puntos a
lo largo de la pantalla del detector, entonces uno obtiene efectivamente los
patrones de difracción e interferencia conocidos.
El principio de Huygens-Fresnel
Si repetimos el mismo experimento con una rendija que tiene un tamaño
cercano a la longitud de onda de nuestro frente de onda entrante, entonces
vemos que las franjas de interferencia desaparecen.
Sólo cuando el tamaño de la rendija es igual o menor que la longitud de
onda, los bordes están definitivamente ausentes. Esto se debe a que la
rendija es tan pequeña que sólo una fuente puntual puede formar un frente
de onda esférica con una longitud de onda igual al tamaño de la rendija, y
no puede haber diferencia de trayectoria y desplazamiento de fase con
alguna otra fuente que pudiera producir el patrón de interferencia. Sin
embargo, la difracción se ha hecho muy grande en su lugar, de modo que
los fotones se desplazarán en un área relativamente grande en la pantalla del
detector, de acuerdo con una distribución en forma de campana llamada
"envoltura de difracción".
Los parámetros que determinan la dependencia angular del patrón de
interferencia son: en primer lugar, el tamaño de la abertura en relación con
la longitud de onda (aquí: a=3); en segundo lugar, el espacio d entre las
rendijas (aquí: d=3 a); y, por supuesto, el número de rendijas. Las tres
curvas representan respectivamente los casos de difracción de 1, 2 y 10
rendijas. Las intensidades se han normalizado en todos los casos a la
unidad.
En el caso de la única ranura, hay algunos picos laterales secundarios
débiles, pero claramente discernibles. Se reducen casi a la envoltura de
difracción.
Para las dos rendijas, como en el caso del experimento de la doble rendija
de Young, obtenemos flecos más pronunciados. Puedes ver cómo el patrón
de una rendija "envuelve" el patrón de las dos rendijas. La figura de
interferencia del patrón de una sola rendija está dividida en varias franjas
más. Sin embargo, fíjese que sería incorrecto decir, como se puede oír con
frecuencia, que cuando pasamos de la doble rendija a la caja de una sola
rendija, los fenómenos de interferencia desaparecen. Eso, en general, no es
el caso. Lo que sucede es que volvemos a la envoltura de la única rendija
que contiene muchos menos flecos, pero aun así podría tener algunos otros
flecos de interferencia también (y en este caso así es). Una vez más, la
interferencia no es un fenómeno específico del experimento de las dobles (o
más) rendijas.
La interferencia no desaparece si se cubre una rendija; simplemente se
vuelve más débil de lo que es con más rendijas.
Finalmente, en el caso de 10 rendijas, la curva de dos rendijas resulta ser la
envoltura de la curva de 10 rendijas. Por lo tanto, se puede observar cómo
esta es una tendencia y un fenómeno más general que resulta de la
interacción entre la difracción y la interferencia. De hecho, en general, las
franjas de las rendijas N y su espaciamiento surgen debido a este efecto
combinado entre la difracción y la interferencia.
Estos fueron sólo unos pocos ejemplos para esbozar, al menos
intuitivamente, cómo funciona la interferencia de ondas. Los
programadores que puedan estar interesados en recrear las infinitas
combinaciones posibles de figuras de interferencia pueden encontrar la
fórmula general de la función de intensidad en el Apéndice a VI.
Hemos visto en esta sección, especialmente con la difracción de Bragg,
cómo los fenómenos de difracción e interferencia determinan la dualidad
onda-partícula no sólo de las partículas de luz, los fotones, sino más
generalmente de todas las partículas. Incluyendo las partículas materiales
que tienen una masa y que se comportan como ondas, aunque pensemos en
ellas como piezas localizadas de materia sólida.
Una pregunta que podríamos hacer es: ¿Qué sucede con una partícula si
queremos saber su paradero preciso en el espacio? Por ejemplo,
determinemos la posición precisa de una partícula dejándola pasar a través
de un minúsculo agujero, como hizo Isaac Newton con los fotones en sus
investigaciones sobre la naturaleza de la luz. Si una partícula atraviesa ese
pequeño agujero en un pedazo de papel, estamos autorizados a decir que
podemos determinar su posición precisa en el espacio. De hecho, esto puede
hacerse, pero con un costo. Porque, por otro lado, sabemos que debido a la
dualidad onda-partícula, no podemos olvidar el aspecto ondulado de la
partícula. Cuando una partícula, también una partícula material, pasa por
este estenopeico, también será difractada y después se posicionará en la
pantalla del detector según un patrón de interferencia.
Si, en lugar de tratar con rendijas, tomamos un diminuto agujero redondo de
un tamaño comparable al de unos pocos múltiplos de las longitudes de
onda, obtenemos franjas de interferencia circular. Este es un efecto
intrínseco e inevitable para todo tipo de ondas.
El agujero como detector de la posición de una partícula no puede evitar las
interferencias.
Si las partículas deben unirse a una onda, de acuerdo con la relación de de
Broglie, concibiéndola como un paquete de ondas, siempre tendremos las
franjas de interferencia, incluso con un solo agujero o rendija e incluso con
una sola partícula.
Compara los dos casos en los que el agujero determina la posición de la
partícula con una apertura de a=2λ(alta precisión) y a=20λ(baja precisión),
con , como es habitual, la longitud de onda del fotón o, en el caso de una
onda de materia, la longitud de onda de De Broglie.
Si el estenopeico es pequeño, si bien determinará la posición de una
partícula con mayor precisión, también producirá un patrón de difracción
relativamente amplio que hace incierta la posición del fotón en la pantalla.
Podemos saber con relativa precisión dónde el fotón o la partícula de
materia atravesó el trozo de papel, dentro del espacio limitado por la
abertura del agujero. Pero de todas formas se desplazará lateralmente en la
pantalla debido a los fenómenos de difracción e interferencia.
Por supuesto, con una sola partícula produciendo un solo punto en la
pantalla, no se ve ninguna figura de interferencia. Sin embargo, como
hemos aprendido con la difracción de un solo fotón en la doble rendija, la
probabilidad de encontrar este punto está en correspondencia uno a uno con
la intensidad de las franjas de interferencia que muchas partículas producen.
Además, recuerde también que no podemos predecir con precisión dónde
aparecerá este punto.
Si, en cambio, el agujero es grande, los flecos serán menos pronunciados.
Sabremos dónde el fotón choca con la pantalla con una precisión
relativamente buena, lo que significa que "sentirá" sólo un pequeño
desplazamiento a lo largo de la pantalla.
Sin embargo, al hacerlo, perderemos nuestra capacidad de determinar dónde
exactamente la partícula atravesó el agujero, ya que ya no es un agujero en
absoluto, sino un gran agujero. No hay manera, nunca, ni siquiera en
principio, de obtener la medición precisa de la posición de la partícula y al
mismo tiempo evitar la producción de franjas de interferencia (o círculos de
interferencia, como en el caso de una abertura circular o grandes efectos de
difracción). Siempre se obtendrá una distribución más o menos pronunciada
en forma de campana o de pico de manchas blancas en la pantalla. Esto no
se debe a que no tengamos un aparato de medición suficientemente preciso,
sino a que es una consecuencia de la naturaleza ondulatoria intrínseca de las
partículas. Es una ley universal de la Naturaleza, según la cual es
desesperante creer que podemos pasar una onda a través de una rendija y no
observar ningún fenómeno de interferencia y difracción.
El principio de incertidumbre de Heisenberg se explicó usando el
experimento de difracción de un solo limo (o agujero).
Ahora, esto también podría interpretarse de la siguiente manera: La
partícula, una vez que haya atravesado la rendija, adquirirá un impulso
extra, λp, a lo largo del eje vertical. Esto no ocurre por la interacción de una
fuerza exterior o, como podríamos imaginar ingenuamente, por una
interacción, desviación o efecto de rebote de la partícula con los bordes de
la rendija porque, en ese caso, observaríamos una distribución aleatoria
pero no un patrón de interferencia. Este impulso adicional.
λp que desplaza la partícula a lo largo de la pantalla de detección se debe
única y exclusivamente a la naturaleza ondulatoria de la materia y la luz.
Podríamos interpretar esto también como una "dispersión" de la partícula,
pero debemos tener en cuenta que esta es una terminología engañosa, ya
que no hay ninguna fuerza de dispersión en absoluto. No es necesaria
ninguna interacción de dispersión o fuerzas del exterior para que esto
ocurra.
¿De dónde viene esta cantidad extra de impulso λp? Es simplemente la
incertidumbre que tenemos sobre el momento de la partícula en primer
lugar. Es una incertidumbre inherente a las propiedades de cualquier
partícula debido a su naturaleza ondulatoria. Esta es la única conclusión
posible si queremos evitar la violación de los principios de la conservación
del impulso y la energía.
El punto es que nunca podremos determinar con extrema precisión
Es decir, con una rendija infinitamente pequeña de tamaño λx=0 - sin
desdibujar el impulso porque, al hacerlo, inevitablemente difractaremos el
frente de onda plano, cuya longitud de onda viene dada por la relación de
Broglie.
Esto lo desplazará inevitablemente según una ley estadística que refleja las
leyes de difracción e interferencia.
Por lo tanto, debemos concluir que cuanto menor sea nuestra incertidumbre
en la determinación de la posición de la partícula (el tamaño λx de la
rendija), mayores serán los efectos de difracción y, por lo tanto, mayor será
la incertidumbre sobre el momento. (λp se hace grande en la dirección
vertical.) Por otro lado, si quiero saber el momento de la partícula con una
pequeña incertidumbre (λp pequeña), tendremos que abrir la abertura de la
rendija (λx grande) para reducir la difracción. Sin embargo, nunca podré
determinar con precisión tanto el momento como la posición de una
partícula al mismo tiempo. Tenemos que elegir si queremos mantenernos
centrados en uno o en el otro; nunca jamás se nos permite obtener ambos.
De nuevo, esto no es porque estemos perturbando el sistema sino porque
estamos tratando con ondas.
Tenemos, sin embargo, franjas de interferencia aquí, y en principio, la
partícula puede desplazarse muy lejos del centro de la pantalla,
especialmente si la rendija se vuelve muy pequeña. Sin embargo, esto
también sucede con una probabilidad decreciente. Es mucho más probable
encontrar la partícula que choca con la pantalla en los picos blancos
centrales que en los pequeños que están lejos del centro. Por razones
prácticas, uno debe establecer un límite como convención. Por razones
estadísticas (que se aclararán en el capítulo III 3), se toma como convención
la "distribución normal" que establece que λp es el ancho de la franja
central correspondiente al 68.3% de todas las partículas que contiene. Esto
se debe a que es la región central de mayor intensidad y, por lo tanto, la
región donde tenemos la mayor probabilidad de detectar una sola partícula.
Esto se debe a que es la región central de mayor intensidad y, por lo tanto,
la región donde tenemos la mayor probabilidad de detectar una sola
partícula. De hecho, como hemos visto con la única rendija, las franjas de
interferencia secundaria más allá de la central suelen ser bastante pequeñas.
Así que, esto significa que, a una cantidad específica de λx, debemos
esperar encontrar también una cantidad específica de λp. Siempre e
inevitablemente, por las leyes de la Naturaleza.
Heisenberg pudo demostrar que el producto de estas dos cantidades
inciertas es una constante y lo resumió con su muy famosa y
extremadamente importante desigualdad, que dice:
λ · λ ≥ ℏ /2 Ec. 8
Aquí, ℏ = es la constante de Planck dividida por 2π, llamada "constante
reducida de Planck" (léase "h-bar"). Esta es una fórmula matemática para
explicar lo que hemos dicho hasta ahora: Si se obliga a que el valor de la
posición de una partícula sea ajustado, siempre tendrá una incertidumbre
sobre el impulso de λp ≥ ℏ ,
·λ
Es decir, una medición precisa de la posición de la partícula simplemente
provocará una incertidumbre sobre su momento. (Un pequeño λx induce a
λp a hacerse grande). Viceversa, si se obliga el valor del impulso de una
partícula a un rango estrecho de valores, siempre tendrá una incertidumbre
sobre la posición de λx ≥ ℏ .
·λ
Se trata de una desigualdad que puede obtenerse de varias maneras. Una
muy relacionada con esto es a través de las transformaciones de Fourier, es
decir, una herramienta matemática desarrollada por el matemático francés
Joseph Fourier (1768 -1830) que mostró cómo cada serie de tiempo (una
señal en el tiempo, como una complicada onda viajera) puede ser
descompuesta en las funciones seno y coseno de diferentes frecuencias. En
la moderna FC, la desigualdad de Heisenberg se obtiene a través de un
enfoque de la teoría del operador matemático, que es matemática y más
rigurosa, pero de alguna manera oscurece el significado más profundo del
principio de Heisenberg relacionado con la naturaleza ondulatoria de la
materia. En cualquier caso, tenga siempre presente la pequeña, pero muy
importante desigualdad de la Ec. 8, ya que aparecerá más o menos en todas
partes en la MC.
Ahora analicemos la interpretación que Heisenberg dio a su propio
principio. Lo ilustró con un famoso "experimento de pensamiento". Por
"experimento de pensamiento" (del alemán "experimento Gedanken"), en
ciencia se entiende como un experimento ideal que podría realizarse en
principio y que no viola las leyes de la física, pero que no puede llevarse a
cabo en la práctica debido a limitaciones tecnológicas u otras restricciones.
El experimento de pensamiento de Heisenberg elucida lo que hoy en día se
recuerda como "la interpretación del microscopio de Heisenberg". Es una
interpretación que, lamentablemente, también han adoptado varios físicos
profesionales (probablemente para hacerla más comprensible para el
público o, al estar ocupados sólo con cálculos, para evitar digresiones en los
fundamentos conceptuales que podrían desencadenar preguntas molestas de
estudiantes demasiado curiosos). Sin embargo, si ha seguido
cuidadosamente lo que hemos dicho hasta ahora, podrá reconocer que la
interpretación de Heisenberg es algo engañosa. Es lo siguiente.
Imaginemos que queremos detectar la posición y el momento de una
partícula en una región x usando un fotón entrante que choca con la
partícula. Por consiguiente, este fotón se dispersa hacia alguna dirección.
La antigua interpretación del microscopio de Heisenberg.
Ya hemos descrito algo similar con el efecto de dispersión de Compton.
Entonces, como fue el razonamiento de Heisenberg, podemos mirar donde
el fotón ha sido dispersado para deducir la posición del electrón.
Sin embargo, según la óptica clásica, cuanto mayor sea la apertura angular θ
del microscopio, mejor resolverá la posición del fotón disperso y, por lo
tanto, deducirá la posición del electrón. Sin embargo, esta apertura angular
depende no sólo del tamaño de la lente del microscopio, sino también de la
longitud de onda del fotón. Para tener una alta precisión en la determinación
de la dirección de donde viene el fotón, es decir, en la determinación de la
posición del electrón, debemos utilizar un fotón con una longitud de onda
corta. Sin embargo, si el fotón tiene una longitud de onda corta (alta
frecuencia), llevará más impulso porque es más energético debido a la
ecuación de Planck.
Por lo tanto, la fuerza que imparte al electrón también será mayor. Es decir,
si quiero observar la posición exacta del electrón, debo usar fotones que
producirán un gran retroceso en el propio electrón. Esto hace que su
posición sea de nuevo indeterminada. Por otro lado, si quiero determinar
con más precisión el momento de una partícula, me veo obligado a utilizar
fotones con grandes longitudes de onda porque sólo tienen un pequeño
momento y no desplazan demasiado al electrón a través de la dispersión
Compton. Pero si utilizo fotones de larga longitud de onda, la óptica del
microscopio resolverá su posición con menos precisión. Así que, de nuevo,
debemos buscar un equilibrio entre la longitud de onda que usamos (la
precisión sobre el momento p) y la apertura del microscopio (la capacidad
de mirar una posición precisa x).
En el mundo macroscópico, este efecto no juega ningún papel a efectos
prácticos porque los objetos son enormes y no son perturbados por fotones
diminutos (aunque, en sentido estricto, siempre se mantiene). Sin embargo,
para los átomos y aún más para las partículas como los electrones, un solo
fotón puede perturbarlos y dispersarlos, impidiéndonos determinar sus
propiedades. Por eso se invoca el principio de incertidumbre de Heisenberg
para explicar que, en el mundo microscópico, una medición siempre
perturba un sistema de tal manera que la escala de la perturbación de la
medición es aproximadamente de la misma magnitud del efecto que
produce y, por lo tanto, hace que el resultado sea impreciso, si no del todo
inútil.
Heisenberg fue capaz de demostrar que, razonando de tal manera, haciendo
los cálculos apropiados que recurren a la óptica clásica, pudo en efecto
obtener su famosa desigualdad sobre el impulso y posición de la Ec. 8.
El experimento de pensamiento del microscopio de Heisenberg se centra en
el siguiente punto: No podemos determinar la posición y el momento de
una partícula al mismo tiempo porque cuando hacemos una observación,
debemos inevitablemente interactuar con el objeto que queremos observar
(como enviar otras partículas de masa o energía comparable a la partícula
que se está observando). Esto inevitablemente perturba el sistema, que
entonces pierde su posición e impulso original que tratamos de determinar.
Este argumento es correcto en la medida en que cada interacción con las
partículas microscópicas inevitablemente hace que se dispersen y nos
impide conocer su posición y momento precisos. A pesar de ello, se
equivoca cuando se invoca como una reformulación que se supone que
explica el origen y la causa de la incertidumbre cuántica. Porque, eso estaría
en claro contraste con la naturaleza de onda-partícula de la materia que es y
que no necesita de ningún tipo de interacción con el mundo exterior para ser
descrita de manera consistente. Es una interpretación que no resiste las
pruebas de la FC moderna. La creencia popular de que el principio de
incertidumbre de Heisenberg se refiere a la interacción entre el observador
y el objeto observado es errónea. El principio de incertidumbre de
Heisenberg es una ley fundamental de la Naturaleza cuyas raíces se
encuentran en la naturaleza ondulada de la materia y no tiene nada que ver
con la interacción entre el aparato de medición y los objetos medidos. Por
supuesto, las interacciones e imperfecciones de los dispositivos de medición
deben tenerse siempre en cuenta en un laboratorio real, pero éstas añaden
más incertidumbre a la confusión cuántica inherente que está presente a
principio. De hecho, veremos más adelante que, por extraño que pueda
parecer, es sin embargo perfectamente posible establecer experimentos que
hagan mediciones sin interactuar necesariamente con el sistema, y sin
embargo el principio de incertidumbre de Heisenberg sigue siendo
inexcusable. También es válido en el caso de que seamos capaces de reducir
a cero cualquier interacción con el objeto observado. Es una ley inherente a
la naturaleza que es independiente de las interacciones de observación.
En la época de Heisenberg, todavía era legítimo pensar en las partículas de
esta manera. Heisenberg puede ser excusado porque varios experimentos
que mostraron cómo su propia interpretación debe ser revisada vinieron
mucho más tarde. Algunos ni siquiera antes de la década de 1990, con el
desarrollo de sofisticados dispositivos de láser y óptica cuántica. Así,
mientras que el contexto histórico y la falta de más pruebas experimentales
justifican a Heisenberg, no ocurre lo mismo con los físicos modernos. Hoy
en día, ya no podemos seguir con la interpretación del microscopio como
una comprensión correcta del funcionamiento del principio de
incertidumbre. Esto no es nada menos fundamental que el modelo atómico
de Bohr, el modelo geocéntrico o la teoría de la tierra plana.
Debemos aceptar que la naturaleza nos dice que nunca debemos olvidar la
dualidad onda-partícula. Cuando una partícula atraviesa un agujero,
debemos pensar en ello como un proceso físico descrito por una onda de
materia plana transversal, que se difracta como cualquier otra onda y
produce una frente de onda esférica.
Olvídese de los entendimientos clásicos de las partículas que poseen
propiedades definidas como una posición, y que se mueven a lo largo de
trayectorias determinantes precisas y cuentan con un momento definido. No
hay posiciones o momentos que describan una partícula.
En cambio, debemos considerar seriamente que estas son cualidades
emergentes, no propiedades intrínsecas. Las partículas no tienen en absoluto
una posición y un impulso claros y precisos como imaginamos que tienen
en nuestro nivel macroscópico y como nuestra ingenua comprensión
intuitiva quiere hacernos creer.
La FC parece sugerir que los objetos físicos que imaginamos como bolas de
billar de material duro puntiagudas son, en cambio, entidades que son
intrínsecamente algo imprecisas, sin límites agudos y bien definidos y que
viajan por el espacio como ondas que finalmente se colapsan.
La interpretación cuántica del principio de incertidumbre.
Esta naturaleza de las partículas es independiente de la precisión de nuestro
aparato de medición e independiente del hecho de que interactuemos (o no
interactuemos) al observarlo.
La indeterminación no es un asunto de ignorancia. El principio de
incertidumbre de Heisenberg no es un principio sobre la falta de
información. No se trata de partículas cuyo paradero y velocidad no
podemos determinar. Se trata de las entidades físicas que simplemente no
tienen nada que ver con nuestra imaginación antropocéntrica. Esto es lo que
distingue a la física clásica de la cuántica.

Capítulo 5: Teoría del


Campo Cuántico

La teoría de campo cuántico (TCC) integra la relatividad especial y la


mecánica cuántica, proporcionando así una descripción de las partículas
subatómicas y sus interacciones más precisa que la proporcionada por la
mecánica cuántica. En la TCC las partículas se ven como estados de
excitación del campo físico subyacente: las excitaciones del campo Dirac se
manifiestan como electrones; las excitaciones del campo electromagnético
dan lugar a fotones. Además, las interacciones de las partículas, como las
que se producen en los experimentos de colisión a alta velocidad en un
acelerador, se describen en términos perturbadores o iterativos entre los
campos cuánticos correspondientes. En cada nivel de aproximación iterativa
estas interacciones pueden destilarse en un diagrama, conocido como
diagrama de Feynman; el diagrama muestra que las interacciones de las
partículas tienen lugar mediante un intercambio de partículas mediadoras o
portadoras de fuerza. La electrodinámica cuántica (EDC) es la primera
teoría de campo cuántico que se ha desarrollado; la EDC combina la teoría
relativista de los electrones (encapsulada en la ecuación de Dirac) y el
campo electromagnético cuantificado en forma de un Lagrangiano. La EDC
Lagrangiano con la ayuda del cálculo de Feynman lleva a cálculos de
amplitud de dispersión; estos cálculos representan las predicciones físicas
más precisas de toda la física. Basta con decir que sin la TCC no tendríamos
la comprensión de la física de partículas que tenemos hoy en día. Es común
ocuparse en la TCC una vez que se ha pasado por la mecánica cuántica y la
teoría especial de la relatividad. Al mismo tiempo, la TCC está considerada
como una de las materias más difíciles de la física moderna... la teoría
parece a veces artificiosa e innecesariamente compleja, mezclando un
conjunto dispar de ideas en una serie de cálculos difíciles. Este libro es una
modesta pero rigurosa introducción a la TCC: es modesta en su cobertura
(trabajamos casi exclusivamente con la teoría de campo escalar y la EDC;
además, el tema de la renormalización se discute tan sólo de manera
pasajera); es rigurosa en el sentido de que a menudo se proporciona una
derivación matemática detallada junto con una serie de ejemplos
elaborados. He intentado proporcionar una introducción concisa y
comprensible a la TCC sin abandonar el concepto de rigurosidad
matemática. Los prerrequisitos matemáticos para el libro consisten en
álgebra tensorial, análisis de Fourier y teoría de la representación; los
prerrequisitos de física son un curso de mecánica cuántica y relatividad
especial. Estos requisitos previos se tratan, a menudo sin pruebas, pero
siempre con ejemplos, en los dos primeros capítulos del libro. Equilibrar el
objetivo de la legibilidad y el de la precisión es un desafío cuando se
escribe sobre física moderna, especialmente en un número limitado de
páginas.

Capítulo 6: El Átomo de Hidrógeno

Sommerfeld introdujo un segundo número cuántico, el "orbital" (o


‘azimutal') número cuántico l, que para cada número cuántico principal n
especifica n momentos angulares orbitales permitidos del electrón alrededor
del núcleo del átomo (l=0, 1, 2...n-1, y designado como s, p, d, f, g,...), y
que caracteriza la relación entre el semieje mayor y el semieje menor, es
decir, la elongación de la órbita del electrón correspondiente.
Esto fue un éxito bastante emocionante en ese momento, ya que parecía
indicar que los físicos estaban tras algo que podría dirigirlos en la dirección
deseada. Sin embargo, muchas inconsistencias pronto se hicieron evidentes.
El modelo de Bohr-Sommerfeld fue capaz de hacer estas predicciones con
una precisión limitada y, en cualquier caso, sólo para los espectros de
hidrógeno. Una teoría tan simple no puede explicar todos los demás
elementos de la tabla periódica, ni tampoco puede explicar los niveles de
energía molecular y estructura.
Fue un intento de explicar el comportamiento atómico y los estados de
energía. Es, de hecho, un interesante residuo histórico del viaje intelectual
de la humanidad, y tenía perfecto sentido cuando se lo consideraba en ese
contexto histórico.
Sin embargo, ya no es sostenible hoy en día. Por desgracia, todavía se
enseña en las universidades como si fuera la frase final y la suma de la
física atómica.
Y fue un buen ejemplo que demuestra que algunas teorías pueden realizar
nuevas predicciones correctas y aun así estar equivocadas. Esto es algo que
muchos científicos parecen olvidar, pero que debemos tener siempre en
cuenta cuando trabajamos con teorías modernas.
El modelo de hidrógeno de Bohr-Sommerfeld (n=5). Arnold Sommerfeld
(1868-1951).
La MC explicará las cosas con mucha más precisión, como veremos más
adelante. Sólo con el surgimiento de la CF y su aplicación a la estructura
atómica, la ciencia pudo predecir correctamente los espectros atómicos. El
modelo atómico que surge de la MC será completamente diferente del de
Bohr, que podría ser considerado sólo un bosquejo temporal, como el
mismo tuvo que admitir.
4. Aún más evidencia de partículas: el experimento de Franck-Hertz, la
dispersión Compton y la producción de pares.
Otra clara y agradable pieza de evidencia experimental de que los átomos
deben tener niveles de energía discretos llegó sólo un año después, desde el
conocido 'experimento de Franck-Hertz'. G.L.Hertz era el sobrino de
H.R.Hertz, el físico alemán mencionado como el descubridor del efecto
fotoeléctrico.
El mecanismo experimental consiste en átomos de gas Hg (Hg es el
símbolo del elemento mercurio) dentro de una bombilla de baja presión. Un
cátodo eléctrico, es decir, algo como el filamento calentado de una
bombilla, emite electrones.
Por lo tanto, esta parte del dispositivo no sólo emite luz sino también
partículas cargadas negativamente. Se aplica un campo eléctrico entre el
cátodo emisor de electrones y una rejilla de polo positivo, con una batería o
alguna otra fuente de electricidad, que construye un potencial eléctrico.
Gustav Ludwig Hertz James Franck (1887-1975). (1882-1964).
Debido a su carga negativa, esta diferencia en el campo de potencial
eléctrico conduce a la aceleración de los electrones y les transmite cierta
energía cinética (como recordarán de la universidad, las cargas con la
misma polaridad se repelan mientras que las de polaridad opuesta se atraen
entre sí). Cuando los electrones lleguen a la rejilla, la mayoría de ellos
atravesarán rápidamente porque la malla de la rejilla se mantiene lo
suficientemente ancha para permitirlo.
La configuración del experimento de Franck-Hertz de 1914.
Sin embargo, en esta segunda parte de su trayectoria, experimentarán un
campo eléctrico inversamente polarizado ya que, después de pasar la rejilla,
serán repelidos porque comenzarán a "sentir" la placa colectora cargada
negativamente.
Mide la corriente eléctrica (el número de electrones), se puede medir el
flujo de electrones que fluyen entre la rejilla y la placa colectora. Mientras
que la energía inicial de los electrones es proporcional a la intensidad del
campo eléctrico aplicado (el voltaje) entre el cátodo emisor y la rejilla, en
esta segunda parte, se desaceleran debido a la polaridad opuesta. La
medición de la corriente, por lo tanto, permite determinar el número de
electrones que llegan a la placa colectora, que proporciona información
sobre cómo su energía es afectada por los átomos mientras vuelan a través
del gas en esta segunda parte del bulbo. Esto se hace variando ese campo,
paso a paso, con varios voltajes.
La idea de Franck y Hertz era que, mientras viajaban a través del gas de los
átomos, varios electrones debían, tarde o temprano, chocar con uno o más
átomos y dispersarse de forma elástica o inelástica. La "dispersión
elástica" significa que cuando los objetos con un objetivo, cambian de ruta,
pero mantienen la misma energía cinética. Mientras que la "dispersión
inelástica" implica que pierden parte o toda su energía cinética en el
proceso de colisión (más sobre esto en el Apéndice A III). De ello se
deduce que debe haber una diferencia medible entre la energía de los
electrones inyectados que llegan a la rejilla y la energía de los que viajaron
a través del gas, chocando con la placa colectora. Esta diferencia se aclara
para el observador midiendo la corriente entre la rejilla y la placa colectora.
Esta brecha de energía nos dice algo sobre la energía absorbida por los
átomos en el gas.
Por lo tanto, si los átomos absorben energía sólo en forma de cuantos, esto
implica que, mientras aumentamos lentamente la energía cinética de los
electrones inyectados, deberíamos ser capaces de observar cuándo y en qué
grado la energía de los electrones es absorbida por el gas de los átomos de
Hg.
Mientras que la energía cinética de los electrones inyectados aumenta
constantemente por la aplicación de un potencial eléctrico de 0 a unos 15 V
entre el cátodo y la rejilla (eje horizontal), la corriente de los electrones
medida en la placa colectora (eje vertical) aumenta en consecuencia, aunque
no de forma lineal. Observamos que los electrones no tienen una energía
cinética final que aumenta proporcionalmente a la energía de entrada de los
electrones, según lo que se esperaría para una dispersión elástica entre los
objetos clásicos (pensemos, por ejemplo, en las bolas de billar). Lo que
vemos en cambio es que al principio (entre 0 y 4 V), la relación entre la
energía de entrada y la de salida es aproximadamente lineal, lo que significa
que los electrones se dispersan elásticamente a través del gas; no pierden
una cantidad considerable de energía cinética.
A unos 4.5 V, aparece el primer abultamiento. Entre 4 y 5 V, la energía de
salida de los electrones disminuye constantemente, a pesar de su aumento
de energía inicial. Esto indica una dispersión inelástica: Parte de la energía
inicial de los electrones debe haber sido absorbida repentinamente en
colisiones con los átomos de Hg.
Sin embargo, esto no ocurre antes de que un cierto límite de energía cinética
de los electrones choca con los átomos de Hg. A unos 5.8 V, casi toda la
energía cinética se pierde y va a la excitación interna de los átomos. Sin
embargo, hay una brecha de energía mínima restante que se muestra en la
figura con la flecha vertical. La diferencia entre el primer punto culminante
y el primer mínimo es la cantidad máxima de energía cinética que los
átomos son capaces de absorber de los electrones. Por lo tanto, proporciona
el primer nivel de energía excitada del átomo de Hg. Luego, después de
unos 6-9 V, la energía comienza a aumentar de nuevo, lo que significa que
los átomos absorben sólo esa cantidad discreta de la energía de los
electrones, pero no más que eso. La energía restante va de nuevo a la
dispersión elástica. Todo esto se repite regularmente a unos 9-10 V y unos
14 V.
La existencia de estos "abultamientos" a diferentes energías de entrada
(hasta hoy, la física experimental de partículas trata de la búsqueda de
abultamientos que aparecen en los gráficos) significa que los átomos deben
tener varios niveles de energía diferentes pero discretos. La de Franck-Hertz
fue la primera prueba experimental directa que confirmó la idea de Planck
de que la materia absorbe energía en cuantos discretos.
Además, esto validó las líneas espectrales discretas de los espectros de luz,
como lo hizo la idea de Bohr. De representar los átomos en forma de un
modelo que se asemeja a un diminuto sistema solar, es decir, con electrones
que se mueven sólo en órbitas específicas con sus respectivos números
cuánticos que representan niveles de energía diferentes pero discretos.
Pocos años después, otros tipos de fenómenos confirmaron la cuantificación
de la energía en la Naturaleza. Una de ellas, en 1923, fue la llamada
"dispersión Compton", documentada por el físico americano A.H.
Compton.
Compton también partió del supuesto de que las ondas EM podrían
considerarse un flujo de partículas de luz. Si esto fuera cierto, entonces
sería posible calcular con precisión el proceso de dispersión entre un solo
fotón y un electrón, al igual que es posible describir las colisiones elásticas
entre dos bolas de billar, utilizando las sencillas leyes de conservación de la
energía y el momento de la física clásica.
Ahora bien, utilizando estas leyes de conservación, Compton redactó una
fórmula concisa y útil. Relaciona la (1892-1962) longitud de onda de un
fotón de rayos gamma de alta energía entrante (un fotón con una longitud
de onda suficientemente pequeña para ser comparable al tamaño de un
electrón) antes de la dispersión con el electrón, y la longitud de onda λ' del
fotón disperso, según un ángulo de dispersión. La longitud de onda λ' del
fotón disperso debe ser mayor que la del entrante, ya que pierde parte de su
energía. Esto se debe a que cuanto mayor sea la energía de un fotón, menor
será su longitud de onda. De hecho, recuerde que la energía de un fotón
viene dada por la ecuación de Planck = h λ, con λ la frecuencia. La longitud
de onda λ de una onda EM viene dada por =, con = 3 10 (ca. 300.000 km/s),
la velocidad de la luz en el vacío. Así, la longitud de onda que asociamos a
un fotón debe ser inversamente proporcional a su energía como:
= ℎ λ = ℎ . Ec. 3
El proceso de dispersión de Compton.
Esta este punto, el lector podría estar algo confundido por el hecho de que
estamos hablando de partículas de luz, que se supone que son objetos
puntuales, y sin embargo seguimos tratándolas (e incluso representándolas
gráficamente) como ondas que tienen una longitud de onda específica. De
nuevo, como ya hemos visto con el efecto fotoeléctrico, la Naturaleza
parece jugar con esta ambigüedad. Parece como si la luz, o cualquier
energía EM viajando por el espacio, pudiera ser pensada como una onda y,
debido a que la materia la absorbe y la emite en forma de cuantos, de
energía discreta, también como una partícula. Aclararemos el significado
más profundo de esta "dualidad" en las próximas secciones. Por ahora, por
favor acéptelo con fe y siga la línea de razonamiento y fenomenología de
estos experimentos históricos, que se convirtió en el fundamento de todo lo
que se explicará más adelante.
Poniendo todo esto junto, en 1923 Compton fue capaz de predecir una
relación muy estricta entre la diferencia de longitud de onda de los fotones
entrantes y dispersos y el ángulo de dispersión. Cullo es el desplazamiento
de longitud de onda Δ que sufre la radiación cuando es dispersada por la
materia. La fórmula de Compton era la siguiente:
Δ = - = (1 - cos).
Aquí = es una constante y es la masa de la partícula de dispersión, en este
caso el electrón.
Note que, si es cero, no tenemos ninguna diferencia, lo que significa que el
fotón pasa directamente sin dispersión y sin cambio de frecuencia. Mientras
que para =180°, para la retrodispersión, la longitud de onda aumenta el
doble de la longitud de onda de Compton. La relación exacta entre las
longitudes de onda de entrada y salida (o energías) de las partículas y su
respectivo ángulo de dispersión se verificó experimentalmente, y resultó
que las predicciones de Compton se cumplieron con precisión. Este es un
gran ejemplo histórico del triunfo de la física teórica confirmado por la
verificación experimental, de cómo, en la historia de la ciencia, hemos
encontrado que a veces primero vienen las matemáticas y luego viene la
verificación en el laboratorio (aunque a veces ocurre lo contrario).
La dispersión Compton también es un proceso de dispersión atómica. Esto
sugiere una explicación de cómo los fotones pueden ionizar átomos. Para
ionizar un átomo significa que un fotón extrae un electrón de la órbita
exterior de un átomo alrededor de su núcleo. Una partícula de luz con una
frecuencia suficientemente alta puede ser absorbida por uno de los
electrones, de modo que el electrón adquiere una cierta cantidad de energía
cinética y puede eventualmente ser removida superando el potencial de
fuerza atómica que la mantiene unida al núcleo. Sin embargo, un fotón de
rayos gamma puede ser tan penetrante que puede ionizar incluso las
envolturas internas de los electrones y transferir parcial o completamente su
energía EM al electrón, que adquiere el momento y la energía cinética del
rayo gamma y que por esta razón también se denomina "fotoelectrón"
(como en el efecto fotoeléctrico). Noten sin embargo que el fotoeléctrico y
el efecto Compton son dos procesos físicos muy diferentes. El primero
extrae los electrones de una red metálica; y el otro es un proceso de
dispersión profunda que puede "expulsar" los electrones contenidos en las
capas internas de un átomo.
Un solo fotón de alta energía también puede ser dispersado por varios
átomos y perderá su energía con cada colisión repetida. Un fotón de alta
energía y pequeña longitud de onda (alta frecuencia) puede convertirse, a
través de múltiples dispersiones por las que pierde un poco de su energía en
cada colisión, en un fotón de baja energía y gran longitud de onda (baja
frecuencia).
Esto es precisamente lo que sucede en el centro del Sol. En el núcleo del
Sol, que tiene una temperatura de unos 16 millones de grados, hay una
enorme cantidad de radiación gamma. Sin embargo, toma varios millones
de años de procesos de dispersión antes de que los fotones producidos en el
interior del Sol lleguen a su superficie, para entonces ya han perdido la
mayor parte de su energía siendo "degradados" a los fotones que
conocemos como luz visible. La luz que observamos hoy proveniente de la
superficie del Sol fue una vez una intensa radiación de espuma de fotones
gamma en su interior.
Dispersión Compton de los electrones de la capa atómica externa.
Lo que hace que la dispersión Compton sea tan importante e interesante
para nuestras consideraciones aquí es que todo esto parece sugerir de nuevo
que podemos pensar razonablemente que las ondas EM ya no son ondas en
absoluto, sino más bien en el contexto de partículas de luz, o fotones,
girando alrededor de otras partículas como pequeñas bolas de billar.
Si nos atenemos a la idea clásica de que la luz está hecha de ondas,
deberíamos observar una dispersión de ondas concéntricas por el electrón
(piense en las ondas de agua dispersas por un objeto). La dispersión de
Compton indica en cambio que la aplicación de las leyes de conservación
de la física clásica, que determinan la dispersión entre las partículas
clásicas, se mantiene también con los fotones. Por lo tanto, ya no hay
ninguna razón para rechazar una "imagen de partículas" en MC en favor de
la "imagen del oleaje".
Otro efecto que vale la pena mencionar es el efecto de "creación de pares"
, que puede ocurrir como una alternativa a la dispersión Compton. La
creación de pares es un fenómeno físico por el cual un fotón de alta energía
sin masa se convierte en partículas con masa. En lugar de que el fotón y el
electrón se dispersen, lo que ocurre en este caso es la absorción del fotón
(por otra partícula o núcleo del átomo) y una liberación inmediata de su
energía en forma de partículas materiales.
El efecto de creación de pares fue descubierto en 1933 por el físico
británico P. Blackett. Este fenómeno muestra claramente que debemos
concebir la luz no sólo como hecha de fotones sino también en el contexto
de que los fotones pueden transformarse en otras partículas materiales,
como los electrones.
La creación de pares, o incluso la "aniquilación" , que es el proceso
opuesto por el cual las partículas con masa se convierten en fotones, es un
ejemplo sorprendente de la equivalencia masa-energía de Einstein. La
cual se describe en su famosa fórmula donde m es la masa de reposo de
una partícula, y que también se llama "energía de reposo" (en relatividad, la
masa de un objeto de movimiento rápido no puede ser manejada como la
masa de reposo clásica, pero no profundizaremos más en esto aquí) y, de
nuevo, c es la velocidad de la luz. La equivalencia masa-energía nos dice
que cada partícula, átomo y cualquier objeto material con masa contiene
una energía en forma potencial que viene dada por la fórmula de Einstein.
El hecho de que factorice la velocidad de la luz al cuadrado hace que la
cantidad de energía contenida en la materia sea enorme.
Sólo un gramo de materia, si se convierte en energía cinética, causaría una
explosión como la de la bomba de Hiroshima.
Este proceso, sin embargo, sólo puede ocurrir si la energía del fotón
entrante es lo suficientemente grande como para producir los dos electrones
según la fórmula de equivalencia de masa-energía de Einstein. Si la energía
del fotón es inferior al doble de la energía restante de dos electrones, el
proceso no puede ocurrir y el fotón no será absorbido, sino que finalmente
se dispersará.
Creación del par (izquierda): un fotón gamma se convierte en un electrón y
un antielectrón. Aniquilación de parejas (derecha): un electrón y un
antielectrón se convierten en dos fotones gamma.
Afortunadamente, por alguna razón que aún no está del todo clara, el
Universo en el que vivimos está hecho casi completamente de un tipo de
partícula. De lo contrario, ya nos habríamos "evaporado" en un Universo
espumoso donde las partículas se aniquilan y se crean continuamente y las
estrellas, los planetas y, por supuesto, la vida, al menos tal y como la
conocemos, no podrían haberse formado en primer lugar.
Hasta ahora, hemos enumerado varios fenómenos que indican cómo se
absorbe y se emite la energía de manera cuantificada y que, por lo tanto,
condujeron a una interpretación corpuscular de la luz. La radiación de
cuerpo negro, el efecto fotoeléctrico, el experimento de Franck-Hertz, el
efecto Compton, y la creación y aniquilación de parejas pueden verse en
este contexto.
Capítulo 7: Teoría de la
Relatividad de Einstein

Curiosamente, la "relatividad" era sólo uno de los dos nombres que Einstein
consideraba para describir su teoría. "Invariancia" era otra, y hablaba a
menudo de su "teoría de la invariancia". Si el agujero es pequeño, si bien
determinará la posición de una partícula con mayor precisión, también
producirá un patrón de difracción relativamente amplio que hace incierta la
posición del fotón en la pantalla. Podemos saber con relativa precisión
dónde el fotón o la partícula de materia atravesó el trozo de papel, dentro
del espacio limitado por la abertura del agujero. Pero de todas formas se
desplazará lateralmente en la pantalla debido a los fenómenos de difracción
e interferencia.
Fue su compañero físico Max Planck, quien descubrió la constante de
Planck y junto con Einstein ayudó a intuir todo el marco de la física teórica
en la que nos basamos hoy en día, quien estableció su destino refiriéndose a
la teoría como "relatividad" en sus propias publicaciones.
Las ecuaciones de Maxwell contienen la velocidad de la luz. Normalmente
las velocidades siempre están relacionadas con algo, son "relativas".
Conduzco a 150 km/h en relación con el asfalto de la autopista. El Porsche
que me adelanta conduce en relación a mí con 80 km/h. Sin esta referencia,
el valor de una velocidad no tiene valor. Pero en las ecuaciones de Maxwell,
la velocidad de la luz aparece sin ninguna referencia. Esto podría
interpretarse como la velocidad de la luz en relación con el éter. Después de
que se descartó, Albert Einstein concluyó a partir de la referencia que
faltaba que la velocidad de la luz es siempre la misma. Sin importar cuán
rápido nos movamos. Esta es la clave de la teoría especial de la relatividad
que publicó en 1905.
Si uno vuela detrás de un rayo de luz al 99% de la velocidad de la luz, se
alejará al 100% de la velocidad de la luz y no al 1%. Esta constancia de la
velocidad de la luz tiene grandes consecuencias: Cuanto más rápido me
muevo en relación con un observador, más lento fluye mi tiempo para él y
más corto le parece mi cuerpo en la dirección del movimiento. Pero, yo
mismo no lo noto. Los cambios en cuanto a mi tiempo y extensión sólo son
perceptibles por el observador. Pero, si noto los mismos cambios en él.
Todo esto se deriva de la constancia de la velocidad de la luz. Además,
también representa la mayor velocidad en absoluto. Nada puede moverse
más rápido que la velocidad de la luz.
En 1905 Albert Einstein todavía era un empleado de la Oficina de Patentes
de Berna. Su título era "Experto Técnico de 3ª Clase". Además de la teoría
especial de la relatividad, ubo publicado otros tres trabajos innovadores ese
mismo año. Y también presentó su tesis doctoral. Es por eso que 1905 es
conocido como el "año milagroso" de Einstein. Uno de los otros tres
trabajos fue la explicación del efecto fotoeléctrico. Proporcionó una
importante visión para el desarrollo de la teoría cuántica, como explicaré en
el próximo capítulo. Más tarde, sin embargo, Einstein fue su vehemente
adversario, considerándolo incompleto hasta el final de su vida.
Nos acercamos al final de la física clásica y al inicio de la teoría cuántica.
Aunque ambos temas se interceptan en el transcurso del tiempo. El último
capítulo de la física clásica es la teoría general de la relatividad. Albert
Einstein lo publicó en 1915. La teoría cuántica, por otro lado, como verán
en el siguiente capítulo, comenzó en el año 1900.
La teoría especial de la relatividad se ajusta maravillosamente a las
ecuaciones de Maxwell, porque según ellas, los cambios en los campos
electromagnéticos y por lo tanto los cambios en los efectos sobre otros
cuerpos siempre se propagan con la velocidad de la luz. Sin embargo, en la
ley de la gravedad de Newton hay un efecto instantáneo de larga distancia.
La Tierra, por ejemplo, atrae a la Luna. Si la tierra explotara de repente, la
luna lo notaría sin demora. A Newton no le gustó eso y, de hecho,
contradice masivamente la teoría especial de la relatividad. En 1907
Einstein comenzó a buscar una alternativa, cuando todavía era un empleado
muy desconocido en la Oficina de Patentes de Berna. Años después, en
1915 se completó la teoría general de la relatividad, que también se puede
llamar la teoría de la gravitación. Para entonces ya era un profesor muy
respetado en Berlín.
La teoría general de la relatividad consiste en matemáticas mucho más
complicadas que la teoría especial de la relatividad. Ya que Einstein era,
como ya se ha dicho, mejor físico que matemático, el desarrollo del
formalismo matemático le causó grandes dificultades. Necesitaba el apoyo
de los matemáticos de los que era amigo. Einstein ha hecho pensamientos
fundamentales sobre la gravedad y ha concluido finalmente que no es una
fuerza en absoluto. Más bien, todos los cuerpos cambian el espacio y el
tiempo a su alrededor. Este es el famoso espacio-tiempo curvo. Es esta
curvatura la que lleva a la atracción gravitacional entre los cuerpos.
Representa un campo, como el campo electromagnético. Y todas las
perturbaciones se propagan a la velocidad de la luz, estas se llaman ondas
gravitacionales. Su existencia podría demostrarse en 2015.
Albert Einstein recibió el Premio Nobel en 1921. Pero no por sus dos
teorías de la relatividad, sino por la explicación del efecto fotoeléctrico. Las
dos teorías de la relatividad nunca fueron apreciadas en forma
correspondiente por medio el Comité del Premio Nobel. Pero, por cierto,
con el dinero del premio pagó su divorcio.
Según la física clásica (excepto la ley de la gravedad de Newton), todas las
fuerzas se transfieren de un cuerpo a otro a través de un agente. A través de
las ondas electromagnéticas, por ejemplo. Y la máxima velocidad de
transmisión es la velocidad de la luz. Esto se llama el principio de
"localidad". Porque toda fuerza ejerce su efecto sólo cuando el agente
transmisor ha llegado "al local". Seguro ya lo sospechas, con la teoría
cuántica este principio de localidad ya no se aplica. No es local. Esto puede
verse en el entrelazamiento, el fenómeno más espectacular de todos. Esto es
comprensible, ya que justificó la localidad con sus teorías de la relatividad.
Llamó al enredo la "acción espeluznante a distancia". Para él, era absurdo y
le mostró que la teoría cuántica debe ser incompleta. Einstein ya no vivió
para verlo, pero mientras tanto se pudo probar experimentalmente el
enredo. Una vez que se equivocó, la acción espeluznante hasta cierto punto
realmente existe. Sin embargo, no hay ningún rastro de una explicación
para ello hasta ahora. Lo cual, como en el caso de la conciencia, se debe a la
actual visión científica del mundo. Está incompleta y necesita ser
complementada.

Capítulo 8: Experimentos Populares

Teoría del Campo Unificado


En el pasado, campos de interacción o fuerzas aparentemente diferentes
parecían haberse unificado. Por ejemplo, James Clerk Maxwell combinó
efectivamente el magnetismo y la electricidad en el electromagnetismo en
el siglo XIX. En los años 40, la electrodinámica cuántica tradujo su
electromagnetismo en los términos y ecuaciones matemáticas de la
mecánica cuántica. Durante las décadas siguientes, los físicos unificaron
con éxito las interacciones nucleares, tanto fuertes como débiles, junto con
la electrodinámica cuántica para crear el Modelo Estándar de la Física
Cuántica.
Entonces, ¿cuál es el desafío para los científicos? El problema de la teoría
del campo unificado es que la gravedad se explica mejor con la teoría de la
relatividad general de Einstein. Pero las otras tres interacciones
fundamentales y su naturaleza mecánica cuántica se explican mejor con el
Modelo Estándar.
Como veremos más adelante, esta ilusoria teoría ha sido considerada como
una especie de santo grial, pensado para resolver varios problemas
diferentes en cuanto al número de teorías de cuerdas. Al igual que
responder a las preguntas que resultan de la incapacidad de encontrar una
ecuación que combine las cuatro fuerzas fundamentales.

Radiación del cuerpo negro


En 2009 empecé a observar más de cerca nuestra conciencia. ¿Cómo se
genera? Eso es un verdadero misterio único. Hay muchos misterios. Por
ejemplo, la hasta ahora imposible combinación de la teoría cuántica con la
relatividad general. O el misterio del origen de la vida y el cáncer. Pero para
todos estos misterios hay al menos propuestas para una resolución. Con la
conciencia es muy diferente.
¿Qué es la conciencia? Algunos dicen que es lo que aparece cuando nos
despertamos por la mañana y desaparece cuando nos dormimos por la
noche. Donde somos conscientes también mientras soñamos cuando
dormimos. La característica especial de soñar es que no hay ni una entrada
de los órganos sensoriales ni una salida a los músculos. Más bien, el cerebro
está totalmente ocupado consigo mismo.
Generalmente se acepta la definición de la conciencia como una
experiencia. Uno experimenta lo que viene de los órganos sensoriales y del
cuerpo. Pero también se experimentan recuerdos y pensamientos abstractos.
Esto va acompañado de sentimientos y emociones, que también forman
parte de nuestra conciencia. Todo esto se entiende por "experiencia". A lo
que se suele añadir que es una experiencia "subjetiva". Porque no es
perceptible para los que son ajenos a ella. Sólo yo mismo sé de mi
experiencia. Puedo informar sobre ello, pero no es posible que mi colega
juzgue si lo que digo es cierto. De ahí la adición de "subjetivo".
Toda nuestra existencia consiste completamente en nuestra conciencia.
Porque sólo conocemos la experiencia relacionada con ella, no conocemos
nada más. Si la conciencia desaparece, entonces la percepción de nuestra
existencia también desaparece. Sin conciencia, no sé de mi existencia. Lo
que demuestra que es para nosotros el fenómeno más importante de todos.
Por eso mismo, la gente siempre se ha preguntado cómo se creó la
conciencia. Los neurocientíficos y los filósofos se han preguntado esta
cuestión de manera particularmente intensa, y continúan haciéndolo. Los
neurocientíficos están convencidos que la conciencia es creada enteramente
por el cerebro. Desafortunadamente no pueden ni siquiera empezar a
mostrar cómo se realiza esto. Pero lo que tenemos por seguro, es que hay
una conexión entre la conciencia y el cerebro. La conciencia es
completamente dependiente de la actividad cerebral. Si se cambia
bruscamente, como en el caso del sueño profundo o la anestesia, entonces la
conciencia desaparece.
Los neurocientíficos aún no se han acercado a la conciencia en sí misma, es
decir, a cómo llega a la experiencia asociada a ella. Sin embargo, han
progresado. En los últimos años han logrado encontrar los llamados
correlatos de la conciencia. Esto significa que ciertas características de la
actividad cerebral muestran que está asociada con la conciencia. Volveré a
ese tema más adelante.
Ahora, a los filósofos. Ellos intentan rastrear la conciencia a través del
pensamiento puro. No del todo infructuoso, como veremos en consiguiente.
Hay dos facultades de pensamiento. Uno de ellos es el dualismo, que hoy en
día sólo juega un papel secundario. Se remonta al francés René Descartes
(1596-1650), que era muy versátil ya que era abogado, matemático, físico y
filósofo. Pero también un soldado en la Guerra de los Treinta Años.
Descartes, en cualquier caso, dijo que la mente y la materia son dos cosas
completamente diferentes. No distinguía entre mente y conciencia. Esto
sigue siendo muy común hoy en día. Según Descartes, la materia se
expande, por lo que puede ser percibida con los sentidos. La mente, por otra
parte, no está extendida, por lo que no se puede percibir directamente. Esto
es el dualismo. Para sus seguidores, la conciencia está completamente
separada de toda la materia, especialmente del cerebro. El principal
problema del dualismo es que no puede explicar cómo interactúa la
conciencia con el cerebro. Entonces, ¿por qué se observa una estrecha
relación entre la conciencia y el cerebro? Por esta razón el dualismo hoy en
día sólo juega un papel secundario.
La segunda escuela de pensamiento es el monismo. En su versión estándar,
dice que la conciencia es una propiedad de la materia. Y de la materia
exactamente como es descrita por la física. Por lo tanto, la versión estándar
del monismo también se llama fisicalismo. Detrás de esto está la idea de
que toda la realidad es capturada por la física. Incluyendo la conciencia. Sin
embargo, el fisicalismo también tiene un gran problema. Porque no puede
empezar a explicar cómo la experiencia subjetiva de la conciencia emerge
de la física, por ejemplo, la experiencia del rojo de un atardecer. Esto es lo
que el filósofo australiano David Chalmers (nacido en 1966) llama el
"problema difícil" [18] .
Pero hay una versión del monismo que proporciona un pequeño rayo de
esperanza. Digamos que proporciona la idea de una solución. Este es el
llamado monismo de doble aspecto.
Examinemos un electrón. ¿Que "es" un electrón? La física proporciona sus
propiedades inalterables, que son la carga eléctrica, la masa y el espín.
Cuando la física habla de un electrón, se refiere al conjunto de sus
propiedades inalterables. Pero sólo muestran lo que un electrón "hace", es
decir, cómo afecta a otros objetos y viceversa es influenciado por ellos. Esto
es bastante razonable, porque sólo podemos ver lo que la materia "hace".
Por lo tanto, esto es exactamente lo que se puede extraer de la materia con
los métodos de la física. Pero muchos filósofos y también algunos físicos
sospechan que esto no puede ser toda la verdad. Tal vez la física entrega
con respecto a la materia sólo la superficie de una sustancia. Llamemos a la
superficie la naturaleza externa de la materia y a la sustancia su naturaleza
interna. Representa lo que la materia "es". En cuanto a la sustancia, la física
debe permanecer en silencio. Pero es más fundamental porque sin la
sustancia no hay superficie. Por lo tanto, es muy importante la naturaleza
externa de la materia creada por su naturaleza interna.
El filósofo, matemático y lógico británico Bertrand Russell (1872 - 1970)
también asumió que la materia tiene una naturaleza interna. Pero él fue un
paso más allá, porque puso en juego la conciencia. En 1950, en su ensayo
"Mente y Materia", dijo lo siguiente: "No sabemos nada sobre la naturaleza
interna de las cosas. A menos que nuestra conciencia nos diga algo al
respecto".
Esta es precisamente la base del monismo de doble aspecto. En efecto, sólo
hay materia, de ahí la expresión "monismo". Pero tiene dos aspectos, uno es
físico en la forma de la naturaleza externa. La otra es la naturaleza interna, a
la que la física no puede decir nada, pero de la que surge el aspecto físico de
la materia. La naturaleza interna está estrechamente conectada con la
conciencia, esta es la declaración básica del monismo de doble aspecto.
Más allá he dicho que la versión estándar del monismo es el fisicalismo.
Asume que toda la realidad es capturada por la física. Esto, por supuesto,
también incluye la conciencia, pero hasta ahora la física no ha sido capaz de
explicarla, este es el "problema difícil". El monismo de doble aspecto es
diferente. No todo es físico, sólo proporciona un aspecto de la materia, a
saber, su naturaleza externa. Hay otra que no es física, es la naturaleza
interna de la materia. Proporciona la base para la conciencia.
Hay dos variantes del monismo de doble aspecto, una radical y otra
moderada. Para la variante radical, la naturaleza interna de la materia ya
representa la conciencia. La experiencia conectada con ella, por lo tanto,
consiste en la naturaleza interna. La cuestión decisiva, sin embargo, es si la
variante radical está en armonía con la conciencia humana. La naturaleza
interna de cada átomo y molécula de nuestro cuerpo contribuye entonces a
nuestra experiencia, proporciona una micro experiencia. Existen dos
problemas. En primer lugar, tenemos una experiencia estructurada pero
uniforme. Entonces, ¿cómo se unen las innumerables micro experiencias?
Esto se llama el problema de la combinación y su solución no está nada
clara. En segundo lugar, nuestra experiencia se centra en el cerebro. ¿Qué
suprime el resto del cuerpo? Aquí también, no hay ningún rastro de alguna
explicación. Llamémoslo el problema de la dominación.
Para la variante moderada, la naturaleza interna de la materia consiste en la
proto conciencia, por lo que es una etapa preliminar de la conciencia. Pero
sigue sin estar claro cómo la proto conciencia se convierte en conciencia.
Sin embargo, este enfoque es mucho mejor en su principio. Porque la
experiencia no está simplemente "ahí" como en la variante radical. Más
bien, se genera por un proceso que hace que la conciencia salga de la proto
conciencia y sólo esto conduce a una experiencia. Aunque el proceso es aún
desconocido, es concebible que pueda ser vinculado a los procesos en el
cuerpo, incluyendo el cerebro. Y el vínculo puede tal vez resolver la
combinación y el problema de la dominación. Ambos problemas también
están presentes en la variante moderada.
La solución del misterio del entrelazamiento
Como dije anteriormente, en 2009 empecé a tratar con el tema de nuestra
conciencia. Y, por supuesto, quería mostrar cómo está creada. El monismo
moderado de doble aspecto se convirtió en mi punto de inicio. Pero la
existencia de la naturaleza interna ha sido hasta ahora especulativa. Así que
mi primer paso tenía que ser mostrar que la naturaleza interior realmente
existe. Hay un acercamiento: Si realmente existe, entonces uno debe asumir
que la naturaleza externa es creada por ella. Esto establece una conexión
entre la naturaleza interna y la física. ¿No podría utilizarse esto para una
validación indirecta? Eso significa que un misterio fundamental tiene que
ser resuelto con la naturaleza interna. Para esto, elegí el entrelazamiento,
junto a la conciencia el enigma más misterioso de todos los tiempos.
Inmediatamente me quedó claro que, para resolver el misterio del
entrelazamiento, el mundo espacial y el presunto mundo no espacial deben
estar íntimamente ligados. ¿Pero cómo es la relación? Se me ocurrió una
idea: La naturaleza interna no está en el mundo espacial sino en el no
espacial. Y ya que crea la naturaleza externa que está por supuesto en el
mundo espacial, ambos mundos deben estar estrechamente conectados.
Porque dondequiera que haya una partícula, átomo o molécula elemental en
el mundo espacial, el mundo no espacial está conectado al mundo espacial
en la forma de la correspondiente naturaleza interna.
También le di un nombre al mundo no espacial, por lo tanto, lo llamo el
mundo interior.
Para evitar cualquier confusión, primero unas palabras sobre las
designaciones: Cuando hablo de una partícula elemental, átomo o molécula
en lo siguiente, siempre me refiero a su naturaleza externa, es decir, lo que
la física entiende por ella. Cuando hablo de la naturaleza interior, lo digo
explícitamente.
Cada tipo de partícula elemental, átomo o molécula tiene su propia
naturaleza interna, que sólo existe una vez. Esto es fácil de entender porque
en el mundo interior no espacial no hay separación espacial. Por
consiguiente, no puede haber dos o más especímenes de naturaleza interna.
Sin embargo, hay, por supuesto, cualquier número de naturalezas externas,
es decir, cualquier número de partículas elementales, átomos y moléculas de
cualquier tipo. Esto funciona porque, por ejemplo, la naturaleza interna del
electrón puede conectarse al mundo espacial en cualquier número de
lugares. Y en cualquier lugar donde eso ocurra, aparece un electrón.
Con este concepto, como explicaré ahora, el misterio del entrelazamiento
puede ser resuelto.
Echemos un vistazo a dos objetos cuánticos A y B, ambos en un estado de
superposición de blanco y negro (por supuesto que no hay colores reales en
el mundo cuántico, representan propiedades abstractas). A y B se fusionan
para formar un nuevo objeto cuántico compuesto, llamémoslo AB. La
característica especial de AB es que sólo puede tener el color gris. Esto
significa que sólo hay dos posibles estados para el AB: A = negro y B =
blanco o A = blanco y B = negro. Esto significa que el color de A determina
el color de B y viceversa. Ahí es cuando A y B están relacionados. Pero
sigue siendo válido incluso si A y B están separados y a muchos años de luz
el uno del otro. Este es exactamente el fenómeno del entrelazamiento.
Asumamos ahora que A está en la ubicación x y B en la ubicación y, a
muchos años de luz de distancia. Estamos hablando de las versiones físicas,
es decir, de las naturalezas externas. Pero también están las naturalezas
internas. El entrelazamiento hace que las naturalezas internas de A y B no
se separen, sino que formen una sola naturaleza interna. El misterio del
entrelazamiento es un misterio tan grande porque para la física, sólo A
existe en la ubicación x y sólo B en la ubicación y, que está a muchos años
de luz, sin ninguna conexión obvia entre ellas. Sin obstante, esta no es toda
la verdad, ya que también existe la naturaleza interna común. Tanto en la
ubicación x como en la ubicación y se conecta con el mundo espacial. En x
produce A y en y produce B. Debido a la naturaleza interna común, A y B
están conectados entre sí, por supuesto, independientemente de su distancia.
Estamos hablando de las versiones físicas, es decir, de las naturalezas
externas. Pero también están las naturalezas internas. El entrelazamiento
hace que las naturalezas internas de A y B no se separen, sino que formen
una sola naturaleza interna. El misterio del entrelazamiento es un misterio
tan grande porque para la física, sólo A existe en la ubicación x y sólo B en
la ubicación y, que está a muchos años de luz, sin ninguna conexión obvia
entre ellas. Estamos hablando de las versiones físicas, es decir, de las
naturalezas externas. Pero también están las naturalezas internas. El
entrelazamiento hace que las naturalezas internas de A y B no se separen,
sino que formen una sola naturaleza interna.
Ahora se realiza una medición en A que la hace cambiar. Ya no está en un
estado de superposición de blanco y negro, sino de blanco o negro.
Asumamos que es negro. Pero la medición tiene también otro efecto, a
saber, la formación de una nueva naturaleza interna, que consiste en la
naturaleza interna común de A y B y la naturaleza interna del dispositivo de
medición. Por lo cual pierde su estado de superposición de blanco y negro y
se convierte en blanco. Y esto, por supuesto, es inmediato. Lo que explica
el fenómeno del entrelazamiento.
Esto justifica tanto la suposición de la existencia del mundo interior como
la naturaleza interior de la materia. Por lo tanto, se puede decir que mi
concepto del mundo interior es la etapa preliminar de una teoría. Lo que
significa que es una hipótesis. Llamémoslo la hipótesis del mundo interno
(HMI).
Entonces fui capaz de avanzar al segundo paso. Mi punto de partida para la
explicación de la conciencia fue la variante moderada del monismo de
doble aspecto. Así que tuve que mostrar cómo es el proceso que hace la
conciencia de la naturaleza interna que es "sólo" proto conciencia en la
variante moderada. Para ello, primero observamos más de cerca nuestra
conciencia.

Efecto Fotoeléctrico
Se sabía que incluso una gran cantidad de luz roja de onda larga (alrededor
de 650-700nm) no podía liberar electrones de la unión atómica, mientras
que incluso la potencia relativamente pequeña de la luz violeta (alrededor
de 400nm) y la radiación ultravioleta (400 a 10nm) podía liberar electrones
de manera efectiva, incluso si la energía total de la luz violeta o la radiación
UV es cientos de veces menor que la energía de la luz roja. Por lo tanto, la
potencia total de la radiación no era el problema. La luz violeta y la
radiación UV tenían que tener alguna otra ventaja, aunque era lógico
suponer que, para liberar los electrones de la unión atómica, era necesario
aplicar la mayor cantidad de energía posible a estos electrones.
Einstein señaló que la luz violeta y la radiación UV tiene una gran ventaja
sobre la luz roja en el modelo de Planck porque tenían un mayor poder de
"unidades" individuales de radiación que la luz roja. Einstein también tuvo
que asumir que, para separarse del átomo, el electrón, en lugar de acumular
gradualmente la energía de pequeños cuantos individuales de luz o absorber
muchos pequeños cuantos simultáneamente, era capaz de absorber, por
alguna razón, no más que un solo cuanto con suficiente energía para
permitir que el electrón superara instantáneamente el estiramiento del
núcleo.
Así, cada quantum de luz roja no tiene suficiente energía para causar el
efecto, mientras que cada quantum de radiación UV mucho más grande
tiene suficiente energía para liberar un electrón a la vez. Y cuanto mayor
sea el quantum de la radiación UV, mayor será la velocidad del electrón
después de salir del átomo, ya que habrá más energía sobrante después de la
liberación del electrón. Esta teoría coincide perfectamente con la realidad
observable.
Capítulo 9: Superconductores

Sin resistencia
¿Cuándo desaparece la resistencia? La respuesta a esta pregunta fue
descubierta por Kamerlingh Onnes en el año 1914. Propuso un método muy
ingenioso para medir la resistencia. El régimen experimental parece
bastante simple. Los cables de plomo de la bobina en un criostato omitido
- un aparato para realizar experimentos a bajas temperaturas. La bobina de
helio refrigerada está en el estado superconductor. En este caso, la corriente
fluye a través de la bobina, creando un campo magnético a su alrededor, que
puede ser fácilmente detectado por la desviación de la aguja magnética
situada fuera del criostato. Entonces cierra la llave, de modo que ahora el
recorrido superconductor se cortocircuitó. La aguja de una brújula, sin
embargo, fue desviada, indicando la presencia de corriente en la bobina ya
está desconectada de una fuente de corriente. Observando la flecha durante
unas horas (hasta que se evaporara el helio del recipiente), Onnes no había
notado el más mínimo cambio en la dirección de la desviación.
De acuerdo con los resultados del experimento, Onnes concluyó que la
resistencia del cable conductor superconductor era al menos 10 u 11 veces
menor que su resistencia en el estado normal. Posteriormente, al realizar
experimentos similares, se descubrió que el tiempo de decaimiento de la
corriente supera muchos años, lo que indicaba que la resistividad del
superconductor era inferior a 10 25 ohms · m. Comparando esto con la
resistividad del cobre a temperatura ambiente, 1.55 x 10 -8 ohm-m - la
diferencia es tan grande que uno puede asumir con seguridad que la
resistencia del superconductor es cero. Es difícil llamar realmente a otro
monitor y modificar la cantidad física que se abordaría en la misma "ronda
cero" que la resistencia del conductor por debajo de la temperatura crítica.
Recuerdo conocido del curso de física de la universidad Joule - Lenz: la
corriente I que fluye a través del conductor con una resistencia R genera
calor. A esta potencia consumida P = I 2 R. Poca resistencia a los metales,
pero a menudo limita las posibilidades técnicas de los diferentes
dispositivos. Alambres, cables, máquinas, aparatos calentados, por lo tanto,
millones de kilovatios de electricidad literalmente lanzados al aire. La
calefacción limita la potencia de paso, la potencia de los coches
eléctricos. Así, en particular, es el caso de los electroimanes. La obtención
de campos magnéticos fuertes requiere una gran corriente, que lleva a la
liberación de una enorme cantidad de calor en las bobinas del solenoide.
Pero el circuito superconductor permanece frío, la corriente circulará sin
amortiguamiento - impedancia igual a cero, sin pérdidas de potencia.
Como la resistencia eléctrica es cero, la corriente excitada de un anillo
superconductor existirá indefinidamente. La corriente eléctrica en este caso
se asemeja a la corriente producida por la órbita de los electrones en el
átomo de Bohr, es como una órbita muy grande de Bohr. La corriente
persistente y el campo magnético generado por ella no puede tener un valor
arbitrario, se cuantifica de manera que el flujo magnético que penetra en el
anillo toma valores que son múltiplos del flujo elemental quantum F on = h
/ (2e) = 2.07 10 15 Wb (h - constante de Planck).
A diferencia de los electrones en los átomos y otras micropartículas, cuyo
comportamiento es descrito por la teoría cuántica, la superconductividad es
fenómeno cuántico macroscópico. De hecho, la longitud del cable
superconductor a través del cual fluye la corriente persistente puede
alcanzar muchos metros o incluso kilómetros. Así, los portadores describen
una función de onda única. Este no es el único fenómeno cuántico
macroscópico. Otro ejemplo es un superfluido líquido de helio o una
sustancia de estrellas de neutrones.
En 1913 Kamerlingh Onnes propone construir un poderoso electroimán de
bobinas de material superconductor. Tal imán no consumiría electricidad, y
con él podría recibir un campo magnético extremadamente fuerte. Si es
así...
Una vez que se intenta pasar a través de la corriente significativa del
superconductor, la superconductividad desaparece. Pronto resultó que un
campo magnético débil también destruye la superconductividad. La
existencia de valores críticos de temperatura, corriente e inducción
magnética limitan severamente las posibilidades prácticas de los
superconductores.

Superconductores de resistencia eléctrica


No hay métodos experimentales fundamentalmente imposibles de probar
que cualquier valor, en particular la resistencia eléctrica, es cero. Sólo
puede mostrar que es menor que un cierto valor determinado por la
precisión de la medición.
El método más preciso para medir las bajas impedancias consiste en medir
el tiempo de decaimiento de la corriente inducida en el circuito cerrado del
material de prueba. Disminución de la energía de tiempo actual LI 2 /2 (L -
tasa de bucle de inducción) consumida por el calor de Joule: aquí
integrando (I 0 - valor de la corriente en t = 0, R - resistencia del circuito).
La corriente decae exponencialmente con el tiempo, y la tasa de atenuación
(a un L dado) está determinada por la resistencia eléctrica.
Para la pequeña fórmula R (8) puede escribirse como aquí dI- cambio actual
durante Δt. Los experimentos realizados con un cilindro superconductor de
paredes delgadas con valores extremadamente pequeños de L, mostraron
que la corriente superconductora es constante (con precisión) dentro de
unos pocos años. De ello se deduce que la resistividad en el estado
superconductor es inferior a 4 · 10 25 ohm m, o más de 1017 veces menos
que la resistencia del cobre a temperatura ambiente. Dado que el posible
tiempo de decaimiento es comparable al tiempo de existencia de la
humanidad, podemos asumir que RDC en el estado superconductor es cero.
¡Por lo tanto, la corriente superconductora es sólo en la naturaleza del
ejemplo de la vida real de movimiento perpetuo en la escala macroscópica!
Cuando R = 0 la diferencia de potencial V = IR en cualquier segmento del
superconductor y por lo tanto el campo eléctrico E dentro del
superconductor es cero. Los electrones que crean una corriente en el
superconductor, moviéndose a una velocidad constante sin ser dispersados
por las vibraciones térmicas de los átomos de la red cristalina y sus
irregularidades. Obsérvese que, si E no es igual a cero, los electrones que
llevan la corriente superconductora se aceleran sin límite y la corriente
podría alcanzar un valor infinitamente grande, lo cual es físicamente
imposible. Para realizar una corriente superconductora, sólo es necesario
acelerar los electrones hasta una cierta velocidad de movimiento direccional
(gastando esta energía), y además la corriente es constante, sin tomar
prestada la energía de una fuente externa (a diferencia de los conductores de
corriente convencionales).
La situación cambia si el superconductor aplicado a la diferencia de
potencial variable crea una corriente superconductora variable. Durante
cada período la corriente cambia de dirección. En consecuencia, en el
superconductor debe existir un campo eléctrico que periódicamente
desacelera los electrones superconductores y los acelera en la dirección
opuesta. Como consume energía de una fuente externa, la resistencia
eléctrica de la corriente alterna en un estado superconductor es cero. Sin
embargo, debido a que la masa de los electrones es muy pequeña, la pérdida
de energía a frecuencias inferiores a 1010 - 1011 Hz es insignificante.
Obsérvese que la presencia de la corriente superconductora del efecto
Meissner (inducción magnética que desaparece en el interior del material
superconductor) fluye sólo en una fina capa en la superficie cuyo espesor
está determinado por la profundidad de penetración L del campo magnético
en el superconductor. Y fluye a altas frecuencias donde la profundidad de la
capa superficial, en la que penetra un campo electromagnético alterno, se
hace más pequeña y crea una capa aún más fina.

El estado intermedio en la destrucción de la corriente de


superconductividad
Al llegar al campo magnético crítico de superconductividad se colapsa
abruptamente y la muestra completa pasa al estado normal. Esto es cierto
incluso cuando el campo magnético externo tiene el mismo valor en
cualquier punto de la superficie de la muestra. Esta simple situación puede
ser realizada, particularmente para un cilindro muy largo y delgado con su
eje paralelo al campo.
Si la muestra tiene una forma diferente, la transición de la imagen en un
estado normal parece mucho más complicada. Con el aumento del campo
llega un punto en el que se vuelve crítico en cualquier lugar de la superficie
de la muestra. Si la muestra es una esfera, la eyección del campo
magnético provoca un engrosamiento de las líneas de fuerza en las
proximidades de su ecuador. Tal campo común es el resultado de la mezcla
a un campo magnético externo uniforme de inducción de campo magnético
B 0 generado por las corrientes capturadas.
Claramente, la distribución de las líneas de campo magnético debido a la
geometría de la muestra. Para los cuerpos simples caracterizar este efecto
puede ser un solo número, el llamado coeficiente de expansión. Si, por
ejemplo, el cuerpo tiene la forma de un elipsoide, uno de los cuales está
dirigido a lo largo de los ejes del campo, el campo en su ecuador se vuelve
igual al crítico cuando la condición B0 = B de (1-N). × Cuando se puede
determinar un cierto campo de desmagnetización del coeficiente N en el
ecuador.
Para una esfera, por ejemplo, N = ⅓ en el ecuador para que su campo
magnético sea igual al crítico cuando la inducción sea B0 = ⅔ V. Con un
mayor aumento del campo en el ecuador debería romperse la
superconductividad. Sin embargo, toda la esfera no puede volver a la
normalidad, ya que, en este caso, el campo penetraría en el interior de la
esfera y sería igual al exterior, es decir, el campo resultó ser menos
crítico. Se produce una destrucción parcial de la superconductividad - un
patrón estratificado en regiones normales y superconductoras. Un estado en
el que el espécimen contiene regiones normales y superconductoras,
llamadas intermedias.
La teoría del estado intermedio fue desarrollada por Landau. Según esta
teoría en el rango de los campos magnéticos con inducción B1 <B0 <B (B 1
- Inducción del campo magnético externo, el momento en que en cualquier
lugar de la superficie del campo la inducción B alcanza el valor a). Existen
regiones superconductoras y normales, que forman una pluralidad de zonas
alternas de diferente conductividad eléctrica. La imagen real es mucho más
complicada. La estructura del estado intermedio se obtiene en el estudio de
la esfera de estaño (las regiones superconductoras están sombreadas). Y las
regiones N - - cambian continuamente la proporción de la S. Con el
aumento de la fase superconductora del campo "se derrite" debido al
crecimiento de las regiones N - y la inducción B = B para desaparecer
completamente. Y todo esto se debe a la formación y desaparición de los
límites entre las regiones S y N. Una formación de cualquier interfaz entre
dos estados diferentes para ser asociada con la energía extra. Esta energía de
la superficie juega un papel muy importante y es un factor clave. De ella,
en particular, depende el tipo de superconductor.
El área normal es igual al campo magnético crítico (o más). En la franja
fronteriza hay una transición brusca de completamente normal a totalmente
superconductora. El campo magnético, l, penetra una distancia en la región
superconductora, y el número de electrones superconductores N S por
unidad de volumen se incrementa lentamente a una distancia igual a una
longitud característica que, .x llama longitud de coherencia.
La profundidad de penetración, l es del orden de 10 -5 ... 10 -6 cm, la
longitud de coherencia para los metales puros, la estimación de A. El físico
inglés de A.Pipparda debe ser del orden de 10 a 4 cm. Como muestra la
Física Soviética V.L.Gizburg y LD .Landau, la energía de la superficie es
positiva, relación ecli x \ l de 2 Ö menos de 1 \ " 0.7. Este caso se realiza en
materiales, que se llaman superconductores de tipo I.
En los superconductores la energía superficial es positiva, es decir, en el
estado normal es mayor que en el estado superconductor. Si el grueso de tal
material se produce en la zona normal, entonces la frontera entre las fases
normal y superconductora requiere algún gasto de energía. Esto explica que
la razón de la separación de un superconductor en el estado intermedio es
sólo un número finito de zonas. Las dimensiones de las regiones S y N
pueden ser del orden de un milímetro, y pueden ser visibles a simple vista,
cubriendo la superficie de la muestra y el fino polvo magnético
(diamagnético) superconductor. Los polvos magnéticos son atraídos por el
campo y posicionados a la salida de las capas normales.
Ahora los superconductores de tipo II. El estado intermedio corresponde a
la situación cuando la separación l <.x En los metales heterogéneos, la
presencia de impurezas no es el caso. La colisión de electrones con átomos
de impurezas puede reducir la longitud .x de la coherencia. En materiales
como las aleaciones, la longitud de coherencia es menor que, y a veces
sustancialmente, cientos de veces que la profundidad de penetración. Así,
los superconductores II son aleaciones y metales con impurezas. En los
superconductores de tipo II la energía superficial es negativa (<), x, por lo
que la creación de la interfaz entre las fases asociadas a la liberación de
alguna energía. Son energéticamente favorables para fluir en un volumen
de la corriente magnética externa. Así pues, la sustancia se descompone en
una mezcla de pequeñas regiones superconductoras y normales, cuyos
límites son paralelos al campo aplicado. Tal condición se considera mixta.

Superconductores en un campo magnético


El hecho de que un campo magnético mayor que un umbral o valor crítico,
cause que la superconductividad desaparece completamente. Aunque algún
metal pierda resistencia cuando se enfríe, no puede volver a la normalidad,
una vez establecido un campo magnético externo. También en este caso, el
metal se recupera aproximadamente a la resistencia que tenía a una
temperatura superior a la temperatura (T) de transición superconductora.
Campo crítico innecesario con la inducción magnética B con dependencia
de la temperatura: la inducción es igual a cero a T = Tc y la temperatura
aumenta tendiendo a cero. Para muchos metales en dependencia la
inducción con la temperatura es similar.
Consideremos ahora el comportamiento de un conductor perfecto (es decir,
conductor privado de resistencia en diferentes ambientes). Tal conductor
cuando se enfría por debajo de una temperatura crítica, la conductividad
eléctrica se vuelve infinita. Esta propiedad ha permitido considerar a un
superconductor como un conductor perfecto.
Las propiedades magnéticas de un conductor ideal surgieron de la ley de
inducción de Faraday y las condiciones de conductividad infinita.
Supongamos que la transición del metal al estado superconductor se
produce en ausencia de un campo magnético y que el campo magnético
externo se aplica sólo después de la desaparición de la resistencia. No
necesita ningún experimento sutil para asegurarse de que el campo
magnético dentro del conductor no penetra. De hecho, cuando el metal entra
en el campo magnético, en su superficie debido a la inducción
electromagnética se producen, no se amortiguan, las corrientes cerradas (el
número de llamada de pantalla) creando su campo magnético de inducción.
Cuyo módulo es, el campo magnético externo y los vectores de dirección de
la inducción magnética del campo opuesto. Como resultado de la inducción
del campo magnético, el resultante es cero.
Se produce una situación en la que el metal, al impedir la penetración del
campo magnético, se comporta como un diamagnético. Ahora, si el campo
magnético externo es removido, el patrón estará en un no magnetizado.
Ahora se pone en el campo magnético del metal en el estado normal, y
luego se enfría para que se transfiera al estado superconductor. La
desaparición de la resistencia eléctrica no debe influir en la magnetización
de la muestra, y por lo tanto la distribución del flujo magnético no la
cambiará. Si ahora se elimina el campo magnético aplicado, el cambio en
el flujo del campo magnético externo a través del volumen de la muestra
resultará (según la ley de inducción) en la aparición de flujos persistentes.
Un campo magnético que compensa exactamente el cambio en el campo
magnético externo. Como resultado, el campo capturado no podrá escapar.
Se "congelará" en la cantidad de muestra y permanecerá allí en una clase de
traba.
Como se puede ver, las propiedades magnéticas de un conductor ideal
dependen de cómo llega al campo magnético. De hecho, al final de estas
dos operaciones, el campo de aplicación y la reducción, el metal está en las
mismas condiciones, a la misma temperatura y con un campo magnético
externo nulo. Sin embargo, la muestra de metal de inducción magnética en
ambos casos es bastante diferente. Cero en el primer caso y el final,
dependiendo del campo fuente en el segundo.

Efecto Josephson
Objetos físicos en los que se produce el efecto Josephson, ahora llamados
empalmes Josephson o elementos Josephson. Para imaginar el papel que
desempeñan los elementos Josephson en la electrónica superconductora, es
posible establecer un paralelismo entre ellos y las funciones p-n de los
semiconductores (diodos, transistores) - electrónica de semiconductores
convencional de base elemental.
Las uniones Josephson son una débil comunicación eléctrica entre dos
superconductores. De hecho, esta conexión puede hacerse de varias
maneras. Los tipos más utilizados en la práctica del eslabón débil son: 1)
uniones de túneles, en las que la unión entre los dos superconductores de la
lámina se lleva a cabo a través de un muy delgado (decenas de angstroms)
capa aislante entre ellos - es la estructura SIS; 2) "sándwiches" - dos
láminas superconductoras que interactúan a través de una fina capa (cientos
de angstroms) de un metal normal entre ellas - estructura SNS; 3) la
estructura del tipo puente, que son puentes superconductores estrechos de
longitud limitada entre dos electrodos superconductores masivos.
Los superconductores de sobre corriente de los portadores a T = 0 K son
todos electrones de conducción n (0) (densidad de electrones). Cuando la
temperatura aumenta aparece la excitación elemental (electrones normales),
de modo que la concentración de N y S de los electrones superconductores
a una temperatura (T)
ns (T) = f (0) -nn (T),
donde nn (T) - la concentración de electrones a una temperatura normal T.
En el Bardeen-Cooper-Schrieffer (BCS) para T → Tc (temperatura crítica)
ps (T) ≈ Δ 2 (T)
donde 2 D (T) - el ancho de la brecha de energía en el espectro del
superconductor. Todos los electrones superconductores forman pares de
estado asociado, conocidos como pares de electrones de Cooper.
El par de Cooper combina dos electrones con giros y pulsos opuestos, y por
lo tanto tiene un giro neto cero. A diferencia de los electrones normales que
tienen un giro de 1/2, y por lo tanto obedecen a las estadísticas de Fermi-
Dirac, los pares de Cooper obedecen a las estadísticas de Bose-Einstein y se
condensan en uno, el nivel de energía más bajo. Un aspecto característico
de los pares de Cooper es que su tamaño relativamente grande (alrededor de
1 micrón) es mucho mayor que la distancia media entre pares (del orden de
las distancias interatómicas). Un solapamiento espacial tan fuerte de los
pares significa que toda la (condensación) de los pares de Cooper es
coherente, que se describe en la mecánica cuántica, la función de onda de
un solo W =. DELTA.E ix. Aquí A - amplitud de la función de onda, cuyo
cuadrado caracteriza la concentración de los pares de Cooper, h - la fase de
la función de onda, i - unidad imaginaria, P - -1. En el caso de los
electrones normales, que son fermiones, el principio de exclusión de Pauli,
la energía de los electrones nunca es exactamente igual a la de los demás.
Por lo tanto, de la ecuación de Schrodinger para estas partículas se deduce
que la velocidad de fase dq / dt de las funciones de onda de los electrones
normales difieren, por lo que la fase h se distribuye uniformemente en el
círculo trigonométrico, y la suma sobre todas las partículas la dependencia
explícita de h desaparece.
La presencia de una débil conexión eléctrica entre los electrodos
superconductores debido a una pobre superposición de las funciones de
onda de los pares de electrodos de Cooper. Por lo que dicho contacto es
también superconductor, pero la densidad del valor crítico de la corriente es
mucho (en varios órdenes de magnitud) menor que la densidad crítica de la
corriente de los electrodos j c ≈ 108 A / cm 2. Para las estructuras de
túneles y estructuras de tipo sándwich la densidad de corriente crítica de los
empalmes de Josephson es típicamente en diapazonej jc de 101 a 104 A /
cm 2, y su área SB dentro de la tecnología moderna se puede hacer de unos
pocos cientos a unos pocos micrones cuadrados. Por lo tanto, la corriente
crítica del elemento Josephson Ic = jjc . S puede ser de unos pocos
miliamperios a unos pocos microamperios.
En general se pueden señalar tres consecuencias manifestación de la
coherencia cuántica de la condensación de Bose de los pares de Cooper en
la escala macroscópica:
1) la mera presencia de una sobre corriente en el superconductor,
2) el efecto de los vínculos débiles en los superconductores de Josephson y
finalmente,
3) el efecto de la cuantificación del flujo magnético.
La cantidad de sobre corriente permanente a través de la unión de
Josephson es una función periódica de la diferencia de fase de las funciones
de onda de los electrodos i = h1 -h2, llamada fase Josephson.
En ausencia de corriente a través del elemento Josephson n = 0 (hasta 2rn),
y cuando el máximo flujo de supercorriente es igual a Ic, la fase Josephson
q = p / 2. Cuando el flujo de corriente continua I > I con el voltaje a través
de la unión es igual a cero. Este fenómeno se llama el efecto Josephson.
El efecto Josephson (Dch / dt ≠ 0) se produce cuando, por ejemplo, a través
del elemento Josephson se pasa una corriente I> Ic. En este caso, la
transferencia de la corriente I a través de la unión de Josephson, excepto la
supercorriente I s, también participará el componente normal I n, que es la
corriente normal de los electrones n n (T). Así, I = Is + In. El flujo de la
corriente normal y por lo tanto un componente disipativo de la corriente
causa la aparición en la transición de la caída de tensión de Josephson-uted
V=QnRn,
donde R n - la supuesta resistencia normal. En vista de la relación
fundamental Josephson en este caso se producirá un aumento ilimitado (o
disminución, si V < 0) Josephson fase n y, por lo tanto, la variación
periódica en el tiempo de la sobre corriente I s. Así, al pasar a través del
elemento Josephson DC | D>> Ic , esta corriente es transportada por dos
componentes de la corriente Is e In , que, según (3) oscilan (en el pro-
tivofaz) en el tiempo con una frecuencia proporcional a la caída de tensión
de la componente V de la DC a través de la unión Josephson:
El voltaje a través del elemento Josephson de V (t) = In (t) Rn también
oscilará en el tiempo a una frecuencia w y este proceso se llama generación
Josephson. Este estado de la unión de Josephson se llama resistivo. Cabe
destacar que a pesar de la presencia de la caída de voltaje a través de una
unión Josephson, los electrodos de superconductividad que forman un
elemento Josephson se mantienen en un estado resistivo.
Si el elemento Josephson tiene una apreciable autocapacidad C (por
ejemplo, la unión del túnel Josephson), el estado resistivo de la corriente a
través de él será la suma de tres componentes: Is , In y un componente
capacitivo de la corriente (corriente de polarización).
El modelo más simple de los elementos de Josephson, estructura tipo pozo
que describe el puente y S-N-S, un modelo resistivo, donde la resistencia
normal Rn es constante no dependiendo del voltaje V.

Efecto Túnel
En 1962, un artículo apareció ante cualquier desconocido autor B.
Josephson, que teóricamente predijo la existencia de dos efectos
extraordinarios: estable e inestable. Josephson estudió teóricamente el túnel
de pares de Cooper de un superconductor a otro a través de cualquier
barrera. Antes de proceder al primer efecto Josephson, brevemente el túnel
de electrones entre las dos partes metálicas separadas por una fina capa
dieléctrica.
El efecto túnel es conocido en la física desde hace mucho tiempo. El efecto
túnel este es un problema típico de la mecánica cuántica. La partícula (por
ejemplo, un electrón en el metal) se acerca a la barrera (por ejemplo, una
capa dieléctrica), para superar lo que las ideas clásicas no pueden, ya que su
energía cinética es insuficiente, aunque el área de la barrera que con su
energía cinética bien podría existir. Por el contrario, según la mecánica
cuántica, el paso de la barrera es posible. La partícula puede tener la
oportunidad, por así decirlo, de pasar por el túnel a través de la región
clásicamente prohibida donde su energía potencial sería más bien una
energía plena, es decir, la energía cinética clásica, ya que es negativa. De
hecho, desde el punto de vista de la mecánica cuántica para las
micropartículas (electrón) tiene una relación de incertidumbre ΔhΔr> h (x -
coordenada de la partícula, p - su pulso). Cuando una pequeña
incertidumbre de sus coordenadas en un dieléctrico Δh = d (d - espesor de la
capa dieléctrica) lleva a una gran incertidumbre su pulso Dp ≥ h / Δx, y en
consecuencia, la energía cinética p 2 / (2m) (m - masa de las partículas), la
ley de conservación de la energía no se infringe. La experiencia demuestra
que, en efecto, entre dos electrodos metálicos separados por una fina capa
aislante (barrera del túnel), la corriente eléctrica puede fluir cuanto mayor
sea, más fina es la capa dieléctrica.

Capítulo 10: Entrando a la Tercera Dimensión con


la Física Cuántica

Derivaré las ecuaciones en un método ajeno a lo que te enseñaron en la


escuela de postgrado. Algunas de mis explicaciones lógicas pueden parecer
un poco ingenuas y casi asuntivas, pero este enfoque ayuda a los novatos a
entender mi trabajo. Simplificaré a propósito cada ecuación y eliminaré
tantos símbolos extraños como sea posible para eliminar la confusión y el
desorden. En resumen, esta es una breve presentación que apoya mi
interpretación y derivación de un modelo teórico alternativo del TOE. No se
propone explicar la interpretación del Modelo Estándar. ¡Así que agárrense
a sus asientos y disfruten del viaje!
Hay un antiguo proverbio que dice que ver es creer, pero no es del todo
cierto en la mecánica cuántica. Para ello, memorizar no es aprender,
calcular no es entender, y describir no es explicar. Si el Modelo Estándar
no hace más que nombrar observaciones en un experimento, es totalmente
inútil en su capacidad de entender la naturaleza. Los pájaros no vuelan
porque tienen alas. Sólo pregúntale a Ícaro. Los físicos de partículas se
convertirán con el tiempo en los químicos de los átomos, que proporcionan
una contribución necesaria, pero no encontraremos una explicación de nada
agrupando y catalogando los fragmentos de partículas. Nombrar algo y
describir su propósito no puede definir cómo funciona ese ‘algo’. Si
queremos entender realmente cómo, tenemos que estudiar el por qué... ¡no
el qué!
A veces, cuando escuchas una conferencia o si decides leer un artículo
sobre física, te darás cuenta de los muchos trucos de movimiento de manos
diseñados para desviar tu atención y ganar tu influencia. Cuando los magos
revelan sus ilusiones, siempre llegan a un punto del truco en el que hacen
algo innecesario para desviar tu atención. Pero, so lo suficiente para
mantenerte sorprendido mientras realizan los aspectos esenciales que no
quieren que observes. Hacia el final del espectáculo levantan las manos,
modifican las inflexiones de la voz y levantan las cejas con total asombro
para comunicarles que han logrado lo que dijeron que habían logrado. El
público está confundido porque internamente son razonablemente
escépticos y no creen en la ilusión, pero están convencidos por las
bufonadas del mago para creerlo. Este es el único truco del mago,
convencerte para que creas algo que no es cierto. Estas ilusiones son
excelentes para exhibir entretenimiento, pero están lejos de producir
iluminación.
La comprensión de los numerosos aspectos de la ilusión le ayudará a evitar
la confusión;
• Hipopotomonstruosesquipedaliophobia: Tenga cuidado cuando
un locutor o autor divaga usando sólo palabras grandes que no
entiende. Las probabilidades son lo único que sabe más que tú, es
un montón de palabras elegantes.
• Hechos falsos: Cuando un locutor o autor utiliza excesivamente
las ecuaciones para comunicar una idea. Lo más probable es que
las ecuaciones estén equivocadas o se presenten para apoyar sus
conceptos fabricados. Busca siempre el nuevo término matemático
que convenientemente salga de la nada como una puerta falsa.
• Intratabilidad: Cuando un locutor o un autor pretende que no
pueden explicarlo de forma más sencilla. ¿Qué tan difícil es
explicar lo que sucede en una fiesta de cumpleaños sorpresa? Si
realmente entiendes algo, puedes explicarlo a un niño de 5to grado.
Simplemente pídeles que lo hagan. Si no pueden, es una señal
segura de que no saben de qué hablan.
• Intimidación: Te deslumbran con grandes y costosos equipos y
mencionan números extensos (costos, velocidades, escalas de
tiempo, etc..). Esto es para intimidarte como individuo. Haz que
estas cosas más grandes sean irrelevantes o reemplaza el gran
número con las palabras "un número".
• Apariencia: Usan un acento y usan disfraces excéntricos. Un traje
de negocios o una bata de laboratorio es un disfraz, especialmente
si se hace en un evento informal. No juzgues un libro por su
portada. Nuestros ojos están entrenados para prejuzgar nuestra
mente y el interlocutor lo sabe.
• Acreditación: Esto se hace generalmente al principio durante la
introducción. No te pongas nervioso. Los elogios pasados de
alguien no tienen nada que ver con lo que están a punto de
presentar. Es mejor ignorar la introducción. Al final de un largo
período, probablemente darías algunas declaraciones si el precio es
adecuado. Dependiendo de tus necesidades, puedes decir casi
cualquier cosa... si el precio es adecuado.
Entiendo que esto puede parecer cruel para algunos, pero la naturaleza
ofrece un terreno de juego justo. Usted debe estar de pie en el mérito de su
presentación actual. Para hacer esto, enseña como si fuera para niños de
quinto grado. No confíe en los efectos especiales, la intimidación y la
psicología humana para la persuasión. Presente sólo los hechos... ¡sólo los
hechos!
Si no sabemos algo, está bien decir: "¿No lo sé?" Esto es lo que nos
mantiene ocupados en el negocio... ¡nuestra ignorancia! Lo digo en el
sentido más exacto. Nuestra ignorancia no está prohibida, es formidable.
Estamos llevando a cabo experimentos de investigación porque no sabemos
la respuesta a una pregunta en particular y la investigación nos ayuda a
descubrirla. Los programadores informáticos eliminan los ordenadores
buscando problemas inexplicables. Cada error proporciona una pista para
un mejor entendimiento. Podemos recurrir a culpar a los niños si nuestro
ego se interpone en el camino. De hecho, lo hago todo el tiempo. Yo digo
"déjenme asegurarles que toda mi "costosa" investigación ayuda a los niños
de todo el mundo a resolver sus curiosidades instintivas sobre el universo
en el que nacieron". Esa es una afirmación muy verdadera y ayuda a mi
autoestima. En realidad, sólo los adultos aceptan las cosas que no
entienden. Los niños no saben instintivamente cómo no hacer preguntas,
eso llega con la madurez. Así que, si su hijo pregunta persistentemente por
qué, lo más probable es que se convierta en un gran científico o vendedor...
esperemos que no las dos cosas.
¿Y si gastamos mucho dinero en un experimento y no sale según lo
planeado? Cada experimento ejecutado va según lo planeado. O prueba o
rechaza algo. Experimentar es como alimentar a mano a un elefante sin
trompa. No estás realmente seguro de qué lado insertar la comida, ¡pero
aprendes rápido! Siempre es mejor apoyar otra teoría, por si acaso la
primera opción no funciona de la manera en que lo planeaste.
Recuerden que nuestros experimentos prueban nuestros modelos
matemáticos basados en nuestras interpretaciones de ellos. No ofrecen
garantías. Si no tenemos una respuesta, esto no significa que nuestra
cumbre de trabajo acumulada sea inútil o sin sentido. Solo significa que no
llegamos a la conclusión correcta. Cualquier idiota puede hacer una
suposición o una conclusión errónea. Pero nosotros estamos disciplinados
para encontrar las respuestas correctas usando la evidencia de hechos
cuantificables. Hasta que encontremos las respuestas correctas... debemos
continuar repitiendo hasta que las encontremos. Una vez logrado, debemos
investigar continuamente lo que creemos. Junto con los impuestos, es
simplemente una parte de nuestra existencia actual.
Si tenemos suerte, podemos acumular todos los números necesarios que se
llaman en la lotería. Esto es un gran logro, pero los números deben ser
colocados en la posición correcta para ganar el premio mayor. El Modelo
Estándar no es el TOE, ni siquiera está mal estar cerca. Los avances
realizados en el siglo XX, sin embargo, han demostrado por qué acercarse a
este extremo no es el enfoque favorecido. También ha dado lugar a nuevas
tecnologías necesarias para rechazar o aprobar cualquier modelo de TOE en
el futuro.
Hasta ahora, los humanos hemos descubierto el código oculto del universo,
descifrado los símbolos y descartado muchas interpretaciones. Ahora
debemos organizar los símbolos para interpretar correctamente el código de
formas independientes y relacionadas, como los niños nacidos de padres;
cada descendiente es una copia derivada del padre original individual. Las
ecuaciones que usamos están simplemente revueltas y por lo tanto no tienen
sentido lógico uniforme para nadie como un TOE.

Capítulo 11: Momento Angular en el Nivel


Cuántico

El ejemplo más citado de momento angular es el de un patinador que gira


en un círculo y acerca sus brazos al cuerpo causando que su cuerpo gire
más rápido.
Pero los mejores ejemplos de momento angular son los planetas, las
estrellas, las galaxias y los satélites. Porque el momento angular y la
gravedad están unidos.
En la Física Antigua, creían que el momento angular eran las unidades:
Momento angular = kg*m^2/s que es kilogramos*metros^2 / segundos. Eso
es masa*área / tiempo. El problema con el momento angular de la vieja
física es que olvidaron un importante término de la corriente eléctrica (i).
La verdadera ecuación del momento angular necesita una termino de
corriente eléctrica (i) en ella.
momento angular = kg*m^2/(i)*s
¿Ves ese término extra (i) en el denominador? Este es el término importante
que se les escapó en la física del siglo XX.
Momento angular L = kg*metro^2/((i)*segundos) donde la corriente
eléctrica "i" el término que todos los físicos del siglo XX pasaron por alto.
O puedes hacer el Momento Angular representado por la geometría de las
tres leyes de movimiento de Kepler:
1) la órbita de los planetas es una elipse con el Sol en un punto focal.

2) los planetas arrasan con áreas iguales en el mismo tiempo.

3) el cuadrado del período de la órbita es proporcional al cubo del semieje


mayor.
El momento angular en la mecánica clásica
Antes de enfocarnos en los misterios y paradojas del mundo cuántico,
debemos aprender un par de conceptos elementales, como el momento
angular y el giro, que encontraremos a lo largo del resto de este libro.
Entonces, ¿qué es el momento angular? En la física cantica no es muy
difícil de entender. Es la cantidad de momento de rotación, la magnitud del
movimiento de los cuerpos en rotación. Por lo tanto, veamos primero la
noción del momento angular de una sola partícula girando alrededor de un
centro.
Donde es el vector de posición de la partícula relativo al origen rotacional,
y la cruz denota el vector o producto cruzado (una especie de multiplicación
para los vectores). Tengan en cuenta que tanto el momento lineal como el
angular son cantidades vectoriales, lo que significa que tienen una magnitud
y dirección. Las letras que representan vectores se escriben con una flecha o
en letra gruesa.
El vector de momento angular L es perpendicular al plano r x p . Su
magnitud (longitud) es una medida de la velocidad de rotación.
En el caso de un cuerpo formado por n partículas que giran alrededor de un
centro externo a sí mismo (es decir, que orbitan alrededor de un centro de
origen), el 'momento angular orbital' , puede obtenerse determinando la
suma de los momentos lineales de cada una de sus partículas constituyentes.
La suma sobre todas las partículas de masas multiplicada por la velocidad
de rotación respectiva para cada una, como:

=∑×

·,
de nuevo con como la distancia de la i-ésima partícula de ese eje y n como
el número de partículas.
Sin embargo, un cuerpo extendido también puede girar alrededor de sí
mismo. Un ejemplo típico es el de la Tierra, que no sólo órbita alrededor del
Sol, sino que (por si no lo notaste) gira una vez alrededor de su eje polar
aproximadamente cada 24 horas.
En este caso, para los cuerpos cuyos interiores tienen una distribución de
masa compleja, como la de la Tierra (la distribución de la densidad dentro
de la Tierra puede ser bastante complicada), hay que calcular el llamado
"momento de inercia" de un cuerpo.
Cómo nuestra conciencia humana llega a ser
Primero una breve repetición del principio básico de la conciencia: Cada
átomo o molécula en formación tiene un breve destello de conciencia en el
momento de la formación. Experimenta la información proporcionada por
la correspondiente naturaleza interna que surge en ella y organiza las
relaciones espaciales entre sus componentes. Cada rayo de conciencia surge
exactamente en el límite entre el mundo interior espacial y no espacial. Por
lo tanto, tiene un carácter espacial y no espacial. Como veremos pronto,
esto es crucial para la explicación de la conciencia humana.
En todas partes de nuestro cuerpo se forman constantemente moléculas en
cantidades inconmensurables. Porque cada reacción bioquímica significa la
formación de moléculas. Cada una de estas formaciones conduce a un
destello de conciencia, combinado con una micro experiencia. Así que
deberíamos tener una conciencia de cuerpo entero. Pero nuestra conciencia
está centrada en el cerebro. Ese es el problema de la predominancia. El
problema de la combinación también debe ser resuelto: Cómo las muchas
micro experiencias se unen a nuestra experiencia humana uniforme. De
hecho, el problema de la combinación se divide en dos. Aquí hay un
ejemplo simple: Ves una bola roja y un cubo azul sobre la mesa delante de
ti. Entonces cuatro módulos se activan en el cerebro: "rojo", "azul", "bola" y
"cubo". "Rojo" y "bola" están integrados, la "bola roja" se experimenta.
Aunque los dos módulos están separados espacialmente el uno del otro. Lo
mismo se aplica al "azul" y al "cubo". Pero también hay distinción porque,
la bola roja y el cubo azul se perciben por separado. Por lo tanto, acabo de
decir que el problema de la combinación se divide en dos. En primer lugar,
es necesario aclarar cómo se logra la integración y, en segundo lugar,
mostrar qué es lo que causa la distinción. Así que necesitamos resolver tres
problemas en total.
En la última sección, llegamos a conocer la estructura de la conciencia. Su
característica decisiva es el disparo temporizado de sus neuronas. Como
explicaré ahora, esto, en combinación con el principio básico de la
conciencia, es la clave para resolver los tres problemas.
Sin duda, el desencadenamiento de las neuronas juega un papel importante
en la aparición de la conciencia de la red de la conciencia. Así que tenemos
que buscar las moléculas cuya formación está estrechamente relacionada
con el despegue. Hay algo que me viene a la mente: la sinapsis. Se
encuentran en las conexiones entre las neuronas y son pequeños espesores
con un hueco. Hay un gran número de ellos, en una neurona vienen cerca de
1000 sinapsis.
Si un impulso eléctrico llega a uno de ellos, no puede pasarlo debido a la
separación. Sin embargo, conduce a la liberación de pequeñas moléculas,
los llamados neurotransmisores. Cruzan el hueco y se acoplan al otro lado a
enormes proteínas, las moléculas receptoras. El acoplamiento de un
neurotransmisor a una molécula receptora desencadena una excitación
eléctrica que se propaga hacia la siguiente neurona. Así, el impulso
eléctrico que impacta en la sinapsis ha superado finalmente la brecha.
Importante: El acoplamiento del neurotransmisor hace que la molécula
receptora se vuelva a formar. Esto se debe a que el neurotransmisor
acoplado conduce a una molécula receptora ampliada que tiene una
estructura diferente a la original. Esta estructura alterada desencadena
numerosos efectos. La más importante es la excitación eléctrica
mencionada anteriormente.
Tenemos tres problemas que resolver: En primer lugar, por qué la
experiencia de la red de la conciencia domina nuestra experiencia. En
segundo lugar, por qué hay integración y, en tercer lugar, por qué hay
diferenciación.
Ahora estamos frente a una persona, llamémosle Hugo, que ve un balón
rojo (mi ejemplo favorito) frente a él. Simplifiquemos la situación y
digamos que la red de la conciencia de Hugo consiste sólo en dos módulos,
el de "rojo" y el de "balón". Así que sólo percibe el balón rojo, no
experimenta nada más.
Los módulos "rojo" y " balón" están separados espacialmente en el cerebro,
pero todas las neuronas de ambos módulos disparan de forma sincronizada,
es decir, siempre emiten sus impulsos eléctricos exactamente al mismo
tiempo. Digamos que esto ocurre en intervalos de 100 milisegundos. Como
resultado, cada 100 milisegundos un gran número de moléculas receptoras
se forman simultáneamente en sus sinapsis. Por lo tanto, los módulos "rojo"
y " balón" crean muchos destellos simultáneos de conciencia cada 100
milisegundos.
Como se ha explicado, los destellos de conciencia tienen un carácter
espacial y no espacial. Su carácter espacial hace que se ubiquen en el
cerebro. Su carácter no espacial impide su separación. Por lo tanto, Hugo no
sólo experimenta el "rojo" y el "balón" simultáneamente, sino que también
los experimenta como una unidad, es decir, como un "balón rojo". Esto
explica la integración, uno de los tres problemas ha sido resuelto.
¿Por qué sigue percibiendo el balón rojo Hugo? Cuando los destellos
concentrados de conciencia ocurren con 100 milisegundos de diferencia.
Porque sólo percibe los destellos de la conciencia. Inevitablemente, no se
perciben las diferencias entre ellos.
Ahora Hugo observa dos objetos, un balón rojo y un cubo azul. Su red de
conciencia entonces comprende cuatro módulos. En cuanto al cubo azul, lo
que acabo de decir sobre el balón rojo también se aplica a su integración.
Pero ahora también está el aspecto de la diferenciación. Porque Hugo
experimenta el balón rojo y el cubo azul por separado. El
desencadenamiento cronometrado de las neuronas de la red de la conciencia
es responsable de esto. Las neuronas de los módulos "rojo" y " balón" se
activan de forma sincronizada cada 100 milisegundos. Lo mismo se aplica a
los módulos "azul" y "cubo", que también se disparan de forma
sincronizada cada 100 milisegundos. Pero ahora viene el punto decisivo:
"rojo y balón" y "azul y cubo" disparan en diferentes momentos.
Supongamos que su disparo se desplaza 50 milisegundos. Si los módulos
"rojo" y " balón" disparan exactamente al mediodía, entonces los módulos
"azul" y "cubo" disparan 50 milisegundos más tarde, otros 50 milisegundos
más tarde "rojo" y "balón" disparan de nuevo. Y así sucesivamente.
Esto hace que Hugo experimente el balón rojo y el cubo azul en diferentes
momentos, por lo que los percibe por separado. Por otro lado, experimenta
ambas cosas continuamente, ya que no hay experiencia de las brechas.
Ambos aspectos juntos dan como resultado la bola roja y el cubo azul que
se encuentran uno al lado del otro en la experiencia de Hugo. Esto resuelve
el problema de la diferenciación.
El problema de la dominación está por resolver. Si la red de conciencia
consistiera sólo en los cuatro módulos "rojo", " balón", "azul" y "cubo"
disparándose a intervalos de 50 milisegundos, entonces habría suficientes
huecos amplios para la aparición de muchos otros destellos de conciencia
causados por formaciones de moléculas fuera de la red de conciencia. De
hecho, un gran número de módulos está activo en la red de la conciencia, lo
que provoca destellos concentrados de conciencia en intervalos de tiempo
extremadamente cortos. Por lo tanto, todos los demás destellos de
conciencia juegan sólo un papel subordinado.
La conciencia de los animales
Todos los átomos y moléculas en formación tienen un destello de
conciencia muy corto en el momento de su formación. Esto, por supuesto,
significa que todos los seres vivos tienen conciencia, incluyendo las
bacterias. Debido a que están llenas de actividad, las moléculas se forman
en grandes cantidades. Pero nuestra consciencia humana representa una
calidad de consciencia completamente diferente porque es generada por la
formación temporalmente coordinada de moléculas en la red de consciencia
del cerebro. Así que surge la pregunta de cómo es la conciencia de los
animales que tienen cerebro.
Los gusanos e insectos tienen los cerebros más primitivos. Consisten de
alrededor de un millón de neuronas. Los humanos tienen 100 mil millones,
100.000 veces más. Además, es muy cuestionable si hay un momento en el
que sus neuronas se disparan. Por lo tanto, los gusanos e insectos sólo
tienen una conciencia muy débil, de ninguna manera comparable con
nuestra conciencia humana.
Es aún más interesante con los vertebrados, que incluyen peces, anfibios,
reptiles, aves y mamíferos incluyendo a los humanos. Porque todos sus
cerebros están diseñados de manera similar. Está el tronco cerebral, que
controla todas las funciones de soporte de la vida como la respiración. El
cerebelo es responsable de la coordinación de los movimientos. Sabemos
que el cerebelo y el tronco cerebral no contribuyen a la conciencia. Sólo el
cerebro anterior es importante para esto porque sirve para tareas exigentes
como la planificación y la toma de decisiones. El cerebro anterior de los
vertebrados muestra las mayores diferencias. Especialmente la capa exterior
del cerebro anterior, esta es la corteza. Sólo los mamíferos lo tienen y juega
un papel muy importante en la red de la conciencia. Por lo tanto, puede
asumirse que todos los peces, anfibios, reptiles y aves no tienen redes de
conciencia con coordinación temporal. Por lo tanto, su conciencia no es
muy pronunciada y no se parece a nuestra conciencia humana.
En los humanos, la corteza está fuertemente flexionada, de lo contrario, no
cabría en el cráneo. Si se pudiera alisar, tendría la superficie de cuatro hojas
A4. Es cuatro veces más grande que nuestro pariente más cercano, el
chimpancé. En comparación, el tamaño de la corteza de una rata es igual al
de un sello. Sin duda, los chimpancés también tienen redes de conciencia
con el tiempo. Pero son mucho más pequeños. Sin embargo, se puede decir
que su conciencia es muy similar a la nuestra, aunque más débil.
Es interesante la pregunta sobre la conciencia de los elefantes y las ballenas
porque, sus cerebros son considerablemente más grandes que el cerebro
humano. Esto se relativiza con respecto a la corteza: los humanos tienen
alrededor de 12 mil millones de neuronas de corteza, los elefantes y las
ballenas (incluyendo los delfines) tienen un poco menos, alrededor de 11 y
10 mil millones, respectivamente. Pero si la diferencia es tan minúscula,
¿por qué somos mucho más inteligentes? Uno podría asumir primero que
las neuronas de la corteza humana están más fuertemente conectadas, pero
no es así, la densidad de conexión es la misma. Y sin embargo hay una
diferencia considerable: la velocidad de los impulsos eléctricos en las
conexiones entre las neuronas es aproximadamente tres veces mayor en los
humanos que en los elefantes y las ballenas.
¿Qué es lo que causa? Como hemos visto, la sincronización de las redes de
la conciencia no ocurre inmediatamente, los impulsos eléctricos tienen que
ir y venir varias veces antes de que la sincronización se haya acumulado. Lo
que esto significa es bastante claro: cuanto más alta es la velocidad de los
impulsos eléctricos, más grandes pueden ser las redes de la conciencia. Y
cuanto más grandes son las redes de la conciencia, más inteligente eres. De
hecho, el cociente de inteligencia de un ser humano se correlaciona muy
fuertemente con la velocidad de sus impulsos eléctricos. Por lo tanto, las
redes de conciencia de los elefantes y las ballenas son mucho más pequeñas
que las de los humanos, a pesar del tamaño comparable de la corteza. Su
conciencia es correspondientemente más débil, pero en principio es muy
similar a nuestra conciencia.

Conclusión

Descargo de responsabilidad: ¡ADVERTENCIA! Si decide proceder más


allá de este punto, debe entender que está entrando en un dominio en el que
pocos han explorado. Si está familiarizado con la física, este dominio
aparecerá como una Caja de Pandora de misterio e intriga. Si no tiene una
comprensión formal de la física, esta sección puede parecer intuitiva y casi
pragmática, pero presentaré algunas ecuaciones básicas.
No es necesario comprender explícitamente todas las ecuaciones incluidas,
pero se proporcionan para apoyar las discusiones teóricas. Hasta este punto,
todos los lectores están en el mismo nivel. Doctores, investigadores,
experimentadores y teóricos, todos aprenderán esta nueva comprensión al
mismo tiempo.
No confíe en su conocimiento previo para pasar por esta sección, como
usted sabe, tengo la intención de cambiar todo lo que usted cree que ya sabe
sobre nuestro universo. Por ahora, absténgase de expresar sus objeciones
hasta que llegue al amargo final. Le prometo que le proporcionaré una
disposición paso a paso explicando por qué debemos aceptar estas ideas
abstractas.

También podría gustarte