Está en la página 1de 54

Credits: NASA.

¿Es la detección de ondas


gravitacionales un primer indicio
de la Teoría M?
Jorge Enríquez Serrano.
Tutora: Luz Rey del Castillo.
IES Lázaro Cárdenas.
Proyecto de Investigación de Bachillerato.

Índice.

Prefacio................................................................................................................ 3
1. El camino hacia la detección de las ondas gravitacionales………………………….. 4
1.1 El electromagnetismo……………………………………………………………………… 4
1.2 La Teoría de la Relatividad…………………………………………………………….. 10
1.3 La mecánica cuántica……………………………………………………………………… 15
1.3.1 El Principio de Incertidumbre…………………………………………………… 17
1.3.2 Los diagramas de Feynman……………………………………………………… 19
1.4 La detección del fondo de radiación de microondas……………………… 20
2. La detección de las ondas gravitacionales…………………………………….. 24
2.1 La predicción de Albert Einstein…………………………………………………….. 24
2.2 Los detectores de Advanced LIGO…………………………………………………. 26
2.3 Análisis de las observaciones de Advanced LIGO…………………………… 29
3. Las ondas gravitacionales y la Teoría M…………………………………………. 38
3.1 Los antecedentes a la Teoría M…………………….………………………………. 38
3.2 La Teoría M y la materia oscura en la nueva física…………………….….. 42
3.3 La importancia de las ondas gravitacionales en la nueva teoría…….. 46
4. Conclusión……………………………………………………………………………………. 50
5. Bibliografía e imágenes………………………………………………………………….. 52

2
Proyecto de Investigación de Bachillerato.

Prefacio.

El Universo ha cautivado a la especie humana desde la aparición de las primeras


tribus donde se atribuía la existencia de divinidades a eventos cosmológicos. Este orden
se mantuvo hasta la aparición de las primeras contribuciones a la cosmología en Egipto,
lo que permitía la creación de calendarios para la cosecha, el estudio de los eclipses o la
utilización de relojes solares sin modificar su mitología. Sin embargo, el Universo no
comenzará a ser estudiado hasta la aparición de la Antigua Grecia con Tales de Mileto,
Pitágoras, Demócrito de Abdera y Arquímedes, aunque los avances científicos cesarán
hasta las contribuciones de Johannes Kepler y Galileo Galilei en los siglos XVI y XVII.
Posteriormente se produciría una gran revolución cuando Sir Isaac Newton publicase
Philosophiae Naturalis Principia Mathematica, las bases de la dinámica newtoniana,
equiparables al electromagnetismo, la Teoría de la Relatividad y la mecánica cuántica.
Con la intención de explicar los avances científicos actuales estudiaremos las
contribuciones de los científicos más relevantes y observaremos la importancia de las
ondas gravitacionales y su implicación en la búsqueda de la gravedad cuántica y la Teoría
M.

Abstract.

The Universe has captivated mankind since the first tribes appeared, in which
they attributed cosmologic events to the existence of divinities. This order was
maintained until the contributions in cosmology made by the Egyptians, allowing them
to create harvesting schedules, study eclipses or invent sun clocks without changing
their mythology. Nevertheless, the study of the Universe did not start until the Ancient
Greek with Thales of Miletus, Pythagoras, Democritus of Abdera and Archimedes. Even
though, they were not any scientific findings until Johannes Kepler and Galileo Galilei’s
contributions during XVI and XVII centuries.
Afterwards, there was a major revolution when Sir Isaac Newton published his
Philosophiae Naturalis Principia Mathematica, corresponding with the birth of newton
dynamics, equals to electromagnetism, general relativity and quantum mechanics.
We intend to explain the current scientific fields and research by explaining some of the
most relevant scientific findings and observe the relevance of the gravitational waves
and their involvement in the search of quantum gravity and the M-theory.

Me gustaría agradecer el apoyo que he recibido durante el proyecto por parte


del centro, como en especial al Departamento de Física y Química. Estoy enormemente
agradecido a Luz Rey, Rosa Weigand del Departamento de Óptica de la Universidad
Complutense de Madrid, Irene Schneider por el apoyo en este y en otros proyectos y a
mi familia por apoyarme durante la realización del proyecto.
Finalmente agradecer a la NASA y Advanced LIGO por facilitar el acceso a todos
los datos de sus observaciones relacionadas con el proyecto.

3
Proyecto de Investigación de Bachillerato.

1. El camino hacia la detección de ondas gravitacionales.

1.1 El electromagnetismo.
La electricidad y posteriormente el magnetismo han sido fuente de inspiración
para el desarrollo de la humanidad desde la antigüedad y la primera observación de un
fenómeno causado por el ámbar al atraer pequeños objetos que habían sido frotados
(fricción) por este. La electricidad, para aquel entonces un fenómeno totalmente
desconocido fue casualmente descubierto por los griegos y estudiada por los filósofos,
aunque el término actual de la electricidad difiere de sus primeras observaciones; pero
que iniciaría una de las ramas de mayor contribución científica. Además, la brújula
procedente de Asia (magnetismo), también marcaría el inicio de la navegación, pese a
no conocer sus características ni su relación con la electricidad hasta 1820.
Sin embargo, los avances científicos no prosiguieron en Europa después de la
desaparición de la ciencia jónica en la Antigua Grecia, obstaculizados por conflictos
ideológicos y bélicos, la ciencia jonia y el método desarrollado, similar al actual método
científico, fueron abandonados. Algunos de los científicos más relevantes como Tales de
Mileto, el precursor, Pitágoras o Arquímedes se erigirán como las figuras más relevantes
de este modelo de estudio, pero el pensamiento aristotélico gobernará Europa hasta el
siglo XVI.
Será entonces cuando William Gilbert publique en 1600 su única obra
relacionada con el magnetismo: De magnate magneticisique corporibus, obra en la que
explica el fenómeno del ámbar y los tejidos como dos cuerpos cargados eléctricamente
y que si son sometidos a fricción –electrificación por frotamiento- generan electricidad
estática. La utilización del electroscopio le permitió estudiar la presencia de las cargas;
partículas cargadas positiva o negativamente, acorde al desarrollo tecnológico del siglo
XVII. Su electroscopio, aunque rudimentario le permitió acuñar los términos: atracción
eléctrica –al observar como distintos objetos cargados se atraían o repelían
mutuamente- o el propio término electricidad, que en griego significaba ámbar, aunque
la relación entre magnetismo y electricidad no será estudiada hasta Öersted en 1820.
Posterior a las contribuciones de William Gilbert, considerado el padre de la
electricidad, destacaron otros científicos notables como Benjamin Franklin quien a
través de una cometa pudo determinar que las tormentas eléctricas también estaban
cargadas (1752). Para ello, Franklin utilizó una cometa atada a un cordel de seda y con
una llave en el extremo. Cuando se produjese la tormenta, la llave se cargaría
eléctricamente, guardando la electricidad en una botella de Leyden (1745-1746).[2] Esta
botella permitía almacenar la electricidad al contener agua y una caña metálica en su
interior a la que Benjamin Franklin ató la cometa, obteniendo con éxito el resultado de
su experimento.
La carga eléctrica fue posteriormente estudiada por Coulomb en 1785,
definiendo la carga en culombios como la cantidad de corriente eléctrica transportada
en un segundo por una corriente eléctrica de un amperio. Coulomb estudiará las cargas
como procesos en los que se intercambian cargas positivas (cationes) y cargas negativas

4
Proyecto de Investigación de Bachillerato.

(aniones) a través de distintos métodos como la electrificación por frotamiento, por


inducción o por contacto.

La Ley de Coulomb postula que los objetos cargados pueden distribuir sus
cargas tanto a través de la superficie del objeto como en la totalidad de su volumen.
Coulomb estudió la interacción entre las cargas que actúan en un objeto cargado y la
distancia que las separaba –el radio-, siguiendo una formulación muy similar a la
utilizada por Sir Isaac Newton en la Ley de Gravitación Universal de 1687 por la que:
𝑚1 ∗𝑚2
𝐹𝐺 = 𝐺 ∗ 𝑟2

1 𝑞 1 ∗𝑞2
𝐹𝑒 =
4∗𝜋∗𝑒𝑜 𝑟2

Se observa así un paralelismo evidente entre ambas ecuaciones, destacando


que ambas dependen del producto de la masa o las cargas y del radio que las separa.
Coulomb introduce una constante correspondiente con la constante proporcionalidad,
obtenida experimentalmente al igual que la constante gravitacional de Newton.
Finalmente, la Ley de Coulomb supuso un gran avance en las teorías
relacionadas con la electricidad y posteriormente en el magnetismo (aunque la
correlación no se producirá hasta 1820) al permitir estudiar la distribución de cargas en
un objeto experimentalmente y obtener el resultado. Para obtener las medidas,
Coulomb utilizó un electroscopio que constaba de una esfera conectada a un conductor
cargado y a una lámina de oro o plata observando que la carga es directamente
proporcional a la diferencia de potencial eléctrico entre las láminas. Este experimento
ha sido replicado nuevamente por inducción y permite determinar si las cargas son
positivas (cationes) o negativas (aniones), aunque en aquel momento no se concebían
partículas cargadas como consecuencia de los electrones.[16,21]

La imagen de la izquierda muestra la


esfera de Coulomb. Corresponde con
el electroscopio que permitió a
Coulomb determinar la constante de
proporcionalidad y corroborar su
formulación teórica.

5
Proyecto de Investigación de Bachillerato.

Tras el éxito de la Ley de Coulomb, fue Carl Friedrich Gauss quien en 1835 fue
capaz de desarrollar la formulación necesaria para la Ley de Gauss, publicándose
posteriormente en 1867 como uno de los trabajos de Gauss más relevantes. Destacarán
otros trabajos de Gauss como la formulación de la geometría no euclidiana o sus
contribuciones en el álgebra y la estadística.
Gauss destacó desde la infancia por su capacidad intelectual, lo que le permitió
acceder a la Universidad de Gotinga en la adolescencia. Fue allí donde comenzó a
trabajar en diversos campos llegando a publicar en 1835 la Ley de Gauss, postulando
que el flujo eléctrico de una superficie “s” cualquiera y un campo eléctrico determinado
pueden estar relacionados. Se define como campo eléctrico a una región del espacio
creada por la atracción y repulsión de las distintas cargas.
Una de las consecuencias de la Ley de Gauss permite estudiar cómo se
comporta el flujo eléctrico en función del ángulo que forman ambos vectores,
determinando que: si el vector de la superficie y el vector del campo eléctrico son
perpendiculares al plano, el flujo eléctrico se anula. Si por el contrario los vectores de
superficie y campo eléctrico son paralelos al plano, el campo eléctrico es constante en
el plano en el que se halla.
Una de las consecuencias de la Ley de Gauss permite estudiar la distribución de
cargas al igual que la Ley de Coulomb (véase página 5), al poder estudiar las cargas que
interactúan en el sistema a través de la densidad de carga y el volumen de una esfera
de radio como:
𝑄 ∗ 𝑟3
𝑞=
𝑅3
La Ley de Gauss permite estudiar la carga del sistema al introducir la densidad
de carga: Q, el radio total de la esfera (𝑅 3 ) y el radio interno de la esfera como (𝑟 3 ).
Algunas de las aplicaciones de la Ley de Gauss son claramente visibles en la jaula de
Faraday (1836) con dispositivos como los microondas, escáneres, discos duros o aviones,
que actúan como una jaula de Faraday durante las tormentas eléctricas, al distribuirse
los electrones a lo largo de la jaula, generando un campo eléctrico nulo debido al campo
eléctrico externo, anulándose (ver imagen 2).[17,21]

Se produce una acumulación de electrones


en uno de los lados de la caja, mientras que
en el otro se produce un defecto de estos
(carga positiva), lo que provoca la creación
de un campo eléctrico interno que se anula
con el campo eléctrico externo.

6
Proyecto de Investigación de Bachillerato.

Paralelamente, se producían importantes avances en el electromagnetismo,


destacando la contribución de Hans Christensen Öersted quien en 1820 realizó un
pequeño experimento en la Universidad de Prusia que desviaba la orientación de una
brújula al someterla a una corriente eléctrica fortuitamente. Öersted publicó un
pequeño artículo que asombró a la comunidad científica y acuño el término actual de
electromagnetismo al producirse la génesis de un campo electromagnético.
El artículo publicado por Öersted provocó que Ándre-Marie Àmpere se
interesase en el descubrimiento de Öersted, iniciando una investigación particular
similar a los estudios que desarrollará Carl Friedrich Gauss en 1835.
La Ley de Àmpere (1820-1825) permite estudiar la distribución de la corriente y
deducir así el campo magnético y su dirección. Àmpere postula que es posible estudiar
la distribución de las cargas eléctricas en circuitos cerrados para eventualmente obtener
el campo magnético, ya que este se dispone alrededor de la corriente eléctrica (por la
que se desplazan cargas). Àmpere postuló que el campo magnético es proporcional a la
corriente eléctrica (fuente del campo magnético). Para ello, Àmpere recurrió a la
experimentación, estudiando las interacciones existentes entre dos circuitos cerrados y
cargados separados por un radio “r” e introduciendo la permeabilidad en el espacio
como la suma de los elementos de longitud por el campo magnético creado. La Ley de
Àmpere presenta la notoria característica de estudiar circuitos cerrados que se
asemejen a una circunferencia, similar a la Ley de Gauss e introduciendo el radio de las
mismas y la distancia.[3,21]
Finalmente, la distribución de cargas y la distribución entre ambos circuitos
permiten determinar experimentalmente que el campo magnético es tangente al
circuito (circunferencia) y presenta siempre el mismo valor en cualquier punto.

El electromagnetismo como rama de la física se erigía como una de las fuentes


de estudio más innovadoras. Sin embargo, las ecuaciones de James Clerk Maxwell no
podrían ser precisas sin la contribución de Michael Faraday quien en 1831 postuló tras
varios años de estudio la Ley de inducción electromagnética de Faraday. Además de
Faraday, Henry trató de hallar la misma ley de forma independiente, aunque se atribuye
la ley a Michael Faraday en su totalidad.
La ley de inducción electromagnética de Faraday postula que: el voltaje
inducido sobre un circuito cerrado es proporcional al tiempo que tarda un flujo
magnético en cambiar en un modelo estático. Experimentalmente es posible observar
el proceso en un circuito cerrado (generando un electroimán), al introducir un imán,
detectando fluctuaciones con el amperímetro – campos electromagnéticos- y
observando variaciones en el flujo magnético (rotaciones o traslación).
La ley de inducción electromagnética de Faraday es válida para experimentos
como la electrólisis (la hidrólisis en el agua y que permite la descomposición de las
moléculas de agua en hidrógeno y oxígeno al aplicar una corriente eléctrica).[21]
Tras el inicial éxito de la Ley de Faraday, James Clerk Maxwell (1831-1879), uno
de los físicos más célebres de la historia desarrollará la matemática necesaria para
formular en varios de sus trabajos: Sobre las líneas de fuerza de Faraday y Sobre las

7
Proyecto de Investigación de Bachillerato.

líneas físicas de la fuerza la matemática necesaria para explicar correctamente algunos


de los aspectos no descritos por Michael Faraday en su teoría. Maxwell explicaría a
través de estos dos trabajos cómo actúan las líneas de fuerza en el espacio (campos de
fuerza) explicando correctamente los fenómenos eléctricos y magnéticos en el espacio.
Los trabajos de Maxwell introducían un medio para la propagación de la luz, el éter
luminífero, que estudiaremos con detenimiento en la Teoría de la Relatividad y en
interferometría láser (véase el segundo punto: la detección de las ondas
gravitacionales).
Sin embargo, James Clerk Maxwell es considerado uno de los físicos más
célebres por las conocidas como ecuaciones de Maxwell (denominadas así por A.
Einstein) procedentes de: Tratado de electricidad y magnetismo. Previa a la publicación
de este trabajo, Maxwell había postulado correctamente que la luz se comporta como
una onda causada por fenómenos eléctricos y magnéticos. Al estudiar la propagación de
las ondas obtuvo el valor de la velocidad de la luz.
Una onda, en física, se genera como consecuencia de una perturbación en el
espacio (véase el sonido, el cual perturba el medio, el aire, tras ser generada). El
comportamiento de la luz fue primeramente estudiado por Sir Isaac Newton, quien
determinó que la luz se comportaba como una partícula, aunque en la actualidad, se
conoce que la luz se comporta como una onda que se propaga a través del espacio. La
idea de la propagación de las ondas en el espacio derivó en la idea del éter luminífero
tras las ecuaciones de Maxwell.
El trabajo de Maxwell, pese a abarcar diversos campos de la física e inspirar a
físicos como Albert Einstein y la Teoría de la Relatividad especial (1905), ha estado ligado
a Tratado de electricidad y magnetismo (1873) al conseguir formular correctamente un
total de veinte ecuaciones que relacionaban los estudios en el electromagnetismo de
Àmpere, Gauss y Faraday.
Cabe destacar que las ecuaciones de Maxwell han sido descritas como: “de una
belleza insuperable”. En ellas, Maxwell fue capaz de unificar las leyes del
electromagnetismo existentes: la Ley de Àmpere, la Ley de Gauss para el campo
eléctrico, la Ley de Gauss para el campo magnético y la Ley de Faraday. No incluye la Ley
de Coulomb ya que como se ha expuesto previamente, la Ley de Coulomb puede ser
descrita en términos de la Ley de Gauss (véase páginas 5-6).
Las ecuaciones de Maxwell, inicialmente un total de 20 ecuaciones, fueron
reducidas al actual número de cuatro ecuaciones gracias a Heinrich Hertz y que incluyen
los fenómenos electromagnéticos estudiados durante el siglo XIX.[4,8,9]
Debido al éxito de las ecuaciones de Maxwell, algunos de los científicos más
relevantes, movidos por el entusiasmo, se apresuraron a comentar que si de algo se
estaba seguro en la física era de la existencia del éter, una sustancia que poblaba el
Universo y que permitía la propagación de la luz. El éter permitía explicar el valor
constante de la luz además de evitar el problema que existía entre la dinámica
newtoniana y el electromagnetismo al presentar distintos sistemas de referencia.
Este problema será posteriormente estudiado por Lorentz a través de las
transformaciones de Lorentz que permitían unificar las teorías electromagnéticas con la

8
Proyecto de Investigación de Bachillerato.

dinámica newtoniana al introducir un mismo sistema de referencia inercial,


examinaremos esta cuestión con mayor detenimiento en el siguiente punto.
Otros físicos incluso llegaron a expresar que no se producirían más avances en
el ámbito del electromagnetismo, hechos que han sido rebatidos gracias a la
contribución de Max Planck que afectará tanto a la cosmología como al estudio de los
modelos atómicos.
Max Karl Ernst Ludwig Planck es considerado uno de los físicos más relevantes
gracias a sus importantes contribuciones en la comprensión de la luz y los modelos
atómicos. La contribución de Max Planck se fundamenta en el estudio de la radiación,
más concretamente en la radiación de cuerpo negro. La radiación de cuerpo negro
corresponde con la radiación absorbida por un cuerpo para todas las longitudes de onda
electromagnéticas en todas las direcciones. A través de la radiación de cuerpo negro
Max Planck postula que la luz hasta entonces descrita como una dualidad onda-
corpúsculo, puede ser estudiada a través de unidades de energía o fotones. Los fotones,
de acuerdo a la teoría de partículas elementales corresponden con bosones (partículas
transmisoras de fuerza) de masa y carga cero y spin (giro) 1, que pueden ser absorbidos
o emitidos por la materia.
Max Planck llegó a la conclusión de que la luz se puede estudiar a través de
cuantos de luz o fotones tras estudiar la conocida como radiación de cuerpo negro citada
y sobre la que existe las siguientes relaciones: la longitud de onda es inversamente
proporcional a la frecuencia, la temperatura es inversamente proporcional a la longitud
de onda y por ende, la frecuencia es directamente proporcional a la temperatura. Planck
creía que la cuantización de la energía sólo se producía cuando la radiación estaba en
equilibrio con la energía de la materia, aunque posteriormente Einstein eliminaría esta
hipótesis. Podemos estudiar la energía de un fotón como:
𝜆
𝑐=
𝛵
𝐸𝑓 = ℎ ∗ Ɣ
La primera ecuación estudia la longitud de onda como el producto de la
velocidad de la luz “c” por el periodo “T”, de forma que la velocidad de la luz equivale a
la razón entre la longitud de onda – distancia entre máximos y mínimos en una onda- y
la frecuencia. La segunda ecuación estudia la energía por fotón como el producto de la
constante de Planck (6’62*10−34 𝐽/𝑠) por la frecuencia de la longitud de onda.
El estudio de la radiación de cuerpo negro sirvió de antecedente en la
cosmología ya que el fondo de radiación de microondas detectado por Arno A. Penzias
y Robert W. Wilson en 1965 será interpretado correctamente como una radiación de
cuerpo negro. Paralelamente, la radiación de cuerpo negro corresponderá con uno de
los antecedentes previos al modelo atómico de Niels Bohr, junto con el efecto
fotoeléctrico y el espectro atómico de los espectroscopistas.
Las contribuciones en el electromagnetismo no han cesado desde entonces al facilitar a
Albert Einstein formular la Teoría de la Relatividad y la aparición de la mecánica cuántica
como consecuencia del estudio de los fotones.[6,21,22]
Se adjunta una tabla con las distintas longitudes de onda en la sección de imágenes.

9
Proyecto de Investigación de Bachillerato.

1.2 La Teoría de la Relatividad.

La Teoría de la Relatividad, dentro del marco de la física clásica corresponde con


una de las teorías más relevantes de la historia de la Humanidad, equiparable a
Philosophiae Naturalis Principia Mathematica de Sir Isaac Newton (1687) o a las
ecuaciones de Maxwell (1873).
Las ecuaciones de Maxwell, que unificaban las leyes del electromagnetismo
existentes (véase página 8), corresponde con las bases de la Teoría de la Relatividad que
será desarrollada por Albert Einstein en su Annus Miraebellis (1905), publicando
diversos artículos que trataban aspectos como el movimiento browniano – movimiento
de las partículas en un estado de suspensión como consecuencia del movimiento de sus
átomos-, el efecto fotoeléctrico – efecto mediante el cual los fotones si presentan la
suficiente energía, en función de la frecuencia, son capaces de “arrancar” un electrón
de un átomo de metal. Otro ejemplo corresponde con el funcionamiento de una
bombilla, en la que se produce la emisión de fotones como consecuencia de la excitación
de los electrones o la equivalencia entre la masa y la energía.
La Teoría de la Relatividad constituye un hecho histórico en la comprensión de
la física, aunque esta parte de los conceptos existentes del electromagnetismo y la
dinámica newtoniana. Concretamente, previa a la publicación de la Teoría de la
Relatividad, el ámbito científico trataba de hallar solución a la aparente incoherencia
existente entre las ecuaciones de Maxwell y la dinámica de Newton. ¿Y a qué se debía
el problema?
El problema que se producía entre ambas ecuaciones – la dinámica de Newton
y las ecuaciones de Maxwell- residía en los sistemas de referencia en los que ambas
ecuaciones son válidas. Este problema, inicialmente postulado por Galileo Galilei en su:
Diálogo sobre los dos sistemas máximos, proponía un experimento que serviría como
antecedente a la Teoría de la Relatividad desarrollada varios siglos después.
En el experimento, Galileo Galilei postulaba que si se introducían varias moscas
en un barco y una persona, esta no podría advertir ningún cambio si el barco se hallaba
en reposo. Además, para la persona localizada en el interior del barco sería imposible
determinar si el barco está realmente en reposo o se desplaza con una velocidad
constante, describiendo un movimiento rectilíneo uniforme.
Galileo añadió más complejidad al experimento y determinó que si un
observador externo en un sistema de referencia constituido por dos puntos,
determinase que el barco se está alejando del punto donde él se halla y tratase además
de determinar la distancia a la que se hallan las moscas en el barco, diferirá con los
resultados obtenidos por la persona que se localiza en el interior del barco, ya que para
ella no se ha producido un desplazamiento. Este efecto se produce debido a que la
persona en el interior no puede determinar si se está moviendo si la velocidad es
constante, pero sí es posible estudiar variaciones del módulo de la velocidad, causadas
por la aceleración.

10
Proyecto de Investigación de Bachillerato.

Este experimento da lugar al conocido como principio de relatividad de Galileo


(ver imagen 3).

El principio de relatividad de Galileo se


resume en: “Las leyes que describen los
cambios de los sistemas físicos no
resultan afectadas si estos cambios de
estado están referidos a uno u otro de
dos sistemas de referencia en traslación
con movimiento uniforme.”

El principio de relatividad de Galileo resulta válido para la dinámica newtoniana,


pero cuando se añade la existencia de las ecuaciones de Maxwell, no existe un sistema
de referencia válido para ambas ecuaciones. En la comunidad científica se observó que
el problema radicaba o en las ecuaciones de Maxwell o en la dinámica newtoniana. Esta
incoherencia entre ambos sistemas produjo la conocida como transformación de
Lorentz que permitiría que Einstein abordase el problema de la Teoría de la Relatividad
al preguntarse, ¿qué ocurriría si alcanzásemos un rayo de luz?
La transformación de Lorentz corresponde con un intento de reconciliar la
dinámica newtoniana que explicaba correctamente el principio de relatividad de Galileo
con las ecuaciones de Maxwell. Las ecuaciones de Maxwell no podían ser descritas
correctamente para sistemas en movimiento ya que no presentaban el mismo sistema
de referencia e introducían diversidad de nuevos términos en la ecuación, como cortes
en los campos electromagnéticos generados por un imán.
Surgió así la transformación de Lorentz (1904) desarrollada por Hendrik Lorentz,
respetando el marco original de las ecuaciones de James Clerk Maxwell y para
velocidades relativamente bajas, estas se podían expresar de acuerdo al principio de
relatividad de Galileo. Las ecuaciones se relacionaban de la siguiente forma:

1 1 𝑢
𝑥′ = 2
∗ (𝑥 − 𝑢 ∗ 𝑡) con y’=y; 𝑡 ′ = 2
∗ (𝑡 − 𝑐 2 ) ∗ 𝑥
√1−𝑢2 √1−𝑢2
𝑐 𝑐

1 1 𝑢
𝑥= 2
∗ (𝑥 ′ + 𝑢 ∗ 𝑡 ′ ) con y=y’; 𝑡 = 2
∗ (𝑡 ′ + 𝑐 2 ) ∗ 𝑥′
√1−𝑢2 √1−𝑢2
𝑐 𝑐

La transformación de Lorentz relacionaba t con t’ (tiempo) y el espacio (x y x’)


de forma que la transformación de Lorentz estudiaba las velocidades de los cuerpos (u)

11
Proyecto de Investigación de Bachillerato.

y la velocidad de la luz (c), creando una dependencia entre x y x’ e igualmente t y t’. Sin
embargo, la transformación de Lorentz, en tiempo absoluto, introducía una diversidad
de tiempos en movimiento, por lo que el tiempo no podía estudiarse de esa forma.[6,21]
Paralelamente, en la comunidad científica se había impuesto la idea del
conocido como éter luminífero, una sustancia que puebla el espacio y actúa como medio
para la propagación de las ondas electromagnéticas (la luz), siendo siempre constante.
Este hecho provocará que los científicos tratasen de hallar el éter luminífero,
conjeturando que si este existe, puede ser detectado desde la Tierra.
Uno de los intentos fue a través del conocido como interferómetro de
Michelson-Morley, desarrollado por Albert Graham Michelson y Edward Morley en 1887
en un intento de detectar el éter luminífero y determinar su funcionamiento. Para
detectar la presencia del éter, en el interferómetro de Michelson y Morley se introduce
un láser (luz coherente) que se propaga a través del interferómetro hasta alcanzar una
placa de cristal recubierta de una lámina de metal (generalmente plata) que divide el
1
haz de luz entre los brazos con una proporción de 2. Cuando el haz de luz ha recorrido
la distancia del brazo, es reflejado por un espejo, hasta recombinarse nuevamente
gracias a la placa de cristal.
Si el interferómetro se halla en contacto óptico, es decir, la distancia entre
ambos brazos es la misma L=L’, se produce una interferencia destructiva, generándose
un anillo negro. La finalidad del experimento residía en determinar la presencia del éter
luminífero pero no fue posible detectar su presencia a través del interferómetro
(examinaremos el interferómetro de Michelson y Morley con detenimiento en la
detección de ondas gravitacionales).
Al no detectarse el éter luminífero, la comunidad científica recurrió a una
modificación ad hoc, determinando que no era posible detectar el éter debido a la
traslación de la Tierra, estimando que podría ser detectado en otras estaciones. Sin
embargo, el interferómetro de Michelson y Morley tampoco detectó ninguna señal del
éter luminífero en otra estación.
Antes de la contribución de Albert Einstein y la Teoría de la Relatividad, la
comunidad científica postuló que no sería posible detectar el éter ya que este se
desplazaba con la Tierra durante el movimiento de traslación en un intento de
salvaguardar las ecuaciones de Maxwell y el valor constante de la velocidad de la luz
para todos los observadores.[6,12]

La imagen de la izquierda
muestra cómo el éter luminífero
varía en función de la estación.
Posteriormente se sugirió que el
éter se trasladaba al producirse
el movimiento de traslación.

12
Proyecto de Investigación de Bachillerato.

La Teoría de la Relatividad resolverá los problemas mencionados previamente


cuando un joven Albert Einstein publicará en 1905 (fecha del “Annus Miraebellis”) un
conjunto de artículos que revolucionarán la física, desde la comprensión del movimiento
browniano a la explicación del efecto fotoeléctrico o la equivalencia entre masa y
energía. Destaca así su obra: Sobre la electrodinámica de los cuerpos en movimiento,
donde sienta las bases de la Teoría de la Relatividad especial que en 1915 y tras la
introducción de la interacción gravitatoria a través de campos gravitatorios dará lugar a
la Teoría de la Relatividad general. Esta teoría fue también abordada por el matemático
David Hilbert quien finalmente no pudo formular la teoría antes que Albert Einstein en
1915.
Albert Einstein, quien hasta 1905 no había sido debidamente tratado por
distintas universidades – Universidad Politécnica de Zúrich- se convertirá en una figura
emblemática a través de la publicación de la equivalencia entre la masa y la energía:
𝐸 = 𝑚𝑐 2 , aunque la comunidad científica no recibió con el mismo entusiasmo Sobre la
electrodinámica de los cuerpos en movimiento salvo científicos como Max Planck.
Einstein postula en la Teoría de la Relatividad especial las siguientes bases:
La velocidad de la luz es igual para todos los individuos, cuyo valor equivale a
299.792’484 km/s, prosiguiendo con la unificación desarrollada por Lorentz para
unificar la dinámica de Newton y las ecuaciones de Maxwell. Además, Albert Einstein
soluciona el problema de la diversidad de tiempos existentes cuando un cuerpo está en
movimiento al introducir el concepto de tiempo relativo.
La Teoría de la Relatividad especial introduce por primera vez el concepto de
tiempo como un concepto relativo, eliminando la concepción de un tiempo absoluto y
la instantaneidad de sucesos. Una analogía comúnmente utilizada expone que no
detectaríamos un cambio sobre la superficie solar tras aproximadamente 8 minutos
debido al efecto de propagación de la luz. Difiere así de la simultaneidad planteada por
Sir Isaac Newton y que se veía reflejada en la transformación de Lorentz. Se observa
entonces que el tiempo es un concepto relativo ya que cada observador puede
presentar un distinto sistema de medida del tiempo.
La Teoría de la Relatividad General permite realizar una explicación del espacio
y el tiempo a través de la aplicación de la geometría. Para ello, se emplea la conocida
como geometría no euclidiana, desarrollada por Gauss durante el siglo XIX,
introduciendo el concepto de curvatura espacio-temporal como consecuencia de
objetos masivos (ver imagen 4). Otra analogía consiste en observar como la superficie
terrestre se basa en la geometría no euclidiana al existir geodésicas que permiten viajar
de un punto a otro recorriendo una menor distancia que a través de una línea recta.
Las modificaciones que se produzcan en el espacio afectan al tiempo, por lo
que cuerpos celestes masivos originarán modificaciones en la evolución del tiempo al
estar íntimamente ligados. Normalmente la comunidad científica utiliza la analogía
entre el tiempo y el espacio como las dos caras de una moneda. Estos procesos se
observan con mayor claridad en los conocidos como agujeros negros, regiones del
espacio donde se han producido colapso gravitatorio – en función del límite de

13
Proyecto de Investigación de Bachillerato.

Chandrasekhar-. Estas regiones experimentan campos gravitatorios que afectan a la


evolución del tiempo, ralentizándolo (véase la detección de ondas gravitacionales).
Estos procesos fueron primeramente confirmados por un reloj atómico que viajó
alrededor del planeta, observando que si una persona se desplaza en sentido contrario
a las agujas del reloj (giro positivo o interno), el tiempo se ralentiza, aunque no supone
un verdadero cambio. – Otros ejemplos corresponden al sistema de posicionamiento
global – GPS, que dependen de las correcciones relativistas para poder ajustar
correctamente el tiempo entre distintos satélites y evitar un error acumulativo.
Tanto la Teoría de la Relatividad especial como la Teoría de la Relatividad
general no recibieron la aprobación inicial de la comunidad científica. Esto hecho se
debe a la nefasta relación existente entre Albert Einstein y la comunidad científica. Sin
embargo, la comprobación de las predicciones de Albert Einstein: las lentes
gravitacionales y las ondas gravitacionales así como la observación de agujeros negros
supermasivos han demostrado que la teoría sigue siendo correcta a escala
macroscópica. Fue el desarrollo de la Teoría de la Relatividad el inicio de los modelos
cosmológicos del siglo XX como el modelo de De Sitter o el modelo de Friedmann.
Estudiaremos estos modelos como un antecedente a la detección de fondo de radiación
de microondas de 1965.
Las predicciones de Albert Einstein han sido corroboradas gracias a la
observación y la obtención de datos empíricos. Para concluir con esta introducción al
concepto relativista de Albert Einstein, destacaremos la presencia de las lentes
gravitacionales.
Las lentes gravitacionales fueron predichas por Albert Einstein tras la
publicación de la Teoría de la Relatividad general. Einstein postuló que las lentes
gravitacionales corresponden con un fenómeno causado como consecuencia de la
curvatura del espacio-tiempo debido a la presencia de cuerpos masivos como pueden
ser las estrellas. Este fenómeno permite desviar los fotones de las ondas
electromagnéticas emitidas por cuerpos distantes (estrellas o galaxias) como
consecuencia del campo gravitatorio – región del espacio sometida a una interacción
gravitatoria, que alteran la trayectoria rectilínea de los fotones.
El fenómeno de las lentes gravitacionales fue inicialmente estudiado por un
grupo de astrónomos en el decenio de 1920 pero debido a las inclemencias del tiempo
durante las observaciones, no se pudo demostrar la existencia del fenómeno de las
lentes gravitacionales y las imágenes especulares. No será hasta 1979 cuando un
conjunto de astrónomos fuese capaz de obtener una fotografía de un objeto especular
cuando Dennis Walsh, Robert Carswell y Ray Weynmann del observatorio de Kitt Peak
(ver imagen 5).[6,11,12]

14
Proyecto de Investigación de Bachillerato.

1.3 La mecánica cuántica.

La mecánica cuántica es actualmente junto con la Teoría de la Relatividad, el


campo de la física que más estudios ha presentado en los últimos decenios. Estos
estudios tratan, a través de la formulación de nuevas teorías como la teoría de
supercuerdas o la conocida como Teoría M (examinaremos estas teorías en el tercer
punto), unificar la física clásica con la física cuántica.
Sin embargo, la física no ha logrado determinar completamente la gravedad
cuántica, determinando como la gravedad obtiene sus propiedades desde el campo de
la mecánica cuántica. Este hecho es consecuencia de la dificultad que existe entre ambas
teorías, ya que la mecánica cuántica estudia el ámbito microscópico, mientras que la
Teoría de la Relatividad rige al igual que la dinámica, el ámbito macroscópico.
Para comprender cómo surgen las nuevas teorías en el ámbito de la física como
las ya mencionadas, y objeto de este Proyecto de Investigación, debemos estudiar cómo
surge la mecánica cuántica y cómo esta ha transformado el ámbito de la física desde sus
primeros avances.
La mecánica cuántica corresponde con una de las ramas de la física encargada
de estudiar los fenómenos microscópicos que afectan a átomos, subpartículas como
protones, neutrones o electrones, subpartículas nucleares como los quarks, etc. y las
interacciones existentes entre las mismas. La mecánica cuántica surge gracias a la
contribución de Max Planck y la conocida como radiación de cuerpo negro,
correspondiente con la radiación absorbida por un cuerpo para cualquier longitud de
onda. Como se explicó previamente, la radiación de cuerpo negro desembocó en la
cuantización de la energía, expresándola a través de cuantos de luz o fotones (página 9).
La existencia de una serie de cuantos de energía provocará la aparición de una de las
revoluciones de la física más importante.
El hecho de que la luz pueda ser transmitida a través de cuantos de energía o
fotones se convertirá en uno de los principales antecedentes a la aparición de la
mecánica cuántica. Además, la descripción del efecto fotoeléctrico, de Albert Einstein
en su “Annus Miraebellis”, como un proceso en el que la energía de un fotón ha de ser
mayor que el umbral de frecuencia para “arrancar” un electrón de metal y dotarle de un
movimiento (véase página 10) también sentará las bases de la posterior mecánica
cuántica.[6]
La mecánica cuántica, sin embargo, precisará de la aparición de varios modelos
atómicos previos al desarrollo de la teoría. El concepto de átomo y de los modelos
atómicos parte de la Antigua Grecia cuando Demócrito de Abdera formula su teoría
atomista contando con la oposición aristotélica – teoría de los cuatro elementos. Este
concepto de átomo no será recuperado hasta la 1808 cuando, John E. Dalton publica la
conocida como teoría atomista de Dalton sobre la que establece: los átomos son
indivisibles e indestructibles de los cuales se forma la materia. Además, los distintos
elementos están conformados por átomos iguales, mientras que los compuestos están
conformados por átomos distintos siempre en la misma proporción.

15
Proyecto de Investigación de Bachillerato.

Posteriormente, J.J Thomson, en 1896 desarrollará el siguiente modelo atómico


al experimentar con un tubo de rayos catódicos. La formulación del modelo atómico de
Thomson de forma experimental, permite comprender que el átomo sí es divisible al
detectar experimentalmente la presencia del electrón.
La detección del electrón por J.J Thomson se produce en un tubo de rayos
catódicos donde, al someter un gas a una descarga eléctrica (ánodo y cátodo en el tubo
de rayos catódicos). Thomson interpretó que los destellos detectados en el cátodo eran
producto de la naturaleza de la luz y determinó experimentalmente la masa y carga del
electrón con un alto grado de precisión.

El modelo de Thomson explicaba la presencia del electrón, pero fue


posteriormente sustituido por un nuevo modelo atómico, el modelo de Rutherford. Este
modelo y el modelo de Niels Bohr o modelo del espectro atómico son las bases que
permitirán asentar la mecánica cuántica. El modelo de Rutherford, desarrollado por
Ernst Karl Rutherford en 1904, aproximadamente, corresponde con un modelo atómico
que introduce la presencia de órbitas descritas por un electrón. Para la realización del
modelo, Rutherford recurrió a la emisión de radiación alfa que al atravesar una lámina
de metal, inducen a resultados como que la radiación ha sido absorbida, repelida o
desviada sobre una pantalla. Se observa que las órbitas del electrón, quien se halla en la
corteza del átomo se comportan como las órbitas de cualquier astro del Sistema Solar,
girando en torno a un núcleo, los protones. Sin embargo, el modelo nuclear-planetario
sería posteriormente sustituido por Niels Bohr, quien describía correctamente el
comportamiento de los electrones en un átomo de hidrógeno.
El modelo del espectro atómico o modelo de Bohr fue desarrollado por Niels
Bohr durante el primer decenio del siglo XX. Este modelo se basaba en las observaciones
del espectro atómico de átomos de hidrógeno. Un espectro corresponde con un
conjunto de datos empíricos obtenidos respecto a un conjunto de magnitudes
determinado. Por ello, el espectro electromagnético recoge las distintas longitudes de
onda (véase, rayos gamma, rayos X, ultravioleta…), ordenados en función de su longitud
de onda y su frecuencia.
El espectro atómico, a diferencia del espectro electromagnético fue estudiado
por los espectroscopistas, quienes obtuvieron el siguiente espectro atómico:

16
Proyecto de Investigación de Bachillerato.

La obtención del espectro atómico permitió observar la aparición de un


conjunto de líneas correspondientes con las líneas de absorción y emisión, este hecho
provocó que los espectroscopistas fuesen capaces de desarrollar la siguiente ecuación:
1 1 1
= 𝑅 ∗ ( 2 − 2)
𝜆 𝑙 𝑚
Dicha ecuación introduce 𝜆 que corresponde con la longitud de onda, R que
corresponde con la constante de Rydberg y 𝑙 2 , 𝑚2 que corresponden con las distintas
series espectrales y la línea a la que pertenecen.
Niels Bohr interpretó los espectros atómicos y postuló la presencia de un nuevo
modelo atómico que introducía la energía del electrón en una órbita. Niels Bohr postuló
que las líneas de absorción y emisión de los espectros correspondían con las energías en
las que un electrón puede pasar de una órbita a otra. La comunidad científica aceptó en
su totalidad el modelo de Niels Bohr que introducía el primer número cuántico: “n”
correspondiente con las órbitas. Posteriormente se desarrollaron un conjunto de
correcciones al modelo: las correcciones de Sommerfield y Zeeman que introducían los
números cuántico secundario o acimutal: “l” que dependía de “n” como: l= n-1, el
número cuántico magnético: “m” que correspondía con: m = -l…0…+l y el número
1
cuántico de spin: “s” que en el electrón indica el giro como ± 2.
Sin embargo, el modelo atómico de Bohr será posteriormente sustituido por el
modelo mecánico cuántico, basado en las ecuaciones de Erwin Schrödinger y sobre el
que se integran el Principio de Incertidumbre de Werner Karl Heisenberg y el Principio
de exclusión de Pauli. Este nuevo modelo introducirá el concepto de orbital, regiones de
máxima probabilidad en las que se puede encontrar el electrón.

1.3.1 El Principio de incertidumbre (1926).


El Principio de incertidumbre fue desarrollado por el físico teórico alemán
Werner Karl Heisenberg en 1926, en él se establece la existencia de la certidumbre con
la que conocemos la velocidad y posición del electrón dentro del átomo (orbitales-
regiones de probabilidad máxima de hallar el electrón). El Principio de incertidumbre
establece que no es posible determinar la velocidad y posición del electrón sin
interactuar previamente con él. Para determinar la condición de posición y velocidad del
electrón se recurre a la emisión de un conjunto de cuantos de luz o fotones que permiten
obtener la posición y velocidad del electrón bajo una relación de probabilidad o
certidumbre, de forma que el Principio de incertidumbre establece una relación
inversamente proporcional entre la certidumbre con la que conocemos la velocidad y la
certidumbre con la que conocemos su posición. Este hecho se traduce como: si
conocemos la posición en la que se halla el electrón tras haber interactuado con él con
una gran probabilidad, menor es la probabilidad con la que conocemos su velocidad y
viceversa.

𝛥𝑥 ∗ 𝛥𝑝 ≥
4𝜋

17
Proyecto de Investigación de Bachillerato.

En la ecuación, Heisenberg relaciona el incremento del momento lineal: “p” que


equivale a la masa de la partícula por la velocidad adquirida, el incremento de posición:
“x” y la constante de Planck: “h”.
Desde la aparición de la mecánica cuántica, se han sometido todas las teorías
cuánticas a diversos experimentos. El Principio de incertidumbre de Heisenberg también
ha sido sometido a diversos experimentos, destacando el interferómetro de Young o
experimento de la doble rendija, debido a las condiciones del experimento.

Las imágenes superiores muestran el interferómetro de Young, permite


estudiar las interferencias producidas por un fotón o un electrón. El interferómetro de
Young fue inicialmente utilizado para estudiar el comportamiento de los fotones,
produciéndose una interferencia en el propio fotón (interfiere consigo mismo) que se
observa como diversas ondas electromagnéticas que se proyectan en el panel,
generando diversos patrones de interferencia. Estos patrones de interferencia pueden
ser destructivos cuando se produce una colisión entre el máximo de la onda y el mínimo
de otra onda, anulándose (en las fotografías se observan patrones de interferencia
negros). Los patrones de interferencia constructivos se producen cuando los máximos y
mínimos de las ondas coinciden, reforzándose. Al producirse una réplica del
experimento con electrones se observó un comportamiento anómalo como
consecuencia de la mecánica cuántica y que estaba valorado por el Principio de
incertidumbre. Se observó que se generaban nuevos patrones de interferencia si una de
las rendijas se hallaba obstruida, apareciendo electrones donde previamente no
aparecían. Además, se observó que no era posible interactuar con ellos sin afectar al
electrón, en concordancia con el Principio de incertidumbre.[11,12]
Sin embargo, posteriormente fue posible determinar cómo se generaban estos
patrones de interferencia al detectar el paso de los electrones (tras pasar por la rendija),
observando que estos, independientemente de cómo se disponía el sistema, describían
siempre patrones de interferencia al pasar ambos electrones por las distintas rendijas.
Se interpretó el problema como una consecuencia del efecto túnel, un efecto por el cual
un electrón de un átomo puede describir diversos caminos hasta atravesar las rendijas,
como consecuencia de la probabilidad. Un ejemplo es la existencia del microscopio de
efecto túnel.
Finalmente, serán los diagramas de Richard Feynman los que permiten realizar
una explicación al fenómeno de interferencia de los electrones en el interferómetro de
Young.

18
Proyecto de Investigación de Bachillerato.

1.3.2 Los diagramas de Feynman.

Los diagramas de Feynman corresponden con uno de los avances científicos


más relevantes del siglo XX. Los diagramas fueron desarrollados por el célebre Richard
P. Feynman como un conjunto de diagramas que permitían integrar la fuerza
electromagnética dentro de una teoría cuántica de campos. En estos diagramas, se
introducen las distintas partículas transmisoras de fuerza conocidas como bosones-
fotones, (conviene destacar que existen otras partículas como W,Z- interacción nuclear
débil, gluón- interacción nuclear fuerte o el gravitón- partícula virtual de la gravedad).
Los diagramas de Feynman fueron desarrollados en torno al decenio de 1940-
1950, como un conjunto de diagramas cuya finalidad era facilitar la comprensión de la
conocida como electrodinámica cuántica (QED), integrando una de las consecuencias de
la misma: una partícula en movimiento puede modificar su trayectoria si absorbe un
fotón, o alterar la trayectoria si se emite un fotón- un claro ejemplo de la
electrodinámica cuántica lo constituye el efecto fotoeléctrico (véase páginas 10 y 13).
Sin embargo, es necesario comprender por qué se desarrollaron estos
diagramas. Una de las características de la física del siglo XX fue la aparición de la Teoría
de la Relatividad y la posterior aparición de la mecánica cuántica. La física, ha tratado de
unificar las teorías clásicas (electromagnetismo, dinámica, relativismo) con la teoría
cuántica, originando las conocidas como teorías cuánticas de campos. La QED
corresponde con un ejemplo de ellas que contó en 1967 con la contribución de Abdus
Salam y Steven Weinberg de la interacción nuclear débil, postulando la existencia de
nuevos bosones- partículas, W y Z. Además de la QED destaca la existencia de la QCD o
cromodinámica cuántica que permite renormalizar la interacción nuclear fuerte
(responsable de la existencia de núcleos estables de protones y neutrones a través de
los quarks y los gluones) a una teoría cuántica de campos.
La QCD representa los quarks, partículas subnucleares, como partículas las
cuales presentan distintos sabores o “flavours” correspondientes con: “up”, “top”,
“down”, “strange”, “charmed” y “bottom”, cuyas uniones dan lugar a los bariones como
protones (dos quarks “up” y uno “down”) y los neutrones (dos quarks “down” y uno
“up”). Además, cada quark puede presentar colores: rojo, verde y azul (maneras de
disposición de los quarks para conformar los bariones- partículas masivas como
protones, neutrones o hadrones-) sometidos al principio de libertad asintótica en el que
el gluón actúa como una fuerza que mantiene los quarks ligados: este principio establece
que la fuerza es directamente proporcional a la distancia, por lo que si un quark trata de
separarse de los demás, la fuerza que experimentará causada por los gluones será
mayor.
Los diagramas de Feynman corresponden pues con una herramienta que facilita
la comprensión de los distintos procesos cuánticos y establecen un conjunto de normas
que revisaremos en los antecedentes a la Teoría M detenidamente.[7,11]

19
Proyecto de Investigación de Bachillerato.

1.4 La detección del fondo de radiación de microondas.


La resolución de las ecuaciones planteadas en la Teoría de la Relatividad de
Albert Einstein provocó la aparición de nuevos modelos cosmológicos. Albert Einstein se
aventuró a hallar una solución a sus ecuaciones que describiese cómo se comportaba el
Universo. Para ello, Albert Einstein trató de hallar una solución acorde al contexto
histórico, lo que significó que tratase de hallar una solución a sus ecuaciones que
predijesen un Universo isótropo, homogéneo y estático. Las ecuaciones originales de
Einstein no contemplaban la existencia de un Universo estático lo que provocó que
Einstein introdujese la constante cosmológica. La constante cosmológica actúa en el
Universo donde los diversos campos gravitatorios e intensidades de campo varían en
función de la masa y la distancia, de forma que para evitar un Universo dinámico
introdujo una constante que anulaba la acción de los campos gravitatorios a grandes
distancias. Esta constante permitía inhabilitar cualquier posible indicio de un Universo
dinámico. Ese mismo año, De Sitter halló una resolución a la ecuación original de Albert
Einstein que predecía la existencia de un Universo isótropo, homogéneo y dinámico. Fue
esta ecuación la que atrajo la atención de los científicos experimentales, dotando al
modelo de De Sitter de una notoria relevancia. Einstein lamentaría haber introducido un
cambio a sus ecuaciones originales, aunque evidencias científicas actuales sugieren que
podría presentar cierta validez en la actualidad. Esta cuestión se explorará en el punto
3.2: La Teoría M en la nueva física y en la conclusión.[22]
Los modelos de Friedmann, desarrollados por el soviético Alexander Friedmann
en 1922 utilizarán como base las ecuaciones de Albert Einstein y establecerán las bases
de la evolución del Universo. Friedmann recurrió a las ecuaciones originales,
introduciendo la densidad cósmica como una nueva variable. La introducción de la
densidad cósmica permitió a Alexander Friedmann estudiar diversas hipótesis
relacionadas con la evolución del Universo. Friedmann observó que la densidad cósmica
puede presentar un conjunto de valores determinados: “x” y determinó a través de su
modelo la existencia de un valor crítico o densidad crítica. La existencia de la densidad
crítica limita las posibilidades del Universo como sistema para poder evolucionar.
Se observó que si la densidad cósmica era mayor que la densidad crítica, el
Universo era espacialmente finito, como si se tratase de una esfera combada como
consecuencia de la interacción gravitatoria y los campos gravitatorios. Por el contrario
si la densidad es menor que la densidad crítica, el Universo es espacialmente infinito,
como si estuviese dispuesto sobre una losa (la idea de disponer una galaxia en una losa
fue propuesta por Wright en 1750 y determina que el Sistema Solar al pertenecer a una
galaxia, la losa, recibe más radiación en forma de luz visible que la radiación que puede
recibir desde otras direcciones. Esta teoría fue corroborada empíricamente.)

20
Proyecto de Investigación de Bachillerato.

La imagen de la izquierda muestra cómo se


comporta el espacio en función de la
resolución de los modelos de Friedmann. Si
la densidad cósmica es mayor que la
densidad crítica, entonces la interacción
gravitatoria curvaría el espacio formando
una esfera. Es posible que se deforme
formando una “silla de montar”. Si por el
contrario la densidad cósmica es menor, el
espacio es espacialmente infinito.

Los modelos de Friedmann determinan la evolución del Universo de forma que,


si la densidad cósmica es menor que la densidad crítica, el Universo continuará
expandiéndose indefinidamente (estado inflacionario). Si por el contrario, la densidad
es mayor que la densidad crítica, el Universo, cerrado y finito, debido a la acción
gravitatoria, comenzará a contraerse, originando el conocido como: “Big Crunch”. Estos
modelos también determinan condiciones como la isotropía (las condiciones del sistema
no dependen de la localización del observador) y el principio cosmológico, de forma que
no hay ninguna región especial. La comunidad científica especuló que este proceso de
evolución del Universo en el que se produce una primera fase de expansión,
prosiguiendo con una segunda fase de contracción podría ser el origen del Universo
actual. Sin embargo, se ha observado que si se produjese este sistema en un Universo,
eventualmente se produciría una disminución de la energía que interviene en el
sistema.[12,22]
Además, la imagen superior muestra el estado estable, un modelo cosmológico
desarrollado por Fred Hoyle, Hermann Bondi y Thomas Gold en 1940 postulaba que el
Universo había permanecido constante desde el inicio del mismo, eliminando la
vaguedad del instante inicial. El modelo del estado estable se fundamentó en la creación
de materia (protones y neutrones) en diversos dominios que inicialmente explicaban las
observaciones de Edwin Powell Hubble, pero contrariamente establecían que el
Universo es homogéneo, isótropo y estático.
Sin embargo, desde el comienzo de las observaciones por Edwin Powell Hubble
desde el observatorio de Monte Wilson (Los Ángeles) en 1923, y basándose en los
modelos de De Sitter, fue capaz de estudiar los fenómenos de corrimiento hacia el rojo
y determinar así la Ley de Hubble y el estado inflacionario del Universo actual como
consecuencia de una explosión pretérita. Hubble, comenzó sus observaciones tras leer
la contribución del modelo de De Sitter a la cosmología (los astrónomos americanos no
tuvieron noticias del modelo de Alexander Friedmann hasta varios años después) e inició
una observación en el Monte Wilson tratando de hallar fenómenos de corrimiento hacia
el rojo. El corrimiento hacia el rojo es una consecuencia del conocido como efecto
Doppler, desarrollado por Christian Doppler en 1842, en el que se establece que una
fuente de emisión de ondas (sonoras, radiación electromagnética…) que se desplaza
alterará la distancia entre máximos y mínimos, afectando a la longitud de onda. Este

21
Proyecto de Investigación de Bachillerato.

hecho es claramente comprobable en una carretera: si nos encontramos en una


autopista cualquiera, detectaremos que un vehículo localizado a una gran distancia
emite un sonido grave, consecuencia de una longitud de onda muy larga. Mientras que
si se acerca, percibiremos un sonido más agudo (mayor frecuencia). Es una característica
del efecto Doppler que fue reproducida en 1843 experimentalmente.
El efecto Doppler, en el ámbito cosmológico actúa de igual forma que el sonido
en la Tierra, de forma que en la cosmología, el efecto Doppler permite determinar un
corrimiento hacia el rojo procedente de una fuente de radiación electromagnética como
consecuencia de un aumento de la longitud de onda (la relación entre la frecuencia, la
longitud de onda y la energía de acuerdo a la formulación de Max Planck permite
estudiar el incremento de la energía y la frecuencia como una relación inversamente
proporcional con la longitud de onda- existiendo corrimientos hacia el rojo (incremento
de la longitud de onda y disminución de la frecuencia) y corrimientos hacia el azul
(disminución de la longitud de onda e incremento de la frecuencia).
Hubble se dispuso a medir el efecto Doppler en el ámbito cosmológico,
principalmente para determinar si objetos descritos en el catálogo de Messier como
nebulosas eran realmente nebulosas o galaxias. Hubble recurrió al estudio de estrellas
variables Cefeidas como nuestro Sol, basándose en la relación entre luminosidad
absoluta (radiación electromagnética del espectro visible en todas direcciones) y
luminosidad aparente (radiación electromagnética percibida en el telescopio por 𝑐𝑚2 ).
La luminosidad aparente es directamente proporcional a la luminosidad absoluta e
inversamente proporcional a la distancia. El estudio de estas variables cefeidas permitió
a Hubble determinar que galaxias como M31 (Andrómeda) eran realmente galaxias y
determinar la distancia y velocidad a la que se desplazaban. Observó que la velocidad a
la que se desplazan las galaxias es directamente proporcional a la distancia, lo que le
permitió inducir la Ley de Hubble por la cual la velocidad de las galaxias es directamente
proporcional a la distancia como consecuencia de un estado inflacionario (al retrotraer
esta información se infiere en la existencia del Big Bang) y determinó un tiempo de
expansión característico dependiente de su constante: 15km/s por año-luz. En la
actualidad la constante de Hubble está corregida al valor ya citado, aunque también
existe el freno gravitacional.[6,22]
La detección del fondo de radiación de microondas culmina con la idea de un
Universo en un estado inflacionario. Esta detección se produjo en la antena Holmdel de
Bell Telephone Company gracias a los radioastrónomos Arno A. Penzias y Robert W.
Wilson en 1965.
La antena utilizada se convirtió en un potencial instrumento que estaba siendo
utilizado por Arno A. Penzias y Robert W. Wilson en 1964 para estudiar el ruido
radioeléctrico- ruido causado como consecuencia de la excitación de los electrones-
procedente de nuestra galaxia, la Vía Láctea. Cuando se dispusieron a realizar las
primeras observaciones a una longitud de onda relativamente corta de 7’35 cm
obtuvieron un exceso de ruido radioeléctrico. Se observó que el exceso de ruido
radioeléctrico no estaba siendo causado como consecuencia de la propia antena ya que
esta se hallaba en un proceso de carga en frío, procedimiento mediante el cual el sistema

22
Proyecto de Investigación de Bachillerato.

(la antena) se aísla frente a posibles fuentes de ruido parásito utilizando helio líquido o
niobio (un claro ejemplo corresponde con los sistemas SQUID utilizados por el Instituto
de Magnetismo Aplicado-Salvador Velayos para aislar el sistema frente radiación
externa: radiación ionizante, rayos cósmicos, etc. y estudiar cómo interactúan los
átomos frente a campos magnéticos). Además, se observó que la antena presentaba
suciedad, por lo que fue posible desmontar la antena en 1965 y limpiarla, aunque el
ruido parásito que estaban detectando proseguía.
El ruido parásito que estaba siendo detectado no cambiaba respecto a ninguna
estación ni cambiaba respecto a la posición de la antena frente a la atmósfera como se
podría esperar de un ruido atmosférico (es decir, el ruido parásito era el mismo sin
importar si la antena apuntaba al horizonte – donde se espera obtener una mayor
cantidad de ruido atmosférico- o al cenit). El ruido parásito que estaba siendo detectado
permanecía como un misterio hasta que los propios radioastrónomos recurriesen a una
de las leyes de la termodinámica: todo cuerpo en movimiento emite radiación.
Fue el desarrollo de la operación invisible de los astrofísicos lo que permitió a
los radioastrónomos Arno A. Penzias y Robert W. Wilson obtener una explicación del
exceso de ruido radioeléctrico que estaba siendo detectado. Esta operación permitió a
físicos como Jim Peebles de Princeton dotar de una explicación. Jim Peebles había
previamente postulado la existencia de radiación, remanente de una etapa de transición
del Universo, cuando la materia se hizo visible, aproximadamente entre 300000 y
700000 años después del instante inicial en un proceso conocido como recombinación
causado por la disminución de la temperatura del Universo como una relación
inversamente proporcional al volumen del mismo, causando que los electrones
pudiesen conformar átomos con los núcleos de hidrógeno y helio producidos en los tres
primeros minutos del Universo. Esta radiación electromagnética ha sido la fuente de
observación hasta la actualidad, aunque las ondas gravitacionales permiten explorar
nuevas posibilidades de observación.
Una de las consecuencias de la formulación de Peebles exigía la existencia de
radiación electromagnética con una longitud de onda en función de la temperatura (la
longitud de onda es inversamente proporcional a la temperatura) que fue interpretada
como una radiación de cuerpo negro respecto a la formulación de Planck (véase página
9) y postuló que correspondería con una temperatura actual de unos 10K. Cuando Arno
A. Penzias y Robert W. Wilson recibieron la ayuda en conjunto de Peebles y Robert Dicke
(quien en el decenio de 1940 había establecido la existencia de una radiación
procedente del Universo a una temperatura de 20K- olvidando posteriormente sus
cálculos) publicaron una carta en conjunto en la revista: Astrophysical Journal, donde
explicaron que habían detectado un exceso de ruido radioeléctrico a una frecuencia de
4080 millones de ciclos por segundo (equivalente a 3K) con la seguida explicación del
fenómeno por Peebles, Dicke, Roll y Wilkinson.
La detección de un fondo de radiación de microondas a una temperatura de 3K
permitió proseguir con uno de los modelos cosmológicos que ya había sido postulado
por Alexander Friedmann, un Universo en un estado inflacionario: el Big Bang (ver
imágenes y bibliografía).[12]

23
Proyecto de Investigación de Bachillerato.

2. La detección de las ondas gravitacionales.

2.1 La predicción de Albert Einstein.


El éxito de la Teoría de la Relatividad desde la formulación en 1905 de la Teoría
de la Relatividad especial y posteriormente en 1915 la Teoría de la Relatividad general,
está fundado en la observación de algunas de la predicciones formuladas por Albert
Einstein, desde la propia formulación de la teoría hasta las predicciones de eventos
como las lentes gravitacionales y las ondas gravitacionales.
La formulación teórica de las lentes gravitacionales por Albert Einstein como un
fenómeno causado como consecuencia de la presencia de campos gravitatorios (ver
página 14) que alteran la trayectoria de un haz de luz, curvándola, (al interactuar con los
fotones, partículas que lo conforman), corresponderá con una de las predicciones más
notorias en el ámbito relativista junto las ondas gravitacionales: perturbaciones del
tejido espacio-temporal afectando a las tres dimensiones espaciales como consecuencia
de un fenómeno cósmico violento que libera energía en forma de ondas gravitacionales
prácticamente indetectables. Estos fenómenos cósmicos violentos pueden
corresponder con el proceso de formación de un agujero negro por coalescencia
(colisión entre dos agujeros negros de menor tamaño), la interacción entre estrellas de
neutrones (de acuerdo al límite de Chandrasekhar corresponden con estrellas masivas
con un ínfimo volumen y con importantes interacciones gravitatorias causadas por su
campo gravitatorio), etc.
Para comprender la importancia de la detección de ondas gravitacionales
gracias a los detectores de Advanced LIGO y la colaboración de Virgo Collaboration
(durante la fase de edición de este y otros documentos Advanced LIGO y Virgo
Collaboration han detectado una nueva onda gravitacional: GW170814 y GW170817
como la colisión entre dos estrellas de neutrones), es necesario estudiar el fenómeno
de las lentes gravitacionales en profundidad.
Las lentes gravitacionales fueron predichas teóricamente por Albert Einstein,
quien conjeturaba que la existencia de campos gravitatorios lo suficientemente grandes
podría afectar a un haz de luz proveniente de cualquier estrella o galaxia distante. Albert
Einstein postuló que si una estrella presenta un campo gravitatorio:
𝐺𝑀
𝑔= 2
𝑟
lo suficientemente grande, podría causar una perturbación en la trayectoria original de
los fotones. Cabe destacar que el campo gravitatorio se estudia como el producto de la
constante gravitacional y la masa del elemento que lo causa e inversamente
proporcional al cuadrado del radio de éste.
Este fenómeno se presentó como una oportunidad perfecta para probar la
veracidad de la Teoría de la Relatividad general, lo que provocó que durante el decenio
de 1920 un conjunto de astrónomos tratasen de observar el fenómeno durante un
eclipse desde distintos continentes (donde la región de oscuridad es total) y comunicar
los resultados. Sin embargo, las inclemencias del tiempo impidieron a los astrónomos
obtener resultados verdaderamente convincentes.

24
Proyecto de Investigación de Bachillerato.

El fenómeno de las lentes gravitacionales no sería finalmente medido hasta


1979 cuando un conjunto de astrónomos fueron capaces de captar una imagen de un
objeto especular, es decir, un objeto distante (estrellas, cúmulos o galaxias) que debido
al campo gravitatorio de estrellas u otros objetos masivos aparece como una imagen
especular o una distorsión óptica. El grupo de astrónomos del Observatorio Kitt Peak en
Arizona conformado por Dennis Walsh, Robert Carswell y Ray Weynmann, fueron los
encargados de obtener la primera evidencia de una lente gravitacional desde la
predicción de Albert Einstein.[6,22]

Lente gravitacional que


provoca la aparición de una
imagen especular varios
quásares.

La predicción de las ondas gravitacionales por Albert Einstein en 1916 como un


conjunto de ondas generadas en fenómenos violentos que se desplazan a la velocidad
de la luz y que alteran las tres dimensiones espaciales, no ha sido probada hasta la más
estricta actualidad.
Las ondas gravitacionales son liberadas en diversos fenómenos cósmicos, pero
debido a la naturaleza de la gravedad, son interacciones con la materia y con el espacio
son muy débiles (salvo si la energía liberada en forma de ondas gravitacionales es lo
suficientemente alta y encuentra diversos obstáculos como estrellas o sistemas en un
periodo relativamente corto de acuerdo a su propagación), lo que provoca grandes
dificultades para detectarlas correctamente.
Es necesario observar que las ondas gravitacionales corresponden con una de
las ramas de estudio científico con más aplicaciones en la astronomía y la física en el
siglo XXI gracias a que la detección de las ondas gravitacionales permite a los científicos
elaborar nuevos sistemas de evolución de los agujeros negros, determinar si estos
fenómenos son relativamente comunes o están espaciados en el tiempo o determinar
corrimientos hacia el rojo y frecuencias procedentes de las ondas gravitacionales, entre
otros posibles estudios.
Además, la detección de las ondas gravitacionales se ha convertido en un
posible remanente de nuevas teorías de la física que estudiaremos en profundidad tras
realizar un previo análisis de las observaciones de los detectores de Advanced LIGO en
el punto 3.

25
Proyecto de Investigación de Bachillerato.

2.2 Los detectores de Advanced LIGO.


Desde la construcción de los primeros detectores de ondas gravitacionales en
el decenio de 1960, se ha incrementado la tecnología disponible para la construcción de
detectores cada vez más sensibles. Este hecho facilitó la construcción de los detectores
de LIGO, cuya aprobación data de 1984 aunque no estuvieron operativos hasta un
primer periodo observacional entre 2004 y 2010. Advanced LIGO cuenta con la
colaboración internacional de diversos países, Alemania, Australia, Brasil, España,
Francia, India, Italia, etc., y con la colaboración de NSF (National Science Foundation),
MIT (Massachusetts Institute of Technology), Caltech, NASA o el Instituto Max Planck.
Desde entonces, los detectores de LIGO han sido actualizados, mejorando algunas de las
características que expondremos posteriormente y conviviendo con nuevos detectores
como Virgo Collaboration en Italia, GEO 6000 en Alemania o KAGRA en Japón. Se está
planeando la construcción de un tercer detector de Advanced LIGO en la India: LIGO-
India, aunque no estará en modo observacional hasta 2024.
Los detectores de Advanced LIGO se localizan en dos estados estadounidenses
separados por una distancia de unos 3600 km. Corresponden con los detectores de LIGO
Livingston (Lousiana) y LIGO Hanford (Washington). La distancia entre ambos detectores
permite estudiar la detección de ondas gravitacionales con un periodo de propagación
de la onda gravitacional para determinar si se trata de un ruido parásito causado por un
evento externo detectado por el detector y los distintos sensores que lo componen o si
corresponde con una onda gravitacional.
Los detectores de Advanced LIGO se fundamentan en una generalización del
interferómetro de Michelson (ver página 12) , permitiendo detectar con enorme
precisión las perturbaciones generadas por ondas gravitacionales que alteran la
distancia entre los brazos del interferómetro de forma que 𝐿1 = 𝐿2 , por lo que si ambos
brazos están en contacto óptico, es decir, la distancia recorrida por el láser emitido es la
misma, produciéndose una interferencia destructiva (mostrada en negro en una
pantalla) y se hallan correctamente calibrados, podrán detectar perturbaciones en el
espacio recorrido por el láser causadas por las ondas gravitacionales que alterarán el
contacto óptico, generando nuevas interferencias (ver página 18).
Los detectores son calibrados de forma análoga a un interferómetro de
Michelson convencional, el cual puede ser calibrado para que ambos brazos se hallen
en contacto óptico utilizando un láser, que corresponde con una luz coherente, ya que
la distancia entre máximo y mínimos: longitud de onda, es constante, sin presentar
cortes de fase (es decir, es periódico). Además, es posible calibrar el interferómetro de
Michelson convencional a través de la emisión de luz blanca (luz incoherente) que
presenta distintas frecuencia asociadas a los distintos colores (rojo, verde, azul…) y que
al presentar cortes de fase permite calibrar correctamente el interferómetro al poder
observar un conjunto de anillos de diversos colores (debido a las distintas frecuencias
que se recogen en el espectro electromagnético de la luz visible), observando que se
hallan correctamente calibrados. Así pues, a diferencia del interferómetro de Michelson
y Morley de 1887 cuya intención era corroborar la presencia del éter luminífero (ver

26
Proyecto de Investigación de Bachillerato.

página 12), los detectores corresponden con una modificación que permite estudiar la
detección de ondas gravitacionales recurriendo al siguiente sistema:
Se produce una emisión de un láser que es posteriormente amplificado a través
de la utilización de espejos que incrementan la resonancia del interferómetro desde los
20W originales hasta aproximadamente 700W, siendo posteriormente divididos en dos
haces perpendiculares por una placa de vidrio recubierta de plata en una proporción de
1
hasta incrementar la potencia a 100kW nuevamente (durante el transcurso del láser
2
𝑊 (𝑡𝑟𝑎𝑏𝑎𝑗𝑜 𝑒𝑥𝑝𝑟𝑒𝑠𝑎𝑑𝑜 𝑒𝑛 𝑗𝑢𝑙𝑖𝑜𝑠)
en ambos brazos). La potencia corresponde con: 𝑃𝑜𝑡𝑒𝑛𝑐𝑖𝑎 = 𝑡 (𝑡𝑖𝑒𝑚𝑝𝑜 𝑒𝑥𝑝𝑟𝑒𝑠𝑎𝑑𝑜 𝑒𝑛 𝑠𝑒𝑔𝑢𝑛𝑑𝑜𝑠)
.
Para facilitar la detección de las ondas gravitacionales, ambos brazos presentan
cavidades ópticas que incrementan el efecto causado por una onda gravitacional en un
factor de 300. Además, ambos brazos se hallan en un vacío para facilitar que el láser
pueda viajar correctamente, así que la presión de las cámaras se mantiene bajo 1 μPa.
Para evitar cualquier ruido parásito que pueda causar perturbaciones o
interferencias que puedan afectar al sistema, cada detector está dotado de sensores
como acelerómetros, sismómetros, micrófonos, magnetómetros, detectores de rayos
cósmicos, receptores y un conjunto de detectores encargados de monitorizar la
meteorología. Además, otros canales obtienen información del interferómetro como su
estado en la operación y el estado de los sistemas de control, sincronizando esta
información con el sistema de posicionamiento global (GPS). Esta sincronización
temporal es crucial para detectar las ondas gravitacionales y es verificada a través de un
reloj atómico y un segundo repetidor GPS instalado en cada detector.
Finalmente, para que se pueda producir la recombinación del láser, estos han
de recorrer la distancia del brazo y ser reflejados nuevamente al recombinador. Ambos
detectores de Advanced LIGO disponen de un espejo en ambos brazos para la realización
de esta tarea. Estos espejos (masas) corresponden con 40 kilogramos de sustratos de
silicio fundido con revestimiento con baja pérdida dieléctrica para minimizar cualquier
ruido parásito causado por los espejos (ruido radioeléctrico causado como consecuencia
de la excitación y movimiento de los electrones en el espejo) que ha de ser eliminado.
Los espejos se hallan en cámaras con una presión inferior a 1 μPa y suspendidos sobre
un sistema de péndulos cuádruple que aísla los espejos a través de un sistema de
aislamiento sísmico que evita que la propagación de ondas sísmicas pueda afectar la
disposición de los espejos. Estos espejos son los encargados de reflejar correctamente
el láser, por lo que cuando se produce el paso de una onda gravitacional estos se
desplazan, generando interferencias que pueden ser detectadas y cotejadas con el otro
detector disponible. Estos desplazamientos son muy pequeños debido a la escasa
interacción de las ondas gravitacionales y su debilidad.

Advanced LIGO es más sensible que su antecesor, pudiendo captar frecuencias


comprendidas entre 100 y 300 Hz, siendo entre 3 y 5 veces más sensibles que los datos
iniciales de LIGO. En frecuencias menores, la diferencia es mayor al poder alcanzar una
sensibilidad diez veces mayor. Esto permite que los detectores respondan mejor a sus
observaciones al ser proporcionales a la amplitud de la onda gravitacional. Responde así
a un corrimiento hacia al rojo (efecto Doppler) que permite incrementar el volumen de
27
Proyecto de Investigación de Bachillerato.

espacio para el que son sensibles, incrementándose en una proporción equivalente al


cubo de la tensión de la onda gravitacional.

Imagen tomada en la Universidad Complutense de Madrid (Departamento de Óptica).

La imagen superior muestra el funcionamiento de uno de los detectores de


Advanced LIGO. La finalidad de que estos se hallen separados por 3600km permite no
solo estudiar el efecto con un ligero periodo de tiempo de diferencia causado por el
periodo de propagación de la onda gravitacional, sino que facilita triangular la posición
de las ondas gravitacionales que han sido registradas. Este hecho es de vital importancia
para la astronomía ya que permite determinar si la producción de las ondas
gravitacionales es relativamente común como en los procesos de coalescencia de los
agujeros negros y determinar cómo se produjo el proceso de coalescencia (hasta la
actualidad sólo se han producido detecciones de ondas gravitacionales causadas en
procesos por coalescencia, pero LSC – LIGO Scientific Collaboration- y Virgo
Collaboration no sólo han permitido detectar una cuarta onda gravitacional en conjunto:
GW170814, sino que es probable que revelen otra posible detección conjunta).
Para comprender el análisis de las distintas detecciones de Advanced LIGO es
necesario comprender cómo se produce un proceso de coalescencia y cómo se emiten
las distintas ondas gravitacionales de acuerdo a la equivalencia entre masa y energía de
Albert Einstein: 𝐸 = 𝑚𝑐².
En los procesos de coalescencia intervienen dos agujeros negros, generalmente
diferenciados por sus masas solares, su giro y su momento angular. El momento angular
corresponde con una magnitud física cuya ley de la conservación del momento angular
relaciona el momento lineal (P) y el vector radio de forma que:
𝐿 = 𝑟 ∗ 𝑃 = 𝑟 ∗ 𝑚 ∗ 𝑣 − 𝐹ó𝑟𝑚𝑢𝑙𝑎 𝑐𝑙á𝑠𝑖𝑐𝑎.
La presencia de un momento angular como consecuencia del giro de ambos
agujeros negros previos al proceso de coalescencia (colisión) es de vital importancia ya
que limitará la velocidad que adquiere el nuevo agujero negro como consecuencia de
este proceso y la energía emitida en forma de ondas gravitacionales.[6,8,13]

28
Proyecto de Investigación de Bachillerato.

2.3 Análisis de las observaciones de Advanced LIGO.

Desde la primera observación de las ondas gravitacionales el 14 de septiembre


de 2015 hasta la última observación de GW170814, Advanced LIGO en colaboración con
los detectores de Virgo, han corroborado la veracidad de la Teoría de la Relatividad de
Albert Einstein, abriendo nuevas vías de investigación tanto para la física como para la
astronomía. Para una correcta comprensión de los avances que plantea este documento
y una futura vía de estudio desde la física será necesario analizar las observaciones de:
GW150914, GW151226 y GW170104, excluimos los datos de GW170814.
GW150914
La detección de GW150914 se produjo el 14 de septiembre de 2015 a las
9:50:45 UTC, correspondiente con el primer periodo observacional de ambos
detectores: LIGO Hanford y LIGO Livingston tras haber permanecido inoperativos
mientras eran actualizados. Se corresponde con la primera detección de ondas
gravitacionales causadas por un fenómeno cósmico como es la coalescencia de dos
agujeros negros. En este proceso se consiguió datar las masas de ambos agujeros negros
en aproximadamente 36 masas solares y 29 masas solares, resultando en un agujero
negro único que consta de 62 masas solares, con la consecuente emisión de energía
equivalente a 3 masas solares: equivalencia entre la masa y la energía.
La detección de las ondas gravitacionales por Advanced LIGO culminó un
proceso de detección iniciado en el decenio de 1960, convirtiéndose en una nueva
prueba objetiva de la veracidad de la Teoría de la Relatividad a nivel macroscópico.
Además, permitió estudiar los efectos relativistas en agujeros negros. Tras la detección
de las mismas se estudiaron las observaciones a través de varios métodos durante 16
días, aproximadamente (expondremos estos métodos en las posteriores
observaciones).

En la imagen superior se observa la detección de GW150914 por el


detector de Livingston (derecha) y el detector de Hanford (izquierda). Esta detección se
obtuvo en una frecuencia comprendida entre los 50 y los 250 Hz y se muestra una
comparativa del evento entre ambos detectores. La frecuencia se incrementa,
existiendo un máximo de frecuencia que corresponde con la formación de un único
agujero negro tras la colisión de los otros dos (150Hz tras 8 ciclos). El tercer gráfico

29
Proyecto de Investigación de Bachillerato.

muestra las ondas gravitacionales derivadas del evento en el que intervinieron dos
agujeros negros con 36+5 +4
−4 𝑀 y 29−4 𝑀 formando un agujero negro con una masa total
de: 62+4−4 𝑀 con la consecuente emisión de aproximadamente 3𝑀 de energía en forma
de ondas gravitacionales. La tabla inferior muestra los valores a los que se produjo la
detección respecto a la distancia, en megapársecs (un megapársec equivale a 3,27 años-
luz) y el corrimiento hacia el rojo que pudo ser detectado.

Además, los detectores de Advanced LIGO fueron capaces de detectar cómo se


produjo el proceso de coalescencia, revelando un incremento de la intensidad que
coincide con la formación del agujero negro y la emisión de ondas gravitacionales. En
los modelos que se propusieron tras concluir con las observaciones se determinó que
para alcanzar las frecuencias que fueron obtenidas por los detectores, como
consecuencia de la génesis de interferencias constructivas y destructivas en ambos
detectores, sería necesario de acuerdo a la mecánica newtoniana que ambos cuerpos
se encontrasen a una distancia de aproximadamente 350 km, disminuyendo el radio e
incrementándose la velocidad a la que se desplazan ambos cuerpos (recordemos que en
un campo gravitatorio, la gravedad es inversamente proporcional a la distancia) y
afectando al momento angular de ambos agujeros negros. Además, los detectores
fueron capaces de medir el efecto magneto-óptico Kerr que derivó del proceso. Este
efecto describe un cambio en la polarización de los estados de un haz de luz cuando
interactúa con un material, por lo que debido a la naturaleza de un agujero negro como
un cuerpo supermasivo causado como consecuencia de un colapso gravitatorio y con
una fuerte atracción gravitatoria, por lo que la luz no puede escapar del agujero negro.
Este hecho se refleja como una disminución de la frecuencia debido a la luz que es
atrapada por el agujero negro. A las regiones del agujero negro donde la luz trata de
escapar, reciben el nombre de horizonte de sucesos.

El campo gravitatorio de un agujero negro es tan intenso


que existen regiones donde la luz trata de escapar
(horizonte de sucesos). Los agujeros negros destacan
por la observación de curvaturas de la luz en las regiones
próximas al cono. Además, como fue señalado por
Stephen Hawking, los agujeros negros emiten una
radiación observable (radiación de Hawking) como pares
de partícula-antipartícula. Esta radiación es la que
permite que el agujero negro acabe desapareciendo.
[Imagen extraída de: Breve Historia del Tiempo.]

30
Proyecto de Investigación de Bachillerato.

Durante las observaciones de GW150914 los detectores permanecieron


operativos durante varias horas. Se estudiaron posibles variaciones en ambos
detectores de la sensibilidad del instrumental, obteniendo los resultados típicos de un
periodo de análisis. Paralelamente, se estudió el instrumental utilizado para la
observación, descartando que la fuente de las observaciones fuese un ruido parásito.
Para ello, la susceptibilidad de los detectores frente a posibles cambios que originen un
ruido parásito fue estudiada, a través de la génesis de campos electromagnéticos,
emisión de radioondas, etc. Las primeras investigaciones sugerían que cualquier
perturbación ocasionada por el medio que pudiese ser medida por el interferómetro
debía de haber sido detectada por los sensores. En ambos detectores no se hallaron
perturbaciones que pudiesen causar una detección de tal magnitud y con una frecuencia
comprendida entre los 50 y 250 Hz, con un pico de frecuencia de 150Hz tras 8 ciclos.
Finalmente, las observaciones de ambos detectores describen el mismo suceso,
con la consecuente formación de un agujero negro y la emisión de ondas gravitacionales
correspondientes con una energía equivalente de 3 masas solares.

Cada modelo aplica ligeras variaciones para realizar la detección de GW150914,


se observa así que algunas de las características entre los detectores se conservan
respecto al tiempo de propagación de la onda gravitacional al ser introducidas
artificialmente. Cada detector cuenta con un sistema de detección de ruido parásito
(acelerómetros, sismómetros, magnetómetros, detectores de rayos cósmicos…) que
pueda afectar a la detección, por lo que el instrumental utilizado permite eliminar el
ruido parásito detectado al realizar una comparativa entre ambos detectores. En este
proceso se observa que la onda gravitacional puede contribuir a la detección en un
detector y afectar en el otro, debido al ruido parásito que pueda ser detectado, se puede
estimar que en la frecuencia de la detección hay ruido parásito que pueda ser eliminado
sin afectar a las observaciones. La imagen mostrada arriba muestra las diferencias entre
la búsqueda de una onda genérica transitoria, en movimiento (izquierda) y la formación
de un agujero negro a través de un sistema binario conformado por dos agujeros negros
(derecha). En ambos histogramas, los resultados marcados en color naranja
corresponden con los candidatos, mientras que el color negro corresponde con el ruido
captado por los detectores. Las letras C1 y C3 representan ruido parásito mientras que
C2 corresponde con cualquier otro rango de eventos. Entonces, GW150914 corresponde
con el evento detectado de mayor frecuencia (ondas gravitacionales).[8.19]

31
Proyecto de Investigación de Bachillerato.

GW151226.
La detección de GW151226 se corresponde con la segunda detección de ondas
gravitacionales por los detectores de Advanced LIGO. La detección se realizó a las 03:38
UTC el 26 de diciembre de 2015. La señal fue detectada a través de un sistema de filtrado
en línea encargado de filtrar las señales de agujeros negros por coalescencia. Dicha señal
fue captada durante un periodo de aproximadamente un segundo a través de ambos
detectores, separados por el tiempo de propagación de la onda, equivalente a ~6’9
milisegundos. Durante la observación la frecuencia se incrementó de 35Hz hasta los
450Hz durante un total de 55 ciclos, revelando un nuevo proceso de coalescencia con la
intervención de dos agujeros negros de masas solares: 14.2+8.3 +2.3
−3.7 𝑀 y 7.5−2.3 𝑀, formando
un agujero negro de aproximadamente 20.8𝑀 y emitiendo una masa solar de energía
en forma de ondas gravitacionales. Para realizar la detección, los detectores de
Advanced LIGO no pudieron aplicar el método de detección de ondas de tránsito
(transitorias) al ser un fenómeno más débil que la primera detección de GW150914. Los
investigadores corroboraron la detección de GW151226 a través de la génesis de
diversos modelos de ondas gravitacionales, aunque estos modelos no permitían obtener
la misma precisión que las observaciones de GW150914, por lo que las masas y
frecuencias así como la distancia a la que se halló la señal (440+180
−190 𝑀𝑝𝑐 son estimadas.

La primera imagen realiza una comparativa entre los datos obtenidos por el
detector de Livingston y el detector de Hanford. En la comparativa se muestra la
frecuencia obtenida en un rango de entre 30-600Hz, mientras que en ambos gráficos se
introduce la inferencia bayesiana (en negro), que indica la certeza de la hipótesis de
ambas observaciones, es decir, la certeza que existe de que esas observaciones se han
realizado. Las imágenes de la segunda y tercera fila corresponden con la detección de
GW1511226, mostrando un incremento de la frecuencia en la primera imagen desde los
30Hz en función del tiempo. La segunda imagen muestra el total de SNR (signal-to-noise-
ratio) o relación entre señal y ruido. Este proceso acumuló un total de 45 ciclos desde
los 35Hz hasta los 100Hz y 10 ciclos desde los 100Hz hasta los 450Hz. Finalmente en el
último gráfico se representa una función simple que relaciona la evolución de la
frecuencia respecto al tiempo.
32
Proyecto de Investigación de Bachillerato.

Para determinar la procedencia de la señal se recurrió a la utilización de


distintos buscadores donde se introducen los datos obtenidos (mostrados en la tabla
inferior) y que permiten determinar el significado de las observaciones. Se recurrió a un
buscador “offline” para estudiar los eventos en un intervalo de 15 milisegundos, 10
milisegundos como consecuencia del periodo de propagación de la onda y 5
milisegundos para determinar la existencia de otras posibles ondas irregulares. La
utilización de estos buscadores permitió a los investigadores realizar nuevos modelos
de ondas gravitacionales si su masa es menor de 100𝑀. También se realizaron
comparaciones entre el ruido detectado por ambos detectores y el ruido parásito
restante.

Los datos obtenidos, los cuales analizaremos tras determinar los distintos
gráficos de formación de agujeros negros por coalescencia y los posteriores modelos
aplicados por los investigadores de Advanced LIGO y LSC-LIGO Scientific Collaboration
corresponden con la gráfica superior.

El gráfico de la izquierda muestra el proceso de detección a través de un análisis


de la relación entre señal y ruido (SNR). Esta relación se pudo observar en ambas
búsquedas obteniendo el mismo valor. El gráfico de la derecha muestra el proceso de
detección a través de un registro de probabilidad de detección del evento.
Ambas imágenes detectan los eventos (“candidate events”) a través de los
datos obtenidos, mostrados en naranja. Finalmente, debido a la frecuencia en la que se
produjo la observación, se realizaron modelos que consistían en eliminar todos los
eventos detectados (azul) o excluyendo únicamente a GW150914 (negro).
Estos procesos permiten disminuir la probabilidad de que la señal detectada no
corresponda con ondas gravitacionales, evitando una falsa alarma (en función de sigma-
magnitud física). Los modelos que se utilizan para este proceso han estimado que la
probabilidad de que se trate de una falsa alarma equivale 3.5 ∗ 10−6 < 𝐸𝑣𝑒𝑛𝑡𝑜 < 10−7.

33
Proyecto de Investigación de Bachillerato.

Los investigadores recurrieron nuevamente a la inferencia bayesiana, que


permite determinar si el suceso detectado (hipótesis) es cierto en función de la
probabilidad y los datos empíricos obtenidos, observando si concuerda con las bases de
la teoría relativista para poder realizar los modelos de ondas gravitacionales. Además,
se recurrió al estudio del spin o giro para poder realizar correctamente los modelos
(estudiando el movimiento del eje de rotación de los agujeros negros) o la masa de Chirp
como la masa efectiva de un sistema binario y su emisión en ondas gravitacionales.[18]
Los investigadores recrearon diversos modelos para determinar si se trataba
realmente de un nuevo proceso de coalescencia o si podría tratarse de un sistema
binario de estrellas neutrones, como remantes de sendas explosiones de estrellas
supermasivas conocidas como supernovas. Las estrellas de neutrones destacan por ser
extremadamente densas de acuerdo al límite de Chandrasekhar, por lo que su volumen
no excede los 10 kilómetros y con una fuerte atracción gravitatoria.
Los detectores de Advanced LIGO permiten detectar si las ondas gravitacionales
pueden ser generadas por coalescencia de agujeros negros o por un proceso de colisión
entre estrellas de neutrones (sistema binario), gracias a la masa de Chirp, que variará si
se trata de un sistema de estrellas neutrones. La tabla superior indica un valor de
8.9+0.3
−0.3 𝑀 de masa de Chirp, permitiendo observar que se trata de un evento de
coalescencia entre agujeros negros y no entre estrellas de neutrones ya que su valor
debería de ser menor de 4.5𝑀.

Los investigadores realizaron varias simulaciones y modelos debido a las


características del sistema de agujeros negros ya que este se asemeja a un sistema de
estrellas de neutrones. La simulación superior coincide tanto la reconstrucción a través
de la simulación (gris) como la solución de Einstein para un nivel de credibilidad del 90%.
En la parte inferior se muestra la comparativa entre la frecuencia a la que se produce la
detección de la onda gravitacional con los datos relativistas, produciéndose en ambos
casos la detección de las ondas gravitacionales tras el proceso de coalescencia (máximo).
La observación de GW151226 durante el primer periodo observacional supuso
un éxito para investigadores, astrónomos y astrofísicos ya que planteaba nuevos
sistemas de agujeros negros con características similares a las características de un
sistema de neutrones y demostraban que los fenómenos de coalescencia son más
comunes de lo que inicialmente se había postulado por la comunidad científica.[9,18,19]

34
Proyecto de Investigación de Bachillerato.

GW170104.
GW170104 se corresponde con la tercera detección de ondas gravitacionales
por los detectores de Advanced LIGO. Esta detección se produjo durante el segundo
periodo observacional de los detectores de Advanced LIGO el 4 de enero de 2017 a las
10:11:58 (UTC). La detección de GW170104 permitió detectar nuevamente un proceso
de coalescencia, destacando una relación entre señal y ruido (signal-to-noise-ratio) o
SNR con un valor de 13. Los modelos demostraron que este tipo de eventos se producen
en una relación de 1 entre 20000 años para eventos similares a GW170104.
La detección de GW170104 permitió detectar el proceso de coalescencia entre
dos agujeros negros con masas solares de 31.2+8.4 +5.3
−6 𝑀 y 19.4−5.9 𝑀 con un nivel de
credibilidad del 90% - es decir, la probabilidad de que el suceso detectado sea una onda
gravitacional. Además, se implementó un nuevo método para determinar el spin o giro
de los agujeros negros a través de los componentes de giro, perpendiculares a la órbita
en el plano. Los datos obtenidos por Advanced LIGO estiman que la señal detectada
procede de 880+450 9
−390 𝑀𝑝𝑐 o 3 ∗ 10 años luz, experimentando un corrimiento hacia el
rojo de aproximadamente 0.18+0.7 −0.7 y emitiendo energía en forma de ondas
gravitacionales con un valor aproximado de 2𝑀.
Las observaciones de GW170104 determinaron que la masa solar del sistema
equivalía a un total de 50 masas solares, aproximadamente, y permitió a los científicos
determinar que el spin no tiene por qué estar alineado con el momento angular, pero
que este hecho no incluiría que un agujero negro no pueda presentar un spin cero (es
decir, que no se produzca ningún giro).
Antes de iniciar un análisis de los distintos gráficos, sería necesario recalcar que
tras el primer periodo observacional (GW150914 y GW151226) ambos detectores de
Hanford y Livingston recibieron un conjunto de nuevas mejoras para disminuir el ruido
parásito detectado. El detector instalado en Hanford (Washington) incrementó la
potencia del láser desde los iniciales 22 W hasta los 30 W (antes de que se produzca un
nuevo incremento) para reducir el ruido parásito a altas frecuencias y el detector de
Livingston contó con mejoras que permitieron disminuir el ruido parásito a baja
frecuencia. Posteriormente, ambos detectores fueron nuevamente calibrados para que
ambos brazos estuviesen en contacto óptico, produciendo una interferencia destructiva
en la pantalla (anillo negro).

35
Proyecto de Investigación de Bachillerato.

GW170104 fue primeramente identificado como


una onda gravitacional por el detector de
Livingston a través de un estudio. Sin embargo, la
información no fue inmediatamente enviada al
detector de Hanford para poder determinar si se
trataba de una nueva detección. Se recurrió a una
comprobación manual del estado de ambos
detectores y se contactó con los observatorios
asociados a Advanced LIGO para que realizasen una
búsqueda de posible radiación de radioondas,
microondas o incluso neutrinos excitados
correspondientes con leptones de carga eléctrico
cero y masa cero con una mínima interacción con
la materia y que experimentan el estado
inflacionario del Universo como un corrimiento hacia el rojo.
Los datos y análisis offline fueron utilizados para desestimar posibles
candidatos. Posteriormente se produjo un periodo de análisis mediante el cual se
filtraron datos de 5.5 días de detección desde el 4 de enero hasta el 22 de enero de
2017. Durante los análisis se utilizaron nuevos modelos de ondas gravitacionales
originadas por el proceso de coalescencia, ya que permiten determinar objetivos con
masas comprendidas entre: 2M≤ X ≲ 100-500M y con un spin máximo de 0.99.
Si los análisis y los modelos aplicados son correctos, el evento detectado
debería observarse en ambos detectores con un intervalo de 15 ms (10 ms
corresponden con el intervalo de propagación y 5 ms para posibles detecciones de
señales débiles). Para determinar si se trata de una onda gravitacional se compara la
frecuencia del evento con el ruido total detectado, extrayendo el ruido parásito y
utilizando la relación entre señal y ruido (SNR) obteniendo el gráfico superior. En el
gráfico superior se observa una comparación entre los datos extraídos por el detector
de Hanford y el detector de Livingston para frecuencias comprendidas entre los 30Hz y
los 350Hz. El gráfico intermedio muestra los datos correspondientes con GW170104 (en
negro) mientras que el gráfico inferior muestra el ruido parásito detectado por los
distintos sensores de Advanced (magnetómetros, sismómetros, etc.) que fue eliminado.

El análisis de GW170104 permitió a los investigadores utilizar nuevos modelos


de ondas gravitacionales consistentes con la Teoría de la Relatividad General, existiendo:
modelo con precesión en el giro con un único parámetro y un modelo con spin en ambos
agujeros negros genérico (a través de la dinámica). Utilizando los tecnicismos adecuados
corresponden con modelos: “effective-precession” y “full-precession” respectivamente.
La utilización de estos modelos permite a los investigadores determinar que
para cuerpos más masivos causados por coalescencia, la señal detectada recoge en
mayor medida el proceso de formación que para señales como GW151226 donde la

36
Proyecto de Investigación de Bachillerato.

energía emitida en forma de ondas gravitacionales equivalía a una masa solar y donde
el spin o giro es más relevante y facilita el cálculo de la masa de Chirp (ver página 34).
El spin de un agujero negro se puede clasificar en un rango de cero grados a 180
grados, por lo que si el spin se haya alineado con el momento angular este será de cero
grados y si no se encuentra alineado este equivaldrá a un spin de 180 grados. Estos datos
fueron obtenidos a través de nuevas simulaciones.
Los componentes del plano pueden ser calculados a través de un modelo con
precesión en su spin en un solo parámetro, permitiendo determinar la precesión total
de la órbita, con un valor comprendido entre:
0 < 𝑋(𝑝𝑟𝑒𝑐𝑒𝑠𝑖ó𝑛) < 1

Los gráficos de la izquierda muestran las mediciones


obtenidas de GW170104 respecto al spin de los distintos
agujeros negros. Los investigadores constataron que la
magnitud del spin de ambos agujeros negros, previa a la
coalescencia, no pudo ser estudiada al no encontrar
restricciones en el plano. El gráfico superior muestra la
densidad del agujero negro y los parámetros obtenidos para
el spin con un nivel de credibilidad del 90%.
Finalmente, el gráfico inferior muestra la relación entre un
spin cero (alineado) y un spin de no alineado de 180 grados.

Los detectores de Advanced LIGO permitieron crear modelos de ondas


gravitacionales por morfología independiente (mostrados en naranja) y modelos de
sistemas de agujeros negros binarios en azul. Los datos obtenidos por los detectores de
Advanced LIGO se muestran en color gris.[10]

La creación de este modelo permite


estudiar nuevos procesos de
formación de agujeros negros y
establecer ciertas condiciones
jerárquicas: evolución de sistemas
dinámicos en cúmulos estelares
extremadamente densos y evolución
de sistemas aislados en el interior de
galaxias.

37
Proyecto de Investigación de Bachillerato.

3. Las ondas gravitacionales y la Teoría M.

3.1 Los antecedentes a la Teoría M.


La Teoría M corresponde con una de las teorías en el ámbito de la física con más
repercusión en los últimos decenios. Esta teoría se postula como una teoría que podría
unificar las teorías cuánticas de campos al introducir la gravedad y la mecánica cuántica.
La Teoría M se postula como una teoría que permitirá estudiar la gravedad cuántica con
la terminología adecuada para su estudio. Revisaremos esta teoría en profundidad en el
siguiente punto.
La Teoría M no puede ser estudiada sin la contribución de los diagramas de
Feynman y la teoría de supercuerdas. La Teoría M se sustenta bajo la presencia de
ambos antecedentes, la mecánica cuántica y los principios relativistas que trata de
introducir.
Los diagramas de Feynman, previamente introducidos, corresponden con un
conjunto de diagramas desarrollados por el físico teórico americano Richard P. Feynman
en torno a los decenios de 1940-1950, constituyendo uno de los antecedentes de la
teoría de supercuerdas, la teoría M y la hipótesis de Everett. Estos diagramas fueron
concebidos para explicar la formulación de la electrodinámica cuántica, una de las
teorías cuánticas de campo, que permiten renormalizar la fuerza electromagnética
(fotones) a través de las bases de la mecánica cuántica y la formulación de Werner Karl
Heisenberg del Principio de Incertidumbre (1926) o la paradoja cuántica de Erwin
Schrödinger, cuyas interpretaciones suponen recurrir al Principio de Incertidumbre y al
modelo de Young o a formulaciones totalmente nuevas como la hipótesis de Everett.
Una de las características de los diagramas de Feynman permite estudiar cómo
se producen los procesos de transmisión de fotones entre distintos electrones. Este
aspecto encierra los principales enigmas de la mecánica cuántica si se aplica en la
totalidad de los campos de estudio de la misma. Los diagramas de Feynman permiten
representar con un alto grado de exactitud infinidad de diagramas que describen cómo
interactúan los fotones (bosones) con partículas materiales (electrones).
La representación de los diagramas origina lo que se conoce como historias,
correspondientes con posibles explicaciones del proceso de transmisión de fotones
entre los distintos electrones y entre las cuales, es posible inferir la naturaleza del
sistema donde se realiza la experimentación. Si el sistema corresponde con un sistema
abierto, es probable que los resultados del experimento se vean comprometidos por el
intercambio de materia o energía durante el experimento. Además, para observar la
evolución del experimento, es necesario observarlo en términos cuánticos, afectando
nuevamente a la posición y velocidad del electrón o electrones en el sistema (Principio
de Incertidumbre, véase página 17).
Si por el contrario el sistema corresponde con un sistema cerrado, no se
producirá una transmisión de materia, pero sí de energía, por lo que es importante
determinar la radiación externa que incide en el sistema (radiación cósmica o rayos
cósmicos, radiación ionizante, etc.). Sin embargo, para realizar el experimento en
condiciones idóneas, se ha de recurrir a un sistema aislado (véase página 22), sometido

38
Proyecto de Investigación de Bachillerato.

a un proceso de carga en frío para evitar que los resultados puedan verse
comprometidos.
Los diagramas de Feynman, entonces responderán a diversas cuestiones como
la diversidad de historias o las historias alternativas, correspondientes con los diversos
escenarios que permiten la transmisión de los fotones entre los distintos electrones
causando modificaciones en la trayectoria de los electrones (véase imagen inferior).

Los diagramas de Feynman no sólo se reducen a la


electrodinámica cuántica (QED), sino que pueden
ser utilizados para explicar fenómenos físicos
concretos en términos de probabilidad o suma de
historias. Esta suma de historias recibe el nombre
de suma de Feynman y permite determinar, a
través de un proceso de renormalización (similar
al proceso de estudio de límites en las funciones
matemáticas) aspectos conocidos como la masa y
la carga del electrón. Estos procesos permiten realizar una suma hasta evitar obtener un
valor infinito (recordemos que existen infinitos diagramas de Feynman, y por ende
infinitas historias alternativas bajo distintas probabilidades).
Otra de las características más relevantes de los diagramas de Feynman permite
estudiar el Principio de Incertidumbre de Werner Karl Heisenberg y el efecto túnel
observado en el interferómetro de Young. Este efecto es consecuencia de una
modificación de la trayectoria de una partícula (por ejemplo, un electrón) durante un
camino inicialmente definido. Estas modificaciones de la trayectoria son propias del
fenómeno de interferencia de las partículas y pueden ser descritas como consecuencia
de las distintas probabilidades de que se desarrolle una historia. Para estudiar cómo una
partícula como el electrón al interferir consigo mismo origina un patrón de interferencia
(destructiva o constructiva) en una pantalla, los diagramas de Feynman postulan que la
partícula puede recorrer cualquier camino antes de atravesar las rendijas del
experimento. Ciertamente, no parece lógico o racional, pero los diagramas de Feynman
y las observaciones indican que sí es posible que una partícula pueda describir estas
trayectorias, descritas a través de la suma de Feynman de las imágenes inferiores,
demostrando nuevamente que nuestra percepción sensorial no es válida y debemos
guiarnos por el método científico y los datos objetivos. Imágenes extraídas de
El gran diseño.[7,12]
La imagen de la izquierda muestra la
trayectoria de una partícula a través de la suma
de Feynman (suma de vectores), obteniendo
un vector α con una trayectoria determinada y
un vector β como vector nulo. Este fenómeno
se puede explicar como un fenómeno de
interferencia (constructiva – si los máximos y
mínimos coinciden- y destructiva si se oponen).

39
Proyecto de Investigación de Bachillerato.

Los diagramas de Feynman sentaron las bases para la aparición de la Teoría M,


aunque también provocaron la aparición de nuevas teorías como la hipótesis de Everett.
La hipótesis de Everett fue desarrollada por el aún estudiante de Princeton,
Hugh Everett en 1957. En la hipótesis, Everett señala la existencia de dos posibles
resoluciones cuando realizamos una medición, en contraposición con interpretación de
Copenhague sobre la que se establece que al realizar una medición, conocemos el
resultado definido de la misma. Sin embargo, existe una vaguedad respecto al término
de medir, ya que pasaría de una superposición (es decir, diversos posibles escenarios
para la observación y posibles resultados) a un estado definido que ha sido obtenido.
Este hecho provoca la inevitable pregunta: ¿qué significa medir? ¿Por qué el hecho de
realizar una medición permite determinar un estado definido observado y no un estado
superpuesto?
La hipótesis o interpretación de Everett trata de resolver el problema aplicando
una de las características de los diagramas de Feynman, la diversidad de historias
alternativas (los diagramas de Feynman pueden ser aplicados a la cosmología como se
observará en la Teoría M), por la que Everett postula que el estado cuántico debe reflejar
la totalidad del Universo, incluyendo al observador. Esta interpretación conduce a la
sustitución del estado definido en la medición, propio de la interpretación de
Copenhague, por un estado superpuesto. Este nuevo estado superpuesto define la
existencia de dos posibles historias superpuestas.
Tomemos la paradoja cuántica del gato de Schrödinger como un sistema que
deseamos medir, el gato corresponde con la partícula, pero para poder observar la
partícula hemos de abrir una caja (interferimos con el sistema). La paradoja cuántica
establece una condición inicial, el gato presenta las mismas probabilidades de estar vivo
1
que de estar muerto, lo que se traduce en una proporción de 2. De acuerdo a los
diagramas de Feynman, presentaríamos un conjunto de historias alternativas
relacionadas a través de probabilidad, estas historias pueden ser definidas utilizando
modelos cosmológicos que introducen variables externas que examinaremos en la
teoría M. Por el contrario, la interpretación de Copenhague limita la observación o
medición a un estado definido, o bien el gato se halla en perfectas condiciones, o bien
deberíamos preparar un debido enterramiento. Sin embargo, la interpretación de Hugh
Everett establece un estado superpuesto A, en el cual el gato estaría en un estado A
(vivo) y un estado superpuesto B, en el cual el gato estaría en B (muerto). Estos dos
estados se producen de manera simultánea y plantean la existencia de diversos mundos
(o estados) generados tras una medición.
Nuevamente, los científicos han adoptado posturas adversas en este ámbito,
algunos defienden que la interpretación de Copenhague es correcta para un observador
externo, pero otros defienden otras posibles interpretaciones en las que se interfiere
con las observaciones, un hecho que fue reflejado en las interferencias creadas en el
interferómetro de Young si se observa qué rendija está siendo atravesada por el electrón
(debido a los diagramas de Feynman y la diversidad de caminos posibles, un electrón
puede pasar varias veces por una u otra rendija antes de ser observador en la pantalla)
estando en completa concordancia con las bases presentadas por el Principio de
Incertidumbre.[12,14,15]
40
Proyecto de Investigación de Bachillerato.

La teoría de supercuerdas corresponde con el antecedente más próximo a la


Teoría M. La teoría de supercuerdas fue concebida en su mayoría entre los decenios de
1960 a 1980 y plantea la existencia de “cuerdas” en el Universo. Estas “cuerdas”
corresponden con estados de energía de los que se compone la materia ordinaria, las
cuales, pueden presentar distintas frecuencias o armónicos y conformar distintas
partículas en función de su estado.
Esta teoría se sustenta en la búsqueda de una teoría cuántica de campos que
intente explicar la gravedad en términos cuánticos, recurriendo a la existencia de
energía que puede ser explicada como cuerdas en dos dimensiones. Esta energía
interactúa con el espacio como consecuencia de sus oscilaciones. Las oscilaciones
pueden ser abiertas, las cuales se propagan libremente a través del espacio o cerradas,
propagándose en una misma dirección pero con sentido opuesto (movimientos a la
derecha o hacia la izquierda de acuerdo con la teoría).
La teoría de cuerdas añade la mecánica cuántica y permite una cuantización de
la energía, similar a la hipótesis de Planck, pero recurriendo a estados cuánticos de las
distintas cuerdas. Estos estados pueden ser virtuales (o fantasmas) y estados
observables (reales). Además, la teoría de supercuerdas integra correctamente la
existencia de las partículas que observamos en la actualidad en aceleradores de
partículas como el gran colisionador de hadrones de Ginebra (LHC- Large Hadron
Collider), dependiendo de su spin.
Finalmente, la teoría también permite estudiar la integración de la gravedad en
la teoría cuántica de campos recurriendo a una representación similar de los diagramas
de Feynman en dos dimensiones. Además, la teoría de supercuerdas ha resultado ser
válida para observar partículas en la actualidad y se postula como una teoría que podría
determinar la presencia del gravitón. Elimina problemas de la teoría cuántica de campos
como la distancia cero en un sistema como consecuencia de su formulación, procedente
de las contribuciones de Schrödinger y Paul Dirac y permite la creación de partículas y
su aniquilación. La teoría de supercuerdas integra la existencia de dimensiones
alternativas a las 3 dimensiones espaciales y la dimensión temporal (hasta la génesis de
4 dimensiones espacio-temporales) introduciendo un total de 10 dimensiones o en
algunos casos hasta 26. Sin embargo, la comunidad científica ha reducido el número de
dimensiones predichas por la teoría a 10 dimensiones las cuales podrán variar en
función de su orientación y del tipo de cuerdas que se produzcan (abiertas o cerradas).
Las dimensiones adicionales no pueden ser observadas ya que se hallan plegadas o
curvadas sobre sí mismas, al igual que en la Teoría M.[12,20]

41
Proyecto de Investigación de Bachillerato.

3.2 La Teoría M en la nueva física.


La Teoría M surge tras las complicaciones técnicas de la teoría de supercuerdas.
Como se ha citado, la teoría de supercuerdas presentaba un total de 10 dimensiones (4
dimensiones espacio-temporales y 6 dimensiones externas adicionales y curvadas, las
cuales no pueden ser detectadas directamente. Sin embargo, la teoría de supercuerdas
podía llegar a introducir un total de 26 dimensiones atendiendo a la presencia de los
bosones, originando una mayor complejidad a la teoría. Fue en torno al decenio de 1980
cuando surgió la Teoría M.
La Teoría M constituye uno de los campos de estudio de la física actuales más
complejos, ya que se postula como una teoría que permite integrar la gravedad dentro
de la teoría cuántica de campos. Difiere de la teoría de supercuerdas al no introducir los
estados de energía de las distintas cuerdas (las cuales podían ser reales y virtuales o
fantasmas), sino que introduce un concepto físico totalmente nuevo: la supergravedad.
La supergravedad constituye una de las características esenciales de la Teoría
M y un requisito esencial para la subsistencia de la misma. Para que la teoría sea
consistente, es necesario la presencia de la supersimetría, que origina la supergravedad.
La supersimetría corresponde con una particularidad de la teoría M, que permite
observar que las partículas transmisoras de fuerza (bosones como fotones-
electromagnetismo, W, Z- interacción nuclear débil, gluones- interacción nuclear fuerte
y el gravitón) cuyo spin es un número entero (por ejemplo, el fotón presenta spin 1)
pueden estar relacionadas con fermiones: cuyo spin es un número racional, véase los
1
electrones cuyo spin, de acuerdo al Principio de exclusión de Pauli es de ± . La
2
supersimetría estudia entonces una relación mediante la cual a cada bosón está
asociado un fermión y viceversa y es concluyente con la naturaleza de las teorías
cuánticas de campos.
La supergravedad evita uno de los problemas de los diagramas de Feynman
(véase páginas 19, 38, 39, 40), la existencia de infinitos cuando se trata de renormalizar
la gravedad. Los diagramas de Feynman permitían estudiar la electrodinámica cuántica
(QED) a través de la suma de diagramas o suma de Feynman y permitía renormalizar la
teoría cuando se presentan infinitos diagramas que relacionan la transmisión de fotones
entre distintos electrones. Los diagramas de Feynman pueden ser aplicados a nivel
cuántico en la cromodinámica cuántica, pudiendo ser renormalizada, pero estos
diagramas no pueden ser aplicados a la gravedad y a una teoría cuántica de la gravedad
ya que se obtendría bucles cerrados: positivos si corresponden con bosones y negativos
si corresponden con partículas materiales (leptones, bosones…).
La Teoría M exige la presencia de supersimetría al eliminar los bucles cerrados
causados por los diagramas de Feynman e integrar correctamente la fuerza de la
gravedad en la mecánica cuántica para determinar el origen de las propiedades
macroscópicas de la gravedad: conocemos que la gravedad es directamente
proporcional al producto de sus masas e inversamente proporcional al cuadrado de su
distancia según la dinámica newtoniana.

42
Proyecto de Investigación de Bachillerato.

La Teoría M introduce el
concepto de la simetría, afectando al
modelo estándar de partículas
actual, visible a la izquierda y en el
que existen un total de 12 partículas
elementales, los conocidos como
quarks y sus distintos sabores (“up”,
”top”, ”down”, “strange”, “charmed”
y “bottom”) y los leptones: electrón,
Equivalente en la
Nombre. Spin. Spin. neutrino electrón, muón, neutrino
teoría.
muón y tau, neutrino tau y los
3 distintos bosones.
Gravitón 2 Gravitino
2 El equivalente en la teoría de
1
Fotón 1 Fotino supercuerdas son las partículas
2 supersimétricas o SUSY, las cuales
1
Gluón 1 Gluino presentan la notoria propiedad de
2 asociar los distintos bosones a los
1
𝑊 +, 𝑊 − 1 𝑊𝑖𝑛𝑜 + 𝑦 𝑊𝑖𝑛𝑜 − fermiones y viceversa, modificando
2 el spin de las distintas partículas
1
𝑍0 1 Zino supersimétricas e integrando al
2 gravitón como un bosón detectable.
1
Higgs 0 Higgsino
2

La Teoría M se fundamenta en la diversidad de historias alternativas de los


diagramas de Feynman, los cuales, a través de los distintos diagramas relacionaban
distintos patrones de transmisión de los fotones entre distintos electrones, siendo
relacionados a través de la suma de Feynman. La Teoría M integra las historias
alternativas como un modelo de aplicación cosmológica, como consecuencia de una
probabilidad.
La existencia de un conjunto de historias alternativas permitió a científicos
como Hugh Everett desarrollar nuevas interpretaciones de los fenómenos cuánticos
(véase página 40) pero en la Teoría M, las historias alternativas delimitan una serie de
probabilidades de que se desarrolle una historia u otra y cómo estas afectan a la
evolución del Universo.
La formulación de la Teoría M introduce un total de 4 dimensiones espacio-
temporales y 7 dimensiones adicionales, las cuales se hallan curvadas o plegadas, siendo
inicialmente indetectables (discutiremos esta vía de detección como el avance
planteado en el proyecto en el siguiente punto y en la conclusión) y sobre las que se ha
postulado la presencia de las partículas que sustentan la teoría; en la teoría de
supercuerdas, los estados de energía (que podían presentar armónicos según nuevas
contribuciones), se hallan en las dimensiones adicionales de la teoría, por lo que la
presencia de estas dimensiones ha sido corroborada por la comunidad científica en su

43
Proyecto de Investigación de Bachillerato.

totalidad. Sin embargo, la Teoría M presenta la particularidad de introducir los


diagramas de Feynman como un conjunto de historias alternativas que permiten
determinar cómo evolucionará un sistema. Antes de estudiar la importancia de los
diagramas en el ámbito de la cosmología, sería menester recalcar la contribución de los
modelos de De Sitter y Alexander Friedmann respecto a los dominios del Universo.
Los modelos cosmológicos han permitido estudiar el Universo desde el modelo
aristotélico (geocéntrico) y el modelo ptolemaico (introducción de la retrogradación en
los distintos planetas como consecuencia de un fenómeno visual) hasta el
heliocentrismo de Nicolás Copérnico, posteriormente corroborado por Johannes Kepler
a través de las Tres Leyes de Kepler (gracias a las observaciones del astrónomo Tycho
Brahe) y la dinámica newtoniana. Sin embargo, la Teoría de la Relatividad General de
Albert Einstein (1915) y su posterior resolución por De Sitter y Alexandre Friedmann
sentaron las bases de un Universo en un estado inflacionario (véase páginas 14, 20, 21,
22 y 23). Otros modelos cosmológicos surgieron en contraposición del estado
inflacionario del Universo corroborado por las observaciones de Hubble, como el
modelo del estado estable (ver página 21).
Sin embargo, la aparición del modelo corriente (con ligeras variaciones respecto
al modelo del Big Bang), basado en el estado de expansión del Universo, dinámico e
isótropo ha contribuido al estudio de la evolución del Universo en gran medida. El origen
de las distintas historias alternativas parte del estudio del Universo actual e introduce el
modelo corriente.
La Teoría M postula la existencia de aproximadamente 2500 Universos, los
cuales no pueden ser observados lo que provoca que la comunidad científica suela
recurrir a la analogía con burbujas que aparecen y desaparecen para explicar la
formación de estos. De acuerdo a los diagramas de Feynman, existen infinitas historias
alternativas que permiten la génesis de Universos con leyes físicas distintas. La
formulación de la Teoría M permite demostrar la formación de los distintos Universos
como consecuencia de la naturaleza de la Teoría M, y en principio no violaría las leyes
de la física al ser una de las características de esta teoría. Ciertamente, puede parecer
un aspecto discutible, pero la expansión del Universo en el modelo corriente alcanzó
límites que sobrepasan la velocidad de la luz y sin embargo, la teoría permite demostrar
que el Universo en su totalidad no estaría limitado por la Teoría de la Relatividad.
La Teoría M también concluye con la existencia de dominios, regiones separadas
en el espacio como consecuencia de un estado inflacionario, quedando aisladas del resto
de las regiones como una posible explicación del origen de los distintos Universos
predichos por la teoría.

44
Proyecto de Investigación de Bachillerato.

Se han desarrollado diversos métodos que permiten integrar la Teoría M y los


diagramas de Feynman en nuestro Universo. Los diagramas de Feynman constituyen la
principal base de los modelos al predecir diversas historias alternativas, permitiendo la
aparición de dos modelos: el modelo arriba-abajo o “top-down” y el modelo abajo-
arriba o “bottom-up”. Ambos modelos prosiguen con los diagramas de Feynman y la
interpretación de las distintas historias en un ámbito cosmológico.
El modelo “arriba-abajo” corresponde con un modelo que se inicia con la
aparición de nuestro Universo, sometido a un conjunto de leyes físicas determinadas.
Este modelo postula la presencia de un conjunto de historias alternativas que pueden
conducir al estado actual del Universo sin alterarlo como consecuencia de la suma de
historias. El modelo alcanzaría el estado actual del Universo pese a escoger cualquier
posible historia dentro de los diagramas de Feynman. Los modelos tienen en
consideración el principio antrópico débil y el principio antrópico fuerte.
El principio antrópico fuerte, usualmente utilizado para reforzar la idea de una
divinidad, corresponde con el principio que trata de explicar la formación de los distintos
Universos. En el principio antrópico fuerte se expone que la Teoría M no determina
correctamente cómo se puede producir la aparición de estos Universos (recordemos
que teóricamente se predice que existen 2500 Universos distintos), pero una de las
características de los diagramas de Feynman son el conjunto de historias alternativas,
las cuales pueden desarrollarse en función de la probabilidad. Este hecho explicaría la
reducción del principio antrópico fuerte al principio antrópico débil al postular que todo
un Universo sí puede generarse.
El principio antrópico débil postula que no es posible modificar las condiciones
del sistema como la proporción de 1000 millones de fotones por partícula nuclear, el
principio de libertad asintótica o la temperatura a la que fue detectada el fondo de
radiación de microondas de 1965 (ver páginas 22 y 23), entre otros. Los diagramas de
Feynman predicen una diversidad de historias alternativas por lo que es posible observar
que puedan existir otros dominios o Universos con diversas leyes físicas.
Por el contrario, el modelo cosmológico “bottom-up” o “abajo-arriba”
corresponde con un modelo cosmológico basado en la existencia de una única historia
bien definida desde el instante inicial del Universo, siguiendo la interpretación de
Copenhague para un estado definido de un sistema en observación. La comunidad
científica aún está estudiando estos aspectos de la Teoría M, por lo que es difícil
aventurar si la Teoría M cumplirá su principal requisito, integrar la gravedad en una
teoría cuántica de campos.[12,15]

45
Proyecto de Investigación de Bachillerato.

3.3 La importancia de las ondas gravitacionales en la nueva teoría.


La detección de las ondas gravitacionales por Advanced LIGO no sólo permite
estudiar nuevos modelos de evolución del Universo, entre los que destacan: evolución
de sistemas dinámicos y evolución de sistemas aislados, sino que puede convertirse en
una herramienta crucial para el desarrollo de la Teoría M.
Los sistemas dinámicos corresponden con el estudio de cúmulos estelares
extremadamente densos cuyas implicaciones en el proceso de coalescencia explican la
aparición de agujeros negros en el interior de las galaxias. La mayoría de las galaxias
presentan agujeros negros supermasivos localizados en su interior, pero en nuestra
galaxia, el agujero negro supermasivo Sagitario A, no corresponde con un ejemplo de un
sistema dinámico, sino un sistema aislado. Los estudios de los agujeros negros
supermasivos permiten a los astrónomos y astrofísicos demostrar la veracidad de la
teoría de la Relatividad General al estudiar los efectos relativistas.
En los sistemas aislados, a diferencia de los sistemas dinámicos, los agujeros
negros están localizados en el interior de galaxias, determinando la evolución del
sistema. Esta evolución quedará determinada por algunas de las características del
agujero negro como su masa, su giro, etc.
Sin embargo, la detección de ondas gravitacionales, y en especial la detección
de GW170817 (anunciada durante la edición de este documento), como una colisión
entre dos estrellas de neutrones, extremadamente densas como consecuencia de su
reducido volumen, no sólo podrán ayudar a comprender la evolución de las distintas
galaxias. Las ondas gravitacionales pueden corresponder con una primera herramienta
para determinar las características de la Teoría M. Esta detección se fundamentaría en
corroborar la existencia de la materia oscura y revelar la relación que existe entre esta
y las bases de la Teoría M.
La materia oscura fue primeramente detectada por Vera Rubin estudiando la
galaxia de Andrómeda (M31), observando pequeñas variaciones de los periodos de
rotación de las estrellas. Este hecho causó la formulación de la materia oscura, que
compone cerca del 27% del Universo, mientras que la materia ordinaria ocupa un 5% y
la energía oscura cerca del 68%. Pero, ¿qué relación podría existir entre la materia
oscura y las ondas gravitacionales? ¿Podrían ser un indicio de la Teoría M?
La existencia de la materia oscura ha sido ampliamente corroborada por la
comunidad científica, al igual que la energía oscura, causante de un incremento de la
velocidad de expansión del Universo frente a los valores inicialmente calculados por
Edwin Powell Hubble. Esta expansión acelerada se ha incrementado, pudiendo ser
detectada al realizar una comparativa entre los datos proporcionados por Hubble, la
detección del fondo de radiación de microondas de 1965 y los sucesivos datos extraídos
por satélites equipados con detectores de microondas y los datos actuales obtenidos.
Además, se conocen algunas de las características de la materia oscura como
consecuencia del estudio de modelos y los datos extraídos durante el último siglo, estas
características y las correspondientes partículas que componen la materia oscura
podrían abrir las puertas a una investigación internacional que permita detectar la
materia oscura y desvelar cómo funciona.

46
Proyecto de Investigación de Bachillerato.

Para comprender cómo la comunidad científica podría enfocar este estudio, es


necesario comprender que la materia oscura difiere de la materia ordinaria. La materia
oscura apenas interactúa con la materia ordinaria. En realidad, la materia oscura, sólo
interacciona con una de las cuatro fuerzas universales, la gravedad, pero su interacción
es tan débil que no ha podido ser detectada directamente. Además, se ha observado
que la materia oscura tampoco interacciona consigo misma, de lo contrario, sería
posible observar sus efectos.
La materia oscura debe estar compuesta por partículas distintas a las partículas
que conforman la materia ordinaria según el modelo estándar (véase página 43), por lo
que han surgido nuevos candidatos que examinaremos posteriormente. La materia
oscura, al no estar compuesta por las partículas elementales conocidas, se comporta de
manera distinta a la materia ordinaria y conocemos algunas propiedades: es
extremadamente estable (de lo contrario, habría podido ser detectada a través de
diversos métodos) y ha de ser fría. En este contexto, que la materia oscura sea fría
implica que sus partículas no se desplacen a grandes velocidades, facilitando el
agrupamiento de la materia oscura en diversas regiones del espacio.
Los esfuerzos por detectar la materia oscura han permitido a los científicos
desarrollar nuevas técnicas para detectar las posibles partículas que puedan componer
la materia oscura. Se ha postulado teóricamente la existencia de posibles candidatos:
las partículas WIMPs (“Weakly Interacting Massive Particles” o partículas masivas de
interacción débil) y los axiones.
Los WIMPs corresponden con partículas masivas originadas durante los
instantes iniciales del Universo con una proporción relativamente alta (recordemos que
la materia oscura conforma cerca del 27% del Universo) y con una masa que oscila entre
las 10 y 1000 veces la masa del protón (partícula nuclear formada por dos quarks “up” y
uno “down”). En la actualidad, los WIMPs se han constituido como el principal candidato
para componer la materia oscura.
Resulta interesante mencionar que los WIMPs encajan con la teoría de la
supersimetría (véase páginas 42 y 43), ya que sugiere la existencia de este tipo de
partículas. En la supersimetría, los WIMPs reciben el nombre de neutralinos al ser una
partícula muy estable, de interacción débil y masiva. Además, encaja con la presencia
de las 11 dimensiones predichas por la Teoría M (4 dimensiones espacio-temporales y 7
dimensiones adicionales curvadas sobre sí mismas). Exploraremos el significado de estas
partículas en la conclusión.
Los axiones, corresponden con el otro candidato para la materia oscura, siendo
partículas extremadamente estables, de masa inferior al neutrino, sensibles a la
interacción nuclear débil y cuya producción en los instantes iniciales corrobora la
presencia de materia oscura en la proporción actual del Universo.
Sin embargo, ambas partículas presentan distintos métodos de detección,
directos e indirectos, los cuales hasta la actualidad no han permitido corroborar la
existencia de estas partículas:
Los métodos de detección directos tratan de observar la interacción entre la
materia oscura y la materia ordinaria. La materia oscura interactúa débilmente con la

47
Proyecto de Investigación de Bachillerato.

materia ordinaria, por lo que el objetivo del sistema es detectar la interacción entre esta
y los núcleos atómicos ordinarios. Los investigadores recurren a sistemas aislados,
generalmente en regiones remotas como en las minas o en cordilleras (véase el proyecto
ANAIS en el Pirineo aragonés), donde disponen gases en el interior de cámaras
protegidas de los rayos cósmicos, evitando la transmisión de materia y energía.
Este proceso de detección permite observar la interacción entre la materia
oscura y la materia ordinaria al producirse una modificación de la trayectoria del núcleo
atómico tras interactuar con la materia ordinaria. Es necesario recordar que la materia
oscura atraviesa la materia ordinaria sin apenas interactuar a un ritmo de
aproximadamente de 300 protones por litro (es decir, la cantidad de materia oscura que
atraviesa un litro equivale a aproximadamente la masa de 300 protones) calculada tras
las observaciones del movimiento de estrellas sometidas a la materia oscura. En estos
sistemas aislados se recurre al proceso de carga en frío (véase página 22) para minimizar
el ruido parásito que pueda afectar al experimento.
Los sistemas de detección indirecta tratan de estudiar la producción de
partículas ordinarias a través de la colisión entre la partícula de materia oscura y su
correspondiente antipartícula (proceso de aniquilamiento entre pares partícula-
antipartícula) que permitiría discernir algunas de sus propiedades. Periódicamente se
publican resultados de estos experimentos, pero resulta difícil determinar si las
partículas ordinarias detectadas proceden de un proceso de aniquilamiento o de
eventos cosmológicos como los rayos cósmicos o las supernovas.[4]

La imagen de la izquierda muestra una


cámara utilizada para la detección de
la materia oscura. Para realizar la
detección, se utilizan gases como el
xenón (gas noble), que puedan
interaccionar con la materia oscura.
Este sistema está protegido
generalmente por plomo arqueológico
(fundido hace más de 2000 años) u
otros elementos que aíslen el sistema
de ruido parásito externo.

48
Proyecto de Investigación de Bachillerato.

La detección de ondas gravitacionales por los detectores de Advanced LIGO ha


permitido detectar recientemente una nueva onda gravitacional: GW170817 que ha
permitido a los investigadores corroborar una hipótesis que había sido previamente
modelizada a través de superordenadores: la colisión de dos estrellas de neutrones
permite emitir energía en forma de ondas gravitacionales que perturban el espacio,
pudiendo ser detectadas por interferometría láser a través de los detectores. Además,
GW170817 se diferencia de las señales previamente detectadas al permitir estudiar un
fenómeno como la emisión de radiación electromagnética a diversas longitudes de onda
(rayos X, principalmente) desde diversos observatorios.
Los detectores de Advanced LIGO en colaboración con Advanced Virgo y centros
de observación astronómica a nivel internacional observaron este proceso de colisión y
fueron capaces de triangular la posición del evento con relativa precisión. Los datos
extraídos revelaban una señal que se prolonga durante cerca de un minuto frente a las
escasez de ruido detectado en un proceso de coalescencia. Esta nueva detección ha
facilitado observar a nivel global un fenómeno cosmológico violento, capaz de emitir
ondas gravitacionales, resultando esperanzador para el estudio de la evolución de
estrellas, los distintos elementos que se generan tras una colisión, etc.
Sin embargo, una posibilidad que aún no ha sido planteada en la comunidad
científica consistiría en utilizar los detectores de ondas gravitacionales para corroborar
la validez de la Teoría M, las propiedades de las partículas supersimétricas podrían ser
observadas como consecuencia de la detección de la materia oscura y sus propiedades
a través de un fenómeno de coalescencia. ¿Cómo podría detectarse un evento de tal
magnitud?
La Teoría M se fundamenta en los diagramas de Feynman para el estudio de la
diversidad de historias alternativas y la evolución de sistemas e introduce la conocida
como supersimetría para evitar el problema de los infinitos bucles en los diagramas
producidos al intentar renormalizar la gravedad en una teoría cuántica de campos.
Conocemos algunas de las características de esta teoría como la presencia de las
partículas supersimétricas (véase página 43), pero estas no han sido detectadas.
Como se ha expuesto a lo largo de este capítulo, la materia oscura exige la
existencia de una partícula o partículas, no incluidas en el modelo estándar de partículas
para partículas materiales. Una de las partículas que se postula teóricamente como la
partícula de la materia oscura son los WIMPs ya citados. En este punto el lector podrá
suponer la finalidad de las ondas gravitacionales respecto a la Teoría M.

Toda la exposición en el proyecto, desde los avances científicos en el


electromagnetismo hasta la Teoría M me permiten llegar a la siguiente conclusión: las
ondas gravitacionales se postulan como la herramienta perfecta para detectar la
interacción de la materia oscura con la gravedad y obtener la información necesaria para
delimitar las características de la materia oscura y su relación con la supersimetría.

49
Proyecto de Investigación de Bachillerato.

4. Conclusión.
Resulta imposible no admirar los esfuerzos de los investigadores para
demostrar la existencia de las ondas gravitacionales desde la predicción de Albert
Einstein de 1916. Desde entonces, la física ha experimentado diversidad de cambios,
que culminan en los estudios actuales y los intentos de integrar la mecánica cuántica y
la gravedad en una única teoría. Esos esfuerzos han transformado nuestra noción de la
naturaleza y las leyes que la rigen y suponen una modificación de nuestra concepción
de los principios físicos y de la naturaleza misma.
La detección de las ondas gravitacionales ha sido considerada como el
descubrimiento del siglo, abriendo nuevas vías de estudio para la astronomía y la
astrofísica. Además, la física también puede aprovechar estos avances para acercarse
más a una teoría cuántica de campos que integre la gravedad. Conseguirlo sería uno de
los avances científicos más relevantes.
Previamente se expuso la presencia de la materia oscura, constituyente de
cerca del 27% del Universo, y se ha tratado de ligar estos avances con la Teoría M. La
presencia de la materia oscura y las ondas gravitacionales corresponde con una de las
posibles vías de estudio para los detectores de ondas gravitacionales. Esta detección de
la materia oscura, consecuencia de un fenómeno cosmológico que permita la emisión
de las ondas gravitacionales, permitiría delimitar las características de la materia oscura
y abrir una nueva vía de conocimiento que conduciría a la formulación de algunas de las
características de la Teoría M.
Conocemos que la materia oscura sólo interactúa con una de las cuatro fuerzas
universales: la gravedad, y sus partículas han de ser sensibles a la interacción nuclear
débil. La comunidad científica ha postulado como posibles candidatos: los WIMPs y los
axiones. Si los WIMPs resultan ser los candidatos, la comunidad científica estaría más
cerca de hallar una formulación concreta de la Teoría M al poder estudiar cómo se
integran los WIMPs respecto a las condiciones de supersimetría exigidas. Para realizar
la detección, sería necesario el esfuerzo internacional para determinar aquellas regiones
del espacio sometidas a un intenso campo gravitatorio y realizar un seguimiento de su
evolución.
La evolución de este sistema podría revelar algunas de las principales
características de la materia oscura, sometida al campo gravitatorio; y en última
instancia, delimitar algunas de las características de la Teoría M.
Si los datos no han sido obtenidos hasta la actualidad se debe a la operatividad
de un único detector, lo que provocaba que triangular la posición de las señales
detectadas fuese de gran complejidad. Sin embargo, la colaboración entre Advanced
LIGO y Advanced Virgo durante este segundo periodo observacional ha permitido
(principalmente para las detecciones de GW170814 y GW170817) obtener con un alto
grado de precisión datos como la región de donde proceden las ondas gravitacionales,
su equivalencia en masas solares, etc.
Actualmente, detectores como GEO 6000 en Alemania (que está siendo
actualizado) y KAGRA en Japón (en construcción) junto con el futuro Advanced LIGO

50
Proyecto de Investigación de Bachillerato.

India permitirán explorar las ondas gravitacionales en profundidad y obtener más


información acerca de los procesos de coalescencia o de las estrellas de neutrones.
Si los esfuerzos globales, principalmente de astrónomos y astrofísicos durante
los siguientes periodos observacionales, se centrasen en estudiar regiones del espacio
donde la materia oscura está sometida a un intenso campo gravitatorio, sería posible
avisar distintos detectores para estudiar los efectos sobre la materia oscura presente en
la región. La colaboración internacional permitiría: extraer información que pueda ser
fácilmente cotejada (eliminando el ruido parásito), delimitar las características de la
materia oscura y triangular dónde se produjo el evento que emitió las ondas
gravitacionales en el espacio.
Obtener estos datos respecto a la presencia de materia oscura en una región,
nos permitiría acercarnos a la existencia de las partículas supersimétricas si se obtiene
evidencia real de los WIMPs. Las condiciones de supersimetría nos acercarían más a la
comprensión de la Teoría M y a integrar los datos de estas partículas supersimétricas en
la evolución del Universo.
Finalmente, el estudio de las ondas gravitacionales, remanente de un evento
cosmológico anterior, pueden convertirse en un primer indicio de la Teoría M. Este
hecho permitiría explicar las razones mediante las cuales la materia oscura interacciona
débilmente con la materia ordinaria. La Teoría M incluso podría corroborar la escasa
interacción entre materia oscura y materia ordinaria producto de la existencia de las 11
dimensiones espaciales (4 dimensiones espacio-temporales y 7 dimensiones
adicionales) debido a la curvatura de estas dimensiones y el resto de características de
la teoría. El estudio de las historias alternativas aplicadas a modelos de evolución
cosmológica como consecuencia de la probabilidad, la existencia de 2500 Universos con
distintas leyes de la naturaleza (consecuencia de los diagramas de Feynman), y la
relación entre la materia oscura y las partículas supersimétricas, son algunas de los
elementos que podrían extraerse de futuras observaciones.

En definitiva, la detección de las ondas gravitacionales constituye uno de los


avances científicos más relevantes ya que permite estudiar fenómenos cosmológicos
utilizando una nueva herramienta frente a la información obtenida hasta actualidad
utilizando la radiación electromagnética. Además, los datos extraíbles de futuras
observaciones, donde la presencia de materia oscura sea notoria, me permite asegurar
que es necesaria una colaboración para explorar hipótesis como la que se ha
mencionado a lo largo de este documento. Estudiar la materia oscura a través de las
ondas gravitacionales considero que podría ser una nueva herramienta que nos
acercaría más a conocer el funcionamiento de la naturaleza y consecuentemente a la
formulación de la Teoría M. Sólo si la comunidad científica prosigue el estudio de las
ondas gravitacionales con la colaboración internacional será posible conocer más del
Universo.

51
Proyecto de Investigación de Bachillerato.

5. Bibliografía e imágenes adjuntas.

[1] Astrología y cosmología egipcia: Escuela Huber.


[2] Botella de Leyden: Taunton Press – Code Check.
[3] Campos magnéticos: Universidad de Guipúzcoa.
[4] Casas, Alberto. La materia oscura. Editorial RBA, publicación: 2015.
[5] Cosmología egipcia: http://www.astroyciencia.com
[6] Einstein, Albert. El espacio es una cuestión de tiempo: la Teoría de la
Relatividad, edición National Geographic, 2012.
[7] Feynman, Richard P., Electrodinámica cuántica, Alianza, edición de
2004.
[8] GW150914 - Datos extraídos de Advanced LIGO: journals.aps.org.
Phys. Rev. Lett. 116.061102.
[9] GW151226 - Datos extraídos de Advanced LIGO: journals.aps.org.
Phys. Rev. Lett. 116.241103.
[10] GW170104 - Datos extraídos de Advanced LIGO: journals.apls.org.
Phys. Rev. Lett. 118.221101.
[11] Hawking, Stephen y Mlodinov, Leonard, Breve Historia del Tiempo,
Crítica, 2005. Fecha de publicación: 1988.
[12] Hawking, Stephen y Mlodinov, Leonard, El gran diseño, RBA, 2012.
[13] Investigación Y Ciencia: La observación de ondas gravitacionales,
edición febrero, 2017.
[14] Investigación Y Ciencia: ¿Tiene el espacio un origen cuántico?, edición
marzo, 2017.
[15] Investigación Y Ciencia: El multiverso cuántico. Análisis crítico de
Steven Weinberg, edición agosto 2017.
[16] Ley de Coulomb: Universidad de Guipúzcoa.
[17] La jaula de Faraday: Universidad Politécnica de Madrid.
[18] Masa de Chirp - Theoretical physics digest.
[19] NASA PubSpace – “Prospects for Observing and Localizing
Gravitational-Wave Transients with Advanced LIGO and Advanced Virgo”.
[20] Teoría de supercuerdas – Super string theory.
[21] Wangsness, Roald. Campos electromagnéticos, Editorial Limusa,
Madrid, 2001.
[22] Weinberg, Steven. Los tres primeros minutos del Universo, Alianza
Editorial, 1977. Tercera edición: 2009.

52
Proyecto de Investigación de Bachillerato.

Imágenes:

Distribución de la radiación
electromagnética en función de la
longitud de onda y la energía.

Imagen captada por los satélites de la


NASA muestra la temperatura a la que
se halla el Universo existiendo
regiones anisótropas (incremento de
la temperatura) demostrando la
detección del fondo de radiación de
microondas y demostrando que no
nos hallamos en un equilibrio
térmico.

Estado actual de los distintos


detectores de ondas gravitacionales
en 2017. El detector japonés KAGRA
está siendo actualizado mientras que
el resto de los detectores están en
modo observacional.

Representación del proceso de


coalescencia detectado a partir de los
datos obtenidos por GW150914. El
gráfico representa cómo se produce
incremento de la velocidad de uno de
los agujeros negros hasta producirse
la colisión entre ambos.

53
Proyecto de Investigación de Bachillerato.

54

También podría gustarte