Está en la página 1de 9

UNIVERSIDAD TECNOLOGICA DE LOS ANDES FILIAL CUSCO

ESCUELA PROFESIONAL DE INGENIERIA AMBIENTAL Y RECURSOS NATURALES

QUIMICA ORGANICA E INORGANICA

Hasta 1928, en la física ni siquiera como concepto se había desarrollado la idea de antimateria y, mucho menos, la
capacidad de producirla.
Pero el estadio cambió cuando se empezaron a conocer los estudios del físico británico Paul Dirac.
En la práctica, todo comienza con los trabajos de Dirac que publicó en el año 1929, en una época que coincide con los
tiempos que se descubrían los primeros secretos de la materia, se teorizaba sobre el comportamiento de las partículas
que comportan la fuerza débil, y se profundizaban los estudios de los componentes de los átomos, especialmente en la
teorización de lo que se llama fuerza fuerte.
Fueron tiempo en que la audacia tuvo una preeminencia como rol intelectual dentro del mundo de la física, en el cual se
plantearon conceptos como el de la mecánica ondulatoria, el principio de incertidumbre o, también, el descubrimiento del
espín en los electrones.
Se dice que fue una de las épocas más exotérica* de la física, en la cual hubo ejercitantes que concurrieron a simpáticas
metáforas para hacer más accesibles sus teorías, como fue el caso del físico austríaco Erwin Schrödinger cuando apeló
a la historia de los gatitos para exponer su principio de indeterminación, con el cual describía en síntesis que las partículas
más pequeñas tienen un comportamiento que, dentro del razonamiento común, no es el mayormente aceptado por las
personas.
La descripción anterior, implica ubicar el escenario en el cual Paul Dirac estaba inserto cuando planteó que donde había
materia, también podía haber antimateria.
Concretamente señaló, que si el átomo tenía partículas de carga negativas llamadas electrones, debía haber partículas
que fueran «electrones antimateria», a los que se les llamó positrones y que debían tener la misma masa del electrón,
pero de carga opuesta y que se aniquilarían al entrar en contacto, liberando energía.
Este descubrimiento de Dirac fue tan revolucionario que lo hizo merecedor del premio Nobel en el año 1933.
El siguiente paso se dio en 1932, cuando Carl Anderson, del Instituto Tecnológico de California, en un trabajo de
experimentación confirmó la teoría de Dirac al detectar la existencia de un positrón al hacer chocar rayos cósmicos.
Pasaron dos décadas para dar otro salto y este vino en 1955, cuando un equipo de la Universidad de Berkeley formado
por los físicos Emilio Segre, Owen Chamberlain (ambos ganadores del Nobel de física de 1959), Clyde Weingand y Tom
Ypsilantis lograron hallar el primer antiprotón, o sea, la primera partícula especular del protón que es la partícula de carga
positiva del átomo.
Un año después, con el uso de las mismas instalaciones, otro equipo, formado por Bruce Cork, Oreste Piccione, William
Wenzel y Glen Lambertson ubicaron el primer antineutrón, el equivalente a la partícula de carga neutra de los átomos.
La carrera por las tres antipartículas básicas - equivalentes a la neutra, la negativa y la positiva - estaba terminada.
Otro paso lo dieron los soviéticos, que por el año 1965 contaban con el acelerador de partículas más poderoso de los
existentes en esos momentos.
En un trabajo encabezado por el físico León Lederma, los soviéticos lograron
detectar la primera partícula compleja de antimateria, el antineutrino, formado por
dos partículas básicas. Posteriormente, usándose el mismo acelerador se detectó
el antihelio. Con la inauguración, en 1978, de las instalaciones europeas del Centro
de Investigación de Alta Energía (CERN) de Ginebra, y los avances tecnológicos
que ello implicó, se pudo lograr crear antitritio y, en 1981, realizar el primer choque
controlado entre materia y antimateria, con lo que comprobaron una hipótesis
valiosa: la cantidad de energía liberada por el mismo choque era enorme, mil veces
superior a la energía nuclear convencional.
Pero para la receta para generar anti átomos faltaba un ingrediente que permitiera
la combinación de antipartículas para poder producirlo, lo que precisamente faltaba
era una fórmula para conseguirlo.
La dificultad radicaba en la velocidad con que se producen las partículas de antimateria y sus violentas colisiones.
Era necesario contar con una fórmula que permitiera desacelerarlas o igualar su velocidad para unirlas, interrogante que
fue respondida, en parte, por los trabajos del profesor de física de la Universidad de Stanford Stan Brodsky y por el
ingeniero físico chileno Iván Schmidt.
En 1992, Brodsky y Schmidt publicaron sus trabajos de complejos cálculos en los cuales sugerían la fórmula de un método
para producir antiátomos, o sea, como poder unir antielectrones y antiprotones.
Pero también se requería capacidad de experimentación.
A ellos llegó Charles Munger, quién formó su propio equipo en Chicago para realizar los experimentos.
Pero las publicaciones nortearnericanas-chilenas también llamaron la atención de físicos europeos del CERN donde se
formó un equipo multinacional encabezado por Walter Oelert con el objetivo de experimentar en la creación de un
antiátomo.
ANTIMATERIA PARTICULADA CÓSMICA
Detectar antimateria generada en el cosmos no es una cosa fácil.
Hasta ahora, solamente se ha podido observar una nube de positrones que fue detectada cerca de un torrente de rayos
gamma, ubicado en las cercanías del centro de la Vía Láctea, y que estaba siendo monitoreado por el espectrómetro
OSSE.
Tanto de la nube de positrones como de los rayos gamma no se conocen las fuentes de origen, se presume que deberían
encontrarse en algún lugar aledaño entorno al centro de la galaxia.
NUBE DE ANTIMATERIA PARTICULADA CÓSMICA
Para detectar y estudiar las emisiones de rayos gamma en la Vía Láctea la NASA, el 5 de abril del año 1991, colocó en el
espacio el satélite científico Compton Gamma-Ray Observatory (CGRO) con cuatro instrumentos orientados a localizar
los rayos y a estudiar sus espectro electromagnético dentro de una banda de rangos de energía que va desde los 30 KeV
a los 30 GeV.
En el proceso de localización de rayos gamma, el OGCR ha logrado elaborar varios mapas de ubicaciones que han
permitido en ellos distinguir los rayos que se genera entorno a las explosiones de estrellas masivas jóvenes a lo largo del
plano de la galaxia cerca del centro de ésta.
Pero esos mapas, no sólo han mostrado a los rayos gamma, sino que fuera de programa, sorprendentemente han descrito
la existencia de una nube relativamente alejada del plano del centro de la galaxia ubicada a un costado en los mapas de
detección de rayos gamma, y cuyas bandas espectrales han sido captadas por uno de los más sensibles espectrómetros
de la actualidad el OSSE, que se encuentra empotrado en el satélite CGRO.
El estudio de las bandas del espectro que captó el OSSE señaló que se trataría de una nube de antimateria particulada,
precisamente de positrones (antipartícula elemental).
Ahora bien, el origen de esa inesperada nube de antimateria particulada que aparece a uno de los costados de los mapas
desarrollados por el CGRO es, por ahora, un misterio.
Seguramente se tendrá que esperar hasta que pueda entrar en servicio el próximo satélite que ha proyectado instalar en
el espacio la NASA, en el año 2002, para el monitoreo, rastreo y estudio de rayos cósmicos y también antimateria.
Las huellas espectrales de los procesos de aniquilamientos de electrones y positrones han sido detectadas por el
espectrómetro OSSE.
Los colores del mapa de la derecha representan la
energía del aniquilamiento de electrones y positrones
que han ocurrido en el plano de la Vía Láctea, cerca
del centro galáctico, y que se han transformado en
rayos gamma .
La energía que se capta es de 511 KeV, y corresponde
a los restos energéticos de la masiva energía del
positrón.
El mapa es un modelo adaptado de los 511 KeV
detectados.
El OSSE ha descubierto que la mayor cantidad de
radiación se concentra mayormente dentro de una
región comprendida dentro de los 10 grados del
diámetro del centro de la galaxia.
Las líneas superpuestas sobre el mapa representan
las emisiones de 511 KeV de energía captadas por el
OSSE.
La nube detectada de antimateria particulada , podría haberse formado a raíz de múltiples explosiones de estrellas, hecho
que ha sido detectado justamente en el lugar de la galaxia donde fue hallada.
Tampoco es descartable la eyección de antimateria particulada desde un disco de acreción de un agujero negro cercano
al centro de la Vía Láctea, la fusión de dos estrellas de neutrones, o la producción de ella por una fuente enteramente
diferente.
Se piensa que los positrones así como la antimateria en general, son relativamente raros en el universo.
Sin embargo, existen varias formas como para que sea
posible la generación de positrones.
Una de ellas es a través de la descomposición natural
de los elementos radiactivos.
Tales materiales radiactivos pueden originarse en
fuentes astrofísicas como supernovas, novas, y
estrellas Wolg-Rayet que son masivas y tienen una
violenta actividad en sus superficies.
Como se trata de objetos relativamente comunes en las
galaxias, los positrones resultantes de los materiales
radiactivos pueden expandirse a través del espacio.
Es posible que este tipo de estrellas que generan estos
materiales radiactivos sean también las responsables
de crear toda la materia constituyente que se distribuye
por el universo, incluida la Tierra.
FUENTE TEÓRICA DE ANTIMATERIA CÓSMICA
Las bandas horizontales anchas representan a la radiación generada por la aniquilación desde el disco de la galaxia.
La región circular de colores resaltados corresponde a la aniquilación radiactiva producida en el centro galáctico.
La posible fuente de la antimateria particulada, descubierta por una radiación de aniquilación ascendente, se encontraría
lejos del plano de la galaxia.
Otra manera en que se podrían generar positrones es con la caída de materia sobre los campos gravitacionales altos de
los agujeros negros, ya que la temperatura de ella debería incrementarse lo suficiente como para generar pares de
positrones y electrones que podrían ser disparados lejos de los agujeros negros a velocidades altísimas.
El número de positrones que se puedan crear en un agujero
negro depende de la cantidad de materia que aporte por
insuflación alguna estrella que esté jugando el rol de
compañera, mientras que el número de positrones creados
por descomposición radiactiva se mantiene constante por un
largo período de tiempo.

MODELO TEÓRICO DE FUENTE DE ANTIMATERIA


Modelo de contornos graficados sobre una imagen óptica del
lugar donde fue ubicada la nube de positrones en nuestra galaxia.
No se pueden observar evidencias visuales de una fuente de gas caliente cerca del centro de la Vía Láctea debido a la
gran cantidad de polvo y gas que se encuentra en ese lugar impidiendo una visión más profunda y detallada.
Una tercera posibilidad es que en aquellos lugares donde se ha detectado la presencia de positrones --digamos por ahora
en un sitio de nuestra galaxia-- sean espacios en que los últimos millones
de años han sido la morada de la fusión de dos estrellas de neutrones de
donde sale la emisión de partículas como un bólido galáctico masivo.
De esos sucesos se crean las condiciones de los fenómenos de las
explosiones de rayos gamma que tanto han desconcertado a los científicos
que se focalizan en el estudio de las estructuras del cosmos.
Dado que el universo muestra tener más materia que antimateria, el
positrón tiene un muy corto período de existencia desde que se crea.
El positrón es la antipartícula del electrón y cuando ambos colisionan se
aniquilan convirtiéndose en energía que se manifiesta en rayos gamma con
un rango energético de 511 KeV, lo que refleja el aniquilamiento del
positrón.
DIBUJO DEL CENTRO DE LA VÍA LÁCTEA
El dibujo de la derecha, representa al centro de la Vía Láctea con objetos y diferentes actividades cósmicas que cohabitan
en esa región de la galaxia.
La actividad que más se distingue es una fuente de gas caliente
cargado de positrones, mucho de ellos aniquilándose mientras
viajan dentro de los halos galácticos.
La radiación de esa aniquilación ha sido observada por los
instrumentos del OSSE empotrados en el satélite CGRO.

La detección de antiátomos fuera de los laboratorios no será un


trabajo sencillo.
Los antifotones que emitiría un antiátomo serían indistinguibles de
los fotones que emitiría un átomo, de manera de que por este simple
hecho de medición una galaxia no sería diferente de una
antigalaxia.
Tampoco es una labor sencilla rastrear señales de su presencia en
los rayos cósmicos de alta energía.
Ahora bien, el hecho de que se llegara a descubrir dentro de los
flujos de emisión de rayos cósmicos de tan sólo un núcleo de antihelio, ello daría cabida como para pensar con más de
un fundamento sobre la existencia de estrellas y galaxias de antimateria, lo que llevaría también a implicaciones profundas
sobre aspectos fundamentales que guardan relación con la asimetría bariónica del universo.
Para poder captar directamente los rayos cósmicos se han desarrollado experimentos con globos instalados en la
atmósfera y satélites orbitando a la Tierra.
Pero es un método que sólo permite la captación de ellos por algunas pocas horas y, en lapsos breves, solamente es
posible distinguir antimateria si uno de cada 10.000 rayos cósmicos proviniera de un antinúcleo.
Como las fuentes emisoras provienen desde lugares distantes, probablemente las antipartículas correspondan sólo a una
de cada 10.000 millones de partículas.
Pero, no cabe duda esperar, de que el espectrómetro Alfa Magnético orbitando fuera de la atmósfera, tendrá muchas
mayores posibilidades de éxito que los experimentos con los actuales satélites, globos ubicados en la atmósfera o con
instrumentos empotrados en la superficie de la Tierra.
Se piensa que con el AMS se podrán detectar los rayos cósmicos vírgenes.
Asimismo, las mediciones podrán extenderse por períodos mucho más prolongados, lo que indudablemente facilitará la
ubicación de la antimateria en medio de lluvias de partículas comunes.
Por los conocimientos experimentales que hemos adquirido hasta ahora, sobre la formación de antimateria en laboratorios
y por el hallazgo de la existencia de positrones, no es arriesgado pensar en antimateria atómica deambulando por el
espacio como fósiles ocasionados por los primeros segundos del Big Bang o como producto de la propia dinámica del
universo.
En teoría, en el momento del Big Bang, debiera haber habido igual cantidad de materia que de antimateria.
Ahora, por qué esta última se fue extinguiendo, las razones de ello las podemos encontrar en la explicación que nos
entregó, en el año 1967, el físico Andrei Sakharoc.
Según él, ese proceso de extinción se debería a una pequeña asimetría en las leyes de la física, conocida como violación
CP.
Esa asimetría que formula Sakharoc, debería haber comenzado a intervenir en el primer segundo del Big Bang.
En ese instante, y de acuerdo a la Teoría Unificada de la Física, todas las fuerzas que ahora se conocen en la naturaleza
estaban fundidas en una sola, exteriorizadas en la llamada partícula X.
Más tarde, cuando el universo se enfrió y estas partículas decayeron, la asimetría habría dejado una pequeña y mayor
proporción de partículas en relación a las antipartículas.
Específicamente, mil millones más una partícula, por cada mil millones de antipartículas.
En función a lo inmediatamente anterior, la mayoría de los físicos piensan, por lo tanto, de que tanto partículas como
antipartículas en un instante se habrían mezclado, y como ambas se aniquilan en una bocanada de rayos gama, el
resultado final sería que el universo actual no estaría conformado por antimateria.
Por lo menos, la brillantez del trasfondo de radiación que lo llena, cerca de mil millones de fotones por cada partícula de
materia, indicaría que ello es así, efectivamente.
Un equipo internacional ha logrado producir por primera vez átomos de antimateria, anti-hidrógeno, a partir de
sus antipartículas constituyentes. Se ha conseguido en el Laboratorio Europeo de Física de Partículas (CERN),
Breve cronología de la Teoría Cuántica

1900. “Hipótesis cuántica de Planck” (Premio Nobel de Física, 1918). Carácter corpuscular de
la radiación.

1905. Einstein (Premio Nobel de Física, 1921) explica el “efecto fotoeléctrico” aplicando la
hipótesis de Planck.
1911. Experimentos de Rutherford, que establecen el modelo planetario átomo, con núcleo
(protones) y órbitas externas (electrones).

1913. Modelo atómico de Niels Bohr (Premio Nobel de Física, 1922). Tiene en cuenta los
resultados de Rutherford, pero añade además la hipótesis cuántica de Planck. Una
característica esencial del modelo de Bohr es que los electrones pueden ocupar sólo un
conjunto discontinuo de órbitas y niveles de energía.

1923. Arthrur Comptom (Premio Nobel de Física, 1927) presenta una nueva verificación de la
hipótesis de Planck, a través de la explicación del efecto que lleva su nombre.

1924. Hipótesis de De Broglie (Premio Nobel de Física, 1929). Asocia a cada partícula material
una onda, de manera complementaria a cómo la hipótesis de Planck dota de propiedades
corpusculares a la radiación.

1925. Werner Heisenberg (Premio Nobel de Física, 1932) plantea un formalismo matemático
que permite calcular las magnitudes experimentales asociadas a los estados cuánticos.

1926. Erwin Schrödinger (Premio Nobel de Física, 1933) plantea la ecuación ondulatoria cuyas
soluciones son las ondas postuladas teóricamente por De Broglie en 1924.

1927. V Congreso Solvay de Física, dedicado al tema “Electrones y fotones”. En él se produce


el debate entre Einstein y Bohr, como defensores de posturas antagónicas, sobre los problemas
interpretativos que plantea la Teoría Cuántica.

1928. Experimentos de difracción de partículas (electrones) que confirman la hipótesis de de


Broglie, referente a las propiedades ondulatorias asociadas a las partículas. El fenómeno de
difracción es propio de las ondas.

1932. Aparición del trabajo de fundamentación de la Teoría Cuántica elaborado por el


matemático Jon von Neumann.

Aspectos esencialmente novedosos de la Teoría Cuántica

Los aspectos esencialmente novedosos (no clásicos) que se derivan de la Teoría Cuántica
son:

a) Carácter corpuscular de la radiación (Hipótesis de Planck).

b) Aspecto ondulatorio de las partículas (Hipótesis de Broglie).

c) Existencia de magnitudes físicas cuyo espectro de valores es discontinuo. Por ejemplo los
niveles de energía del átomo de hidrógeno (Modelo atómico de Bohr).

Implicaciones de a): carácter corpuscular de la radiación.

Tradicionalmente se había venido considerando la radiación como un fenómeno ondulatorio.


Pero la hipótesis de Planck la considera como una corriente de partículas, “quantums”. ¿Qué
naturaleza tiene, entonces, la radiación: ondulatoria o corpuscular? Las dos. Manifiesta un
carácter marcadamente “dual”. Se trata de aspectos que dentro del formalismo cuántico no se
excluyen, y se integran en el concepto de “quantum”.

El quantum de radiación puede manifestar propiedades tanto corpusculares como ondulatorias,


según el valor de la frecuencia de la radiación. Para valores altos de la frecuencia (en la región
gamma del espectro) predomina el carácter corpuscular. En tanto que para frecuencias bajas
(en la región del espectro que describe las ondas de radio) predomina el aspecto ondulatorio.

Implicaciones de b): carácter ondulatorio de las partículas.

Se comprobó en experimentos de difracción de electrones y neutrones. Lo que ponen de


manifiesto estos experimentos es que una clase de onda acompaña el movimiento de las
partículas como responsable del fenómeno de difracción. De manera que nuevamente tenemos
un ejemplo de dualidad entre las propiedades corpusculares y ondulatorias, asociadas en este
caso a las partículas.

Pero la aparición del fenómeno ondulatorio no se produce únicamente a nivel microscópico,


también se manifiesta para objetos macroscópicos, aunque en este caso la onda asociada tiene
una longitud de onda tan pequeña que en la práctica es inapreciable y resulta imposible la
realización de un experimento de difracción que la ponga de manifiesto.

Implicaciones de c): existencia de magnitudes físicas discontinuas.

Pone de manifiesto el carácter intrínsecamente discontinuo de la Naturaleza, lo que se


evidencia, como ejemplo más notable, en el espectro de energía de los átomos. A partir de la
existencia de estas discontinuidades energéticas se explica la estabilidad de la materia.

Dios no juega a los dados...

Un ejemplo concreto

Analicemos para el caso del átomo de hidrógeno, según el modelo de Bohr, cómo se conjugan
estos tres supuestos cuánticos anteriores, a), b) y c). El átomo de hidrógeno se entiende como
un sistema estable formado por un electrón y un protón. El electrón puede hallarse en un
conjunto infinito, pero discontinuo de niveles de energía [supuesto c)].

Para pasar de un nivel a otro, el electrón debe absorber o emitir un quantum discreto de
radiación [supuesto a)] cuya energía sea igual a la diferencia de energía entre esos niveles.
Los niveles posibles de energía de los electrones se representan matemáticamente por
funciones ondulatorias [supuesto b)], denominadas “funciones de estado”, que caracterizan el
estado físico del electrón en el nivel de energía correspondiente.

Para conocer el valor experimental de cualquier propiedad referente a la partícula debe


“preguntarse” a su función de estado asociada. Es decir, dicha función constituye un tipo de
representación del estado físico, tal que el estado del electrón en el n-ésimo nivel de energía
es descrito por la n-ésima función de estado.

La función de onda

La descripción más general del estado del electrón del átomo de hidrógeno viene dada por la
“superposición” de diferentes funciones de estado. Tal superposición es conocida como
“función de onda”. La superposición de estados posibles es típica de la Teoría Cuántica, y no
se presenta en las descripciones basadas en la Física Clásica.

En esta última, los estados posibles nunca se superponen, sino que se muestran directamente
como propiedades reales atribuibles al estado del sistema. Al contrario, especificar el estado
del sistema en la Teoría Cuántica implica tomar en consideración la superposición de todos sus
estados posibles. Las funciones de onda no son ondas asociadas a la propagación de ningún
campo físico (eléctrico, magnético, etc.), sino representaciones que permiten caracterizar
matemáticamente los estados de las partículas a que se asocian.

El físico alemán Max Born ofreció la primera interpretación física de las funciones de onda,
según la cual el cuadrado de su amplitud es una medida de la probabilidad de hallar la partícula
asociada en un determinado punto del espacio en un cierto instante. Aquí se manifiesta un
hecho que se repetirá a lo largo del desarrollo de la Teoría Cuántica, y es la aparición de la
probabilidad como componente esencial de la gran mayoría de los análisis.

La probabilidad en la Teoría Cuántica

La Teoría Cuántica es una teoría netamente probabilista. Nos habla de la probabilidad de que
un suceso dado acontezca en un momento determinado, no de cuándo ocurrirá ciertamente el
suceso en cuestión. La importancia de la probabilidad dentro de su formalismo supuso el punto
principal de conflicto entre Einstein y Bohr en el V Congreso Solvay de Física de 1927.

Einstein argumentaba que la fuerte presencia de la probabilidad en la Teoría Cuántica hacía de


ella una teoría incompleta reemplazable por una hipotética teoría mejor, carente de
predicciones probabilistas, y por lo tanto determinista. Acuñó esta opinión en su ya famosa
frase, “Dios no juega a los dados con el Universo”.
La postura de Einstein se basa en que el papel asignado a la probabilidad en la Teoría Cuántica
es muy distinto del que desempeña en la Física Clásica. En ésta, la probabilidad se considera
como una medida de la ignorancia del sujeto, por falta de información, sobre algunas
propiedades del sistema sometido a estudio. Podríamos hablar, entonces, de un valor subjetivo
de la probabilidad. Pero en la Teoría Cuántica la probabilidad posee un valor objetivo esencial,
y no se halla supeditada al estado de conocimiento del sujeto, sino que, en cierto modo, lo
determina.

En opinión de Einstein, habría que completar la Teoría Cuántica introduciendo en su formalismo


un conjunto adicional de elementos de realidad (a los que se denominó “variables ocultas”),
supuestamente obviados por la teoría, que al ser tenidos en cuenta aportarían la información
faltante que convertiría sus predicciones probabilistas en predicciones deterministas.

Mario Toboso es Doctor en Ciencias Físicas por la Universidad de Salamanca y miembro de


la Cátedra Ciencia, Tecnología y Religión de la Universidad Pontificia Comillas. Editor del
Blog Tempus de Tendencias21 y miembro del Consejo Editorial de nuestra revista. Este
artículo es la primera entrega de una serie de dos sobre Teoría Cuántica. Ver el siguiente: La
Teoría Cuántica cuestiona la naturaleza de la realidad.

También podría gustarte