Documentos de Académico
Documentos de Profesional
Documentos de Cultura
La Antimateria-Patricio Diaz PDF
La Antimateria-Patricio Diaz PDF
Resumen
En este ensayo se exponen, desde un punto de vista conceptual, el origen y el desarrollo de la
teoría de la antimateria. Para entender el origen, se revisan las ideas fundamentales de la
mecánica clásica y su interpretación semántica; luego las ideas de la mecánica cuántica, las de la
mecánica cuántica relativista, y las de la teoría de la antimateria. Finalmente, se explica la forma en
que fue detectada la antimateria.
Introducción
Para el hombre de la calle la idea de antimateria es esotérica, enigmática, posiblemente oscura e
incomprensible. Forma parte de su cultura, cultura mal formada o desinformada; cultura al fin. La
palabra es parte de su vocabulario, pero no de su comprensión. Esta y otras ideas de la ciencia
moderna han sido implantadas en el léxico del lego por las historias de ciencia ficción, las series de
televisión, y ocasionalmente por la prensa y la radio; de manera muy aislada por los hacedores y
practicadores de la ciencia. Tal es la cultura de los medios de comunicación masiva. Son muy
pocos los que tienen una idea fiel de lo que antimateria significa. Son muy pocos también los que
poseen alguna noción, aunque sea muy vaga, de las teorías que la sustentan y que le dieron
origen, a pesar de que estas ultimas forman parte de la cultura universal de nuestro tiempo. En
nuestra época, todo ser humano, en principio, debería tener alguna noción de las grandes ideas de
su tiempo, ya pretérito, ya actual; todo ser humano que se ostente de ser un ser de su tiempo y de
su cultura. Por lo anterior:
Esta es la historia, esbozada tan solo, de una de las grandes ideas de nuestro tiempo, implantada
ya en la cultura universal y llamada a formar una pieza integral del pensamiento humano universal.
Va emparejada a otras ideas igualmente geniales y trascendentales del siglo XX, como son la
mecánica cuántica y la teoría especial de la relatividad. Esta es la historia de la antimateria.
En las próximas páginas delinearemos las ideas primeras sobre el mundo; las teorías de la
naturaleza que dieron origen a la idea de antimateria y sobre las que descansa, su origen, las
incertidumbres y errores de los autores que le dieron paternalidad, su consolidación al tenerse la
confirmación experimental, sus consecuencias, y su estado actual; también esbozaremos la forma
en que ha afectado para siempre nuestra concepción del mundo.
1. La mecánica clásica
Por mecánica clásica entendemos la gran síntesis sobre la concepción del mundo hecha por los
científicos del siglo XVII. Figuran algunos estudiosos del movimiento de los cuerpos celestes -
Brahe, Kepler, Galileo, etc. - y del movimiento de los cuerpos terrestres -Galileo, Newton, y otros-;
por supuesto sin que una lista excluya a la otra. Es una gran síntesis porque resume en 3 axiomas,
y unas cuantas definiciones todo el conocimiento sobre la mecánica -esto es, movimiento- de los
cuerpos y sintetiza éste; es decir, descubre que las explicaciones del movimiento de los cuerpos
terrestres y de los cuerpos celestes están englobadas por los mismos principios. La naturaleza -
supuesta ya divina o terrestre no cuenta, las leyes son las mismas. La mecánica clásica fue la
primera teoría de tipo axiomático sobre el mundo; axiomático en el sentido de la geometría
euclideana clásica; es decir todas la verdades se deducen de unos pocos principios o axiomas -
también llamados autoverdades- y unas cuantas definiciones.
Los axiomas son conocidos por todas las personas con educación media superior. Estos son:
I Todo cuerpo en estado de reposo o de movimiento continuará así hasta que una fuerza exterior
modifique este estado de reposo o de movimiento.
II Las fuerzas aplicadas sobre determinado cuerpo son proporcionales a las aceleraciones
obtenidas del cuerpo.
III A toda acción que se ejerce sobre un cuerpo, corresponde una reacción, de la misma intensidad
y de sentido contrario.
Dentro de las definiciones están: estado de reposo, estado de movimiento, fuerza, aceleración,
acción, masa, tiempo, velocidad, materia, y muchas otras. Vale la pena hablar un poco sobre estas
últimas, ya que conforman el conocimiento junto con los axiomas que tenemos del movimiento de
los cuerpos del mundo exterior. Aunque es pertinente una aclaración; una persona que sabe, o que
decimos que sabe, mecánica clásica, no solamente conoce los axiomas y las definiciones -aparato
conceptual- sino que además maneja con soltura el aparato matemático involucrado ecuaciones
diferenciales- y sabe como aplicarlo a situaciones físicas.
En la mecánica clásica, muchas de la definiciones son limitadas, ambiguas y no libres de
dificultades. Sin embargo, en el ámbito para el que fueron pensadas, estas funcionan bien. Veamos
algunos ejemplos concretos. Newton propuso que el tiempo es absoluto, fluye ajeno a todo influjo
externo y es universal; es decir, no depende del estado de movimiento del observador.
Éstas son llanamente suposiciones sobre la naturaleza del parámetro que llamamos tiempo. Es lo
que observamos, o lo que nos dicta la experiencia más inmediata. Nada contradice estas o nos
hace pensar que son erróneas; tal es nuestro acondicionamiento. Veremos más tarde que
indagaciones mas profundas sobre estos hechos llevaron a la formulación de la teoría especial de
la relatividad. Aunque parece ser que Newton estaba consciente de estas dificultades, no tuvo otra
alternativa. Ahora tomemos la idea de reposo.
Esta es ambigua pues depende del observador. Solamente existe un sistema de coordenadas
inercial donde un determinado cuerpo esta en reposo; visto desde cualquier otro esta en
movimiento. ¡Un cuerpo que esta en reposo y a la vez se mueve! No hay paradoja, todo depende
del estado del sistema desde donde se este observando. Otro ejemplo: por definición, masa es la
cantidad de materia que contiene un cuerpo. A su vez, clásicamente, materia es todo aquello que
compone a los cuerpos. Esta es una idea intuitiva, fabricada para describir objetos macroscópicos,
esto es, objetos de la vida diaria, y con los cuales tenemos experiencias directas. No hay ninguna
garantía de que sea válida cuando la extrapolemos a regiones -microcuerpos- donde no tengamos
experiencias diarias. Decimos, los objetos están hechos de materia.
Sí, pero qué es la materia. La definición es recursiva; materia es todo aquello que compone a los
cuerpos. Nada mas absurdo que esto, porque la lógica se ha perdido. Para que no suceda tal cosa
hay que cortar en algún punto, y tomar como evidente -es decir, sin demostración- alguna
proposición. La mecánica clásica toma como evidente la idea de materia, en el sentido de que es
todo lo que constituye a los cuerpos. No se define más.
Porque no se puede, además no se necesita más. Luego veremos que podemos calar más hondo
cuando tengamos experiencias con cuerpos microscópicos y además enfoquemos las cosas desde
una perspectiva diferente. Un ejemplo más:
Energía es otro paradigma de concepto clásico, su definición dice que es la propiedad que poseen
todos los cuerpos para realizar un trabajo; trabajo es la energía almacenada o gastada por un
cuerpo, o en un cuerpo. No comentamos mas sobre este concepto.
Al margen de la teoría clásica, al menos en principio, quedan discusiones como, que es el vacío,
cual es el propósito de la mecánica clásica, y otras cuestiones; más cerca estas de los objetivos de
la filosofía que de la mecánica clásica.
Si bien la física clásica, es decir, la mecánica clásica, no esta dispensada de problemas de
consistencia, nadie puede negar u omitir los grandes logros aquilatados. Con toda justicia podemos
decir que es una teoría autoconsistente, es una teoría de las llamadas cerradas. Las
inconsistencias surgen cuando forzamos las autoevidencias supuestas para que se revelen en
evidencias. ¡Esto es equivalente a pretender construir el conocimiento de la nada! Pretensión
completamente absurda. Tenemos que suponer algo, para empezar. Como una primera
aproximación en la descripción del mundo externo, la mecánica clásica es válida. En realidad
ninguna teoría axiomática esta libre de estos problemas. La misma geometría de Euclides los tiene;
empero estos no le restan ningún mérito, excepto el de ser una teoría absoluta.
Basten, para ejemplificar, recordar las interminables discusiones sobre la autoevidencia de sus
postulados. Discusiones que llevaron a la formulación de otras geometrías igualmente verdaderas y
autoconsistentes conocidas como geometrías no-euclideanas, y posteriormente a todo un
programa para la construcción de todo tipo de geometría posible.
Las discusiones sobre la autoevidencia de los postulados y de las definiciones de la mecánica
clásica, junto con la abrumadora evidencia experimental no explicada por los primeros,
desembocaron en nuevas mecánicas.
Pero antes de pasar a revisar esas nuevas mecánicas, echemos un vistazo a los principios que aun
estas preservan. En la mecánica clásica se supone, por principio, la conservación de la cantidad de
movimiento -ya sea lineal, ya sea angular-; también la conservación de la masa; y la conservación
de la energía, cualquier tipo de energía. Dentro de la interpretación semántica de la mecánica
clásica están como principios:
i) La objetividad. Esto es, la postulación de un mundo externo al observador y que es factible de ser
descrito por leyes naturales independientes de toda intervención de la voluntad del hombre.
ii) La localidad. Esto es, todo fenómeno natural es de tipo local; quiere decir que los resultados de
un experimento en la luna, por ejemplo, o en el laboratorio vecino no afectan los resultados de otro
en la tierra o en otro laboratorio.
iii) La causalidad. Esto es, a todo fenómeno antecede una causa o razón.
iv) El determinismo. Esto es, la suposición de que podemos predecir el futuro, si conocemos con
todo detalle las condiciones iniciales y las leyes que rigen el comportamiento de los cuerpos
involucrados. En mecánica clásica, en principio, podemos hacerlo; conocemos las leyes que rigen y
podemos conocer las condiciones iniciales con toda la precisión que querramos; no existen
limitaciones a la precisión, por principio. La teoría clásica no presupone una incertidumbre inherente
al proceso de medición. Si bien existen las incertidumbres en los procesos de medición, las
presupone tan pequeñas como se deseen, sin que por ello nuestras mediciones queden afectadas.
Dicho de otra manera, los efectos del observador sobre el fenómeno son tan péquenos que no le
alteran en su naturaleza, y se pueden reducir tanto como se quiera. No existen incertidumbres en el
proceso de medición, y las obtenidas están dadas por las limitaciones experimentales.
v) Completez. Esto es, a cada elemento de la realidad física le corresponde un elemento de la
teoría; si en una teoría esto se cumple, decimos que la teoría es completa. Tomemos como
ejemplo la electrodinámica clásica. En el mundo externo existe una propiedad de la materia -puede
ser observada- la electrodinámica se refiere a esta como "carga eléctrica". De esta forma a un
elemento de la realidad física, se le asocia un elemento o concepto de la teoría. La teoría clásica
sobre el mundo externo es objetiva, es local, es causal, es determinista, y es completa.
Los principios antes numerados no son recuperados por la mecánica cuántica. como veremos más
adelante.
2. La mecánica cuántica
La teoría cuántica fue introducida por M. Planck en un comunicado a la Sociedad Alemana de
Ciencias Físicas en 1900. Su hipótesis fundamental fue la discretización o cuantización de la
radiación electromagnética cuando es absorbida por las paredes del cuerpo negro, i.e., las paredes
solo admiten-hipotetizó- unidades cuantizadas de energía. Por cuerpo negro se entiende cualquier
cuerpo capaz de absorber y radiar energía al mismo ritmo. Una pared metálica pintada de negro es
una buena aproximación. Una constante, ahora conocida como constante de Planck, caracteriza
esta absorción. Planck no discretizó la radiación electromagnética cuando se propaga, sólo cuando
es absorbida o intercambiada por o con las paredes del cuerpo negro. Con ésta hipótesis describió
y reprodujo las curvas del espectro de radiación del cuerpo negro. La hipótesis de Planck fue una
hipótesis muy afortunada que le tomo 4 años en formular. Aunque al principio no fue del todo claro
su significado, otros físicos usaron la misma hipótesis para describir fenómenos aparentemente no
conectados con el fenómeno de radiación del cuerpo negro. El efecto fotoeléctrico, por A. Einstein -
trabajo que le valió el premio Nóbel-. Explicación de los espectros de radiación electromagnética del
átomo de hidrógeno por N. Bohr -trabajo por el cual se le concedió el premio Nóbel-; y otros
muchos que cimentaron la teoría de los cuantos y acunaron la universalidad de la constante de
Planck.
Niels Bohr, autor de la primera teoría atómica, contribuyó sustancialmente a la creación de la
mecánica del cuanto. Su teoría explicaba muy bien los espectros de radiación emitida por el átomo
de hidrógeno. Tales espectros eran conocidos muy bien mucho antes de haber nacido la teoría del
cuanto. Sin embargo, aunque la teoría funcionaba muy bien en átomos hidrogenoides -es decir, de
un solo electrón-, fracasaba dramáticamente en átomos de más de un electrón. La teoría no
contemplaba, por ejemplo, como tomar en cuenta la interacción entre dos electrones. Debido a
estas y otras dificultades que la teoría presentaba, era necesario un formalismo para describir la
mecánica del cuanto. Las ideas filosóficas de A. Einstein y N. Bohr contribuyeron decididamente a
su formulación.
Albert Einstein consideraba que toda teoría física debería basar sus conceptos en variables de tipo
observable, es decir, que todo concepto físico tuviera su contraparte experimental. Consideraba
que este era un requisito que toda teoría física debería cumplir. Estos requisitos los cumple la teoría
de la relatividad -como veremos en la próxima sección-. Empero no los cumple la teoría atómica de
Bohr. La teoría atómica de Bohr hablaba -bueno, habla porque todavía se enseña en las escuelas
de física como un preámbulo para la mecánica cuántica- de órbitas atómicas, periodos atómicos,
etc., ninguno de estos conceptos tiene su contraparte experimental. En la mecánica clásica existen
las contrapartes experimentales a los conceptos antes señalados, luego es lícito hablar de ellos.
Pero en la física del microcosmos no, por lo tanto algo estaba completamente equivocado en la
teoría de Bohr. Fue W. Heisenberg, quien al aplicar el criterio de Einstein para las teorías físicas,
pudo dar con el formalismo para la creación de la mecánica del cuanto. El observable fundamental
resulto ser el concepto de estado cuántico. En los espectros atómicos no se observan períodos y
órbitas atómicas, solo estados cuánticos atómicos. -El formalismo de Heisenberg consistió en decir
como calcular amplitudes de probabilidad de que un sistema pase de un estado a otro-. El estado
inicial y el estado final en una transición atómica radiactiva. Fueron estos los observables de la
mecánica cuántica de Heisenberg.
Se cuenta -por el propio Heinserberg- que cuando Einstein le preguntó cómo había creado la
mecánica del cuanto, esto es, cómo se le había ocurrido la formulación, le dijo que simplemente
había usado su requisito de observables para toda teoría física; a lo que Einstein contestó que ya
había cambiado de opinión.
Siguiendo con nuestra historia. Cuando Heisenberg desarrolló el álgebra pertinente se topó con un
álgebra no conmutativa. Permítaseme explicar esto.
En otras palabras, significa que el producto de a por b no es igual al producto de b por a. El
resultado anterior preocupó enormemente al autor de la teoría, quien al principio consideró que algo
andaba completamente incorrecto. Sin embargo poco después se comprendió que tal producto es
posible; los matemáticos ya lo manejaban con anterioridad y llamaban a los elementos de esta
álgebra matrices, y por supuesto conocían sus propiedades de no conmutación multiplicativa.
Expliquemos un poco más. Nos han enseñado que 4 x 5 es igual a 5 x 4, de aquello no hay duda.
Decimos que el producto es conmutativo porque el producto final es igual en ambos casos. En
general las operaciones a las que estamos acostumbrados en la vida diaria son conmutativas; la
multiplicación, la suma, etc., lo son; empero podemos definir una serie de operaciones que no lo
son, de tal suerte que al ejecutar una y después la otra el resultado es dramáticamente diferente de
si primero aplicamos la segunda y enseguida la primera. concretemos nuestra ejemplificación: sea
A, la operación de disparar una pistola; y sea B, la operación de llevar la pistola a la sien. El proceso
y el producto BA son: disparar la pistola y en seguida llevar la pistola a la sien; el resultado es el
pedazo de plomo en el aire. El proceso y el resultado de AB son: llevarse la pistola a la sien y en
seguida disparar, el resultado es el pedazo de plomo incrustado en el cráneo; el resultado es
drásticamente diferente al anterior. El primer resultado es inofensivo, y el segundo resultado es
mortal. Claramente, pues, AB no es igual a BA. Luego las operaciones A y B no son conmutativas.
A la mecánica de Heisenberg se le conoció con el nombre de la mecánica matricial. Otros
desarrollos paralelos fueron dados por Schrödinger enteramente independientes de Heisenberg.
Schrödinger planteó una ecuación de onda que describe como varía en el espacio y como
evoluciona en el tiempo la función de onda que describe un estado físico -observable físico-. Esta
es una ecuación diferencial de segundo orden en el espacio y de primer orden en el tiempo. Este
tipo de ecuaciones eran muy conocidas en mecánica clásica. La versión de Schrödinger es análoga
a la versión -en el sentido de la formulación en términos de ecuaciones diferenciales- a la
formulación de la mecánica clásica. El propio Schrödinger demostró que el formalismo de
Heisenberg y el de él de la mecánica cuántica son equivalentes.
El formalismo de Schrödinger acarreó otro problema; que al principio no resultó fácil resolver, ya
que significaba la función de onda. Diferentes escuelas le dieron distintas interpretaciones. Ésta fue
una situación sin precedente en la historia de la física. Generalmente en mecánica clásica las
ecuaciones eran obtenidas cuando ya se tenia una interpretación para ellas.
Las ecuaciones describían situaciones físicas con las que ya se tenían experiencias directas. Luego
su interpretación se seguía naturalmente. Pero esta situación no se da cuando se estudian
sistemas microscópicos, donde no tenemos una experiencia directa. La interpretación de la función
de onda de la ecuación de Schrödinger tomo varios años. Ésta función depende de la posición y de
los momentos -tomados como operadores- y del tiempo. Si la función es propiamente normalizada,
es decir, si existe una constante multiplicativa de tal manera que su módulo al cuadrado sea la
unidad cuando se integra sobre todo el espacio considerado, entonces el módulo al cuadrado de la
función de onda puede ser interpretado como la densidad de probabilidad de encontrar la partícula
en determinada reunión del espacio a determinado tiempo.
Tenemos ahora un formalismo para decir cual es la probabilidad de encontrar una partícula en
cierta región del espacio a determinado tiempo. Con esto hemos perdido el determinismo de la
mecánica clásica. Ya no se puede decir que la partícula esta en determinado lugar del espacio.
Podemos decir tan sólo, la probabilidad de tenerla en algún lugar del espacio. Se dice que Einstein
exclamó: "Dios no juega a los dados". La interpretación estadística le resultaba inadmisible; por
consiguiente dedicó mucho tiempo y esfuerzos a encontrar una interpretación determinista a la
función de onda. El abandono del determinismo clásico le molestaba enormemente. Nunca aceptó
la interpretación probabilística de la mecánica cuántica. Niels Bohr replicaría: "no le corresponde a
los físicos decirle a Dios como debe jugar". Bohr estaba satisfecho con la interpretación de la
mecánica cuántica. Estos dos personajes nunca se pusieron de acuerdo. Los debates y encuentros
amistosos entre estos dos científicos duraron hasta la muerte de A. Einstein en 1954. N. Bohr murió
después, en 1962. Lo mas que pudo hacer Einstein fue mostrar que la mecánica cuántica no es
completa, no sigue el principio de completez, aunque es lógicamente consistente. Para
hacerlo,Einstein definió la realidad física: en base a su definición mostró que había elementos de la
realidad física que no estaban contemplados por la mecánica cuántica; luego se seguía la
incompletez de la mecánica cuántica.
Bohr aceptó la consistencia de la demostración pero objeto la definición de realidad física. Con ello
el debate continuo. Era el año de 1935; diecinueve años mas tarde el debate continuaba. Aún, hoy
en día algunos físicos no la aceptan. Sin embargo es la interpretación aceptada por la mayoría de
los físicos.
Aunque a regañadientes los físicos aceptaron la potencia de la nueva mecánica del cuanto. Otros
se dieron cuenta casi inmediatamente de la utilidad de la nueva mecánica. Paul A. M. Dirac fue uno
de ellos. La potencia de la nueva mecánica surgió aun más, cuando se escribió en la formulación
canónica, es decir, en una forma donde aparecen las coordenadas espaciales y las variables
conjugadas -momentos-; formulándola así, la nueva mecánica adquiere una forma análoga a la
mecánica clásica. Las diferencias están dadas por la propiedad de no conmutación de las variables
conjugadas posición y momento. Y esta formulación admite una generalización a todo tipo de
variables conjugadas que no son del tipo de momento y posición.
Verbigracia, las variables conjugadas pueden ser del tipo de los operadores de permutación;
pueden ser los operadores que representan las rotaciones de un cuerpo en un espacio
tridimensional; pueden ser operadores de creación y destrucción de partículas; pueden ser
operadores de emisión y absorción de partículas; o de manera muy general podemos decir que
pueden ser los elementos de un grupo cualquiera.
La generalización puede ir mas lejos, al escoger apropiadamente las variables conjugadas para
representar el espacio físico; y escribir ecuaciones análogas a la ecuación de Heisenberg en este
espacio, sin que se requiera una analogía clásica, y aun poder interpretar la función de onda al
cuadrado como una densidad de probabilidad.
A pesar de todos los logros sorprendentes de la formulación de la mecánica cuántica, subsistía una
dificultad; como hacerla compatible con la teoría especial de la relatividad. En la próxima sección
revisaremos brevemente las hipótesis y consecuencias de la relatividad especial; luego veremos
como se resolvió el problema de hacer compatible la mecánica cuántica y la teoría especial de la
relatividad.
3. La relatividad especial
La teoría especial de la relatividad fue introducida por Albert Einstein en 1905. Once años más
tarde introdujo la teoría general de la relatividad donde compaginó la teoría especial de la
relatividad y la teoría de la gravitación. Como en partículas submicroscópicas las interacciones
gravitacionales son pequeñas -al menos ese es el sentimiento generalizado, no se toman en cuenta
cuando se formula la teoría de partículas elementales; esto quiere decir que la teoría general de la
relatividad no se toma en cuenta, solamente se hace uso de la teoría especial de la relatividad dado
que intervienen altas velocidades.
La teoría especial de la relatividad surgió casi como una consecuencia natural después de
examinar algunas inconsistencias de la electrodinámica de los cuerpos en movimiento. La teoría de
Maxwell -conocida como electrodinámica clásica- requería, según versión del propio Maxwell, la
existencia de un marco de referencia de propiedades mecánicas extrañas y contradictorias, donde
la velocidad de las ondas electromagnéticas fuera c y solamente c (la velocidad de la luz en el
vacío). No se concebía, según la visión mecánica del universo, la propagación de una onda sin
requerir de un medio que la condujera. (El sonido requiere de un medio material para propagarse).
Por ello se invento el éter (el medio ficticio que desempeñaba el papel del medio donde la luz se
propaga). Este medio debería tener propiedades extrañas. El experimento de Michelson & Morley
desmintió la existencia de un marco de referencia como el del éter. Dejando por sentado que la
velocidad de la luz es independiente de la velocidad de la fuente.
Algo incomprensible según la mecánica clásica; donde la velocidad de la fuente mas la velocidad
de la perturbación sería la nueva velocidad de la perturbación, si se le observara desde otro marco
de referencia. Para la luz esta ley de adición no parecía funcionar, y no funciona. Basándose en las
consideraciones anteriores, Einstein postuló que la velocidad límite máxima para los objetos
materiales es la velocidad de la luz en el vacío. Y además, ésta es una constante independiente del
marco de referencia desde el cual se mide. Con estos dos postulados transformó la mecánica de
Newton en mecánica válida para objetos a bajas velocidades comparadas con la velocidad de la
luz- en una nueva mecánica -mecánica relativista- válida para objetos que se mueven a cualquier
velocidad menor que la velocidad de la luz en el vacío, por supuesto. La mecánica relativista
contiene en el límite a bajas velocidades la mecánica de Newton. En la mecánica relativista las
coordenadas espaciales quedan en la misma categoría que la coordenada temporal y viceversa.
Las coordenadas espaciales se funden con la coordenada temporal en una formulación
tetradimensional de la mecánica. Diciéndolo de otra manera, podemos agregar que la mecánica
relativista puede ser formulada exigiendo que la coordenada temporal sea simétrica con las
coordenadas espaciales, excepto por algunos cambios de signo que ocurren en las ecuaciones.
La teoría especial de la relatividad tuvo sus predicciones espectaculares corroboradas, al
comprobarse la dilatación temporal y la contracción de la longitud.
Según la teoría especial de la relatividad, la energía de una partícula es la suma de su energía en
reposo -la energía que le corresponde en virtud de su masa- y la energía cinética -energía que le
corresponde en virtud de su movimiento-. Para una partícula en reposo, la energía se escribe como
el producto de su masa por el cuadrado de la velocidad de la luz. Otra predicción de la teoría
especial de la relatividad. La conversión de materia en energía, desprendida de la formulación
anterior, en una pila atómica o en una desintegración radiactiva cualquiera -reacciones donde se
consume masa.
Esta predicción fue espectacularmente confirmada. Con ello cambió la política mundial y la forma
de hacer la guerra. Nació la bomba atómica en 1945. Las estrategias de los gobiernos cambiaron
para siempre, el mundo no volvió a ser el mismo.
5. La teoría de hoyos
Existe la posibilidad de que un electrón salte a estados de energía negativa, y la situación se da
cuando existe un hoyo en el mar de electrones con energía negativa; es decir, si hay un estado
vacante en el mar que puede ser ocupado por un electrón. Cuando el electrón baja al estado de
energía negativa, ambos, el electrón y el hoyo desaparecen, y la energía aparece en otra forma;
esta se observa como dos veces la energía del electrón original.
La energía que se observa puede ser en forma de fotones. Los hoyos aparecen en la distribución
de energías negativas del electrón, y se revelan como nuevos entes en la teoría. Debemos tener
una interpretación para estos.
De acuerdo con la teoría de Dirac, la transición de los electrones desde estados con energía
positiva a estados con energía negativa es insoslayable.
Entonces lo más razonable es buscarles una interpretación física a esas transiciones. Dirac planteó
la siguiente hipótesis: la imagen de vacío es ya no de una región donde no existe nada, sino de una
región donde todos los estados con energía negativa están completamente llenos. Para Dirac la
imagen de vacío más razonable es aquella región del espacio que esta en su estado más bajo de
energía posible. Mientras mas se agreguen electrones al estado de energía negativa mas baja
será su energía. El estado mas bajo se logrará cuando todos los estados estén ocupados. Esta es
la imagen de vacío planteada por Dirac.
Un hoyo en ese mar de energía negativa aparece como una partícula; una partícula con energía
positiva, ya que para hacer desaparecer el hoyo debemos agregar energía negativa. Podemos ir un
poco mas lejos y preguntarnos como se va a mover el hoyo bajo la influencia de un campo
electromagnético externo. Las ecuaciones de movimiento para una partícula cargada en un campo
electromagnético y en estados de energía positiva se aplicarían para una partícula en estados de
energía negativa. No existe algún argumento para no aplicar estas ecuaciones, en principio
podemos usarlas. Existirá diferencia en su trayectoria, y nada más.
La diferencia esta en que la segunda se movería como lo haría la primera en el caso de tener la
carga eléctrica opuesta. Entonces los hoyos en un campo electromagnético externo se moverían
exactamente como electrones con carga eléctrica positiva. Un hoyo en los estados de energía
negativa se mueve como si tuviera una carga eléctrica positiva; de aquí que su movimiento
corresponde al de una partícula en estado de energía positiva y carga positiva. Resta investigar su
masa. La teoría es completamente simétrica, por lo tanto lo más natural es suponer que la masa de
un hoyo sea idéntica a la masa de un electrón. Sin embargo Dirac dudo de esta situación porque en
aquella época la única partícula cargada positivamente conocida era el protón. Parece que estaba
enterado de la enorme diferencia de masas entre el protón y el electrón, y de la simetría entre los
estados de energía positiva y los estados de energía negativa que el mismo estaba proponiendo;
aun así apoyo la idea corriente de que la materia en su totalidad debía ser explicada tomando en
cuenta únicamente, como entes cargados, a los electrones y a los protones. Era común pensar que
sólo se requerían dos partículas, una cargada positivamente y otra cargada negativamente -el
protón y el electrón en orden respectivo-. No se requería mas, según sentimiento generalizado de la
época. Pero la naturaleza es mas rica que la imaginación, a veces. La opinión imperante era que no
se requerían nuevas partículas para explicar la materia del mundo observable. Lo cual es cierto;
pero también era cierto que estaban mirando cosas que no son usuales o corrientes en este
mundo. Por ello Dirac, penso que el hoyo seria el protón.
Dirac cedió a la corriente de opinión imperante y publicó su artículo sobre la teoría de hoyos con el
nombre de la teoría de los electrones y protones. Rápidamente encontró oposición a su
interpretación; principalmente de parte de los físico matemáticos; H. Weyl, físico matemático de la
Universidad de Göttingen, por ejemplo. Weyl estableció categóricamente que la teoría demandaba
que la masa del hoyo debería corresponder a la masa del electrón.
Y por lo tanto el hoyo sería algo no usual y desconocido hasta entonces por los físicos. Sin saberlo
siquiera sus autores, la antimateria había nacido.
Y a Dirac se le iba de las manos un premio Nóbel.
6. Detección de la antimateria
Años después de la publicación del artículo de Dirac, se anunció que una partícula con la masa del
electrón y carga positiva había sido descubierta. Al parecer fue Blacket el descubridor de esta
partícula -se lo contó a Dirac-, sin embargo no publicó nada porque sería que las evidencias que
tenía no eran suficientes, y mientras se hacía de mas evidencias otros físicos publicaron resultados
conclusivos. Anderson fue quien publicó estos resultados definitivos sobre la existencia de
antielectrones. En la época se examinaban trazas de partículas cargadas, moviéndose en un
campo magnético, dejadas en cámaras de Wilson. Partículas cargadas con un signo se mueven en
cierta dirección, las cargadas con el signo opuesto se mueven en dirección opuesta. Empero, si uno
observa una trayectoria curvada en una dirección, no sabe uno si interpretarla como la trayectoria
de una partícula cargada con un determinado signo moviéndose en una dirección, o bien como la
trayectoria de una partícula cargada con el signo opuesto moviéndose en la dirección inversa. En
las fotografías tomadas con cámaras de Wilson, los físicos notaban frecuentemente que algunas
trayectorias podían interpretarse como electrones saliendo de una fuente -fuente radiactiva-
mientras que otras podían ser interpretadas como electrones moviéndose hacia la fuente o
entrando a la fuente. Situación por demás singular. Como esto ocurría con mucha frecuencia para
ser casualidad, los físicos se dieron a la tarea de investigar el fenómeno. Para determinar la
naturaleza de la partícula bastaba con investigar la naturaleza de su carga, o bien la dirección hacia
la cual se estaba moviendo. Anderson interpuso una placa de plomo en las trayectorias de las
partículas, con el fin de pararlas; observo a ambos lados de la placa de plomo. Como la partícula es
frenada, en el lado que lleve menor velocidad su trayectoria será mas curvada que en el lado donde
lleve más velocidad. Como las partículas no pueden obtener energía de la placa de plomo, solo
perderla, entonces la partícula venía de la región de donde la curvatura es mayor hacia la región en
donde su curvatura es menor -es mas lenta-. Con este método la dirección de la trayectoria se
determinó. Todas las trayectorias resultaban de partículas que provenían de la fuente; ninguna
partícula entraba. Las trayectorias de partículas que parecían entrar a la fuente correspondieron a
partículas que salían pero con carga opuesta a la carga del electrón. Electrones positivos o
positrones. Por este descubrimiento a C.D. Anderson se le otorgó el Premio Nóbel en 1936.
Desde el descubrimiento de Anderson, los positrones se han observado innumerables veces. Los
positrones son la antimateria de los electrones. Hoy en día ya son partículas fácilmente manejables,
y se presentan a diario en el seno de los aceleradores de partículas en varias partes del mundo.
Los argumentos anteriores llevaron a descubrir los positrones, esto es, los antielectrones. Resta
responder una pregunta. Y concierne a la existencia de las antipartículas en general. ¿Existe la
antipartícula para cualquier partícula que exista o se pueda crear? La respuesta es afirmativa.
Primero; para toda partícula que siga la estadística que sigue el electrón, es decir la estadística que
siguen las partículas de espín un medio, los argumentos delineados anteriormente conducen a la
predicción de la existencia de su correspondiente antipartícula. Por ejemplo para el protón, existe el
antiprotón; para el neutrón, existe el antineutrón, etc. Aunque en estos dos últimos casos las
situaciones son un poco mas complicadas que en el caso de los electrones, porque si bien siguen
una ecuación de onda parecida a la ecuación de onda de los electrones, para el caso de los
protones la ecuación de onda es un poco mas complicada. Las complicaciones se derivan de la
intervención de otras fuerzas además de las electromagnéticas. Podemos seguir visualizando las
antipartículas de estas partículas como estados no ocupados en los estados de energía negativa
asociados a las partículas. Estos, como en el caso de los electrones, aparecerán como partículas
diferentes; con la misma masa y con la carga opuesta.
Con la imagen anterior abrimos la posibilidad de crear pares de partículas y antipartículas; basta
con perturbar el vacío apropiadamente para obtener un par de partícula antipartícula. El proceso de
crear un par partícula-antipartícula lo podemos ver como sigue: si ya creamos un par, lo que ha
ocurrido es que hemos sacado una partícula de los estados de energía negativa hacia un estado
observable, como lo es el estado de energía positiva; el hueco en los estados de energía negativa
lo observamos como la antipartícula de la partícula que hemos sacado, y se ve como una vacante
en los estados de energía negativa, i.e., energía positiva. Decimos que hemos creado un par. Por
supuesto el proceso inverso también es posible; un par partícula antipartícula puede ser destruido,
sus cenizas estarán compuestas de fotones.
La energía que se requiere para crear un par es dos veces la energía de la partícula en reposo.
Para el caso del electrón positrón es alrededor de un millón de electrón voltios, es decir, un millón
de veces la energía cinética que adquiere un electrón cuando cae a través de la diferencia de
potencial de un volt. La energía que se requiere para crear un par de protón antiprotón es cerca de
4,000 veces mayor. Estas energías son fácilmente alcanzables por la tecnología moderna; esto
quiere decir que pares de protones antiprotones, de neutrones-antineutrones, y de electrones-
antielectrones son fácilmente creados en los laboratorios de altas energías en el mundo.
Antimateria en general puede ser creada; antideuterios, antihelios, etc., han sido producidos en los
laboratorios, antiátomos livianos también. Las partículas que no satisfacen el principio de Pauli
también tienen sus antipartículas, aunque no siguen la estadística de las partículas que cumplen
con el principio de Pauli. Las primeras, aquellas que no siguen el principio de Pauli, son llamadas
bosones, y las que lo cumplen son fermiones. Para los bosones, algunas partículas son sus
mismas antipartículas; como es el caso del portador de la interacción electromagnética, el fotón.
Para algunos bosones cargados sus antipartículas son las partículas con el signo opuesto de la
carga eléctrica. Por supuesto para los bosones ya no tenemos la imagen de un vacío con los
estados de energía negativa llenos completamente, y la teoría se hace mas complicada.
Las ideas de Dirac, sobre la antimateria, son solo cualitativas. Ideas alternas han sido desarrolladas
por Stückelberg, Feynman y otros. La idea que se explota es: los positrones, en general toda la
antimateria, pueden ser considerados como electrones, materia en general, con el tiempo real
invertido o corriendo hacia el pasado. Es decir la antimateria seria la materia ordinaria pero
corriendo hacia atrás en el tiempo.
Con el desarrollo de la teoría de la antimateria la idea de partícula elemental se hizo más vaga. La
idea de partícula elemental, como aquella que es el bloque fundamental desde el cual se
construyen las demás no tiene sentido; porque en el proceso de división de la materia nuevas
partículas pueden ser creadas a partir de la energía de las partículas que se están dividiendo, y no
significa que estaban dentro de las partículas que se disociaron.
Por esta razón no podemos describir de una manera simple los últimos constituyentes de la
materia. Los físicos ahora batallan con un gran número de partículas, todas ellas parecen
igualmente fundamentales; lo que hacen en este tiempo es estudiar las transformaciones de estas
en otras. Pero ya no las piensan como fundamentales.
La antimateria ahora es un hecho, aunque tecnológicamente su uso y manejo es limitado. Empero
existen aceleradores de partículas que en una dirección circula materia, digamos electrones -
también los hay en donde circulan protones-, y en la dirección opuesta antimateria, los
antielectrones o antiprotones en su caso. Cuando estos dos pedazos de materia antimateria se
encuentran se aniquilan uno al otro y surgen fotones u otras partículas. Lo mismo ocurriría con un
bloque de materia y otro bloque de antimateria que se juntasen. La materia y la antimateria, juntas,
seria la forma de explosivo mas poderoso que jamás se haya inventado. Tan sólo nos limita su uso
la tecnología para poder guardar un pedazo de antimateria sin que interacciones con la materia
ordinaria.
El rastro electromagnético que deja la antimateria es igual al rastro que deja la materia. Estudiando
solamente sus espectros electromagnéticos no podríamos decir cual es materia y cual es
antimateria, hasta hacerlos que se junten; si explotan, es antimateria, si no lo hacen es materia.
Esto da pie a la especulación de la existencia de estrellas y galaxias formadas de antimateria.
Incluso la especulación sobre la existencia de universos formados enteramente de antimateria. No
lo sabremos nunca, a no ser que se descubra un método para distinguir la materia de la antimateria
sin necesidad de ponerlas en contacto.
Por último, nuestro universo esta formado básicamente de materia, esta asimetría es un misterio.
En un misterio desde el punto de vista de la teoría de antimateria que hemos explicado. Tal teoría
sabemos que funciona; sin embargo nada asegura que sea completa. Siguiendo con su lógica:
,Donde quedo la antimateria que debería estar en nuestro mundo? La antimateria solo la
conocemos por las trazas que deja en una cámara u otro medio para detectarse. Esta se crea en
los laboratorios, en las estrellas, en las desintegraciones nucleares, pero es una ínfima cantidad
comparada con la cantidad de materia que observamos. Y su vida es efímera. ,Por que nuestro
universo esta formado por una sola clase de materia a la que llamamos simplemente materia?
Quizá estemos lejos de descubrir este enigmático misterio. Porque es mucho lo que ignoramos
sobre nuestro universo. Los científicos, en particular los físicos, se entregan a estas hermosas
investigaciones .
Lecturas recomendadas
Feynman, R.P. (1994). Six Easy Pieces. Addison-Wesley.
Félix, J.(1992). Distinguibilidad de los neutrinos. Avance y Perspectiva,11: 211.
Selleri, F. (1986). El debate de la teoría cuántica. Madrid: Alianza
Teller, E.(1991). Conversations on the Dark Secrets of Physics. Plenum.
Autor:
Julián Félix Valdez
Instituto de Física, Universidad de Guanajuato
Apartado Postal E-143
C. P. 37150 León, Gto., México
***********************************
La Antimateria:
Hasta 1928, en la física ni siquiera como concepto se había desarrollado la idea de
antimateria y, mucho menos, la capacidad de producirla. Pero el estadio cambió cuando se
empezaron a conocer los estudios del físico británico Paul Dirac.
En la práctica, todo comienza con los trabajos de Dirac que publicó en el año 1929, en una
época que coincide con los tiempos que se descubrían los primeros secretos de la materia, se
teorizaba sobre el comportamiento de las partículas que comportan la fuerza débil, y se
profundizaban los estudios de los componentes de los átomos, especialmente en la teorización de
lo que se llama fuerza fuerte. Fueron tiempo en que la audacia tuvo una preeminencia como rol
intelectual dentro del mundo de la física, en el cual se plantearon conceptos como el de la
mecánica ondulatoria, el principio de incertidumbre o, también, el descubrimiento del espín en los
electrones. Se dice que fue una de las épocas más exotérica de la física, en la cual hubo
ejercitantes que concurrieron a simpáticas metáforas para hacer más accesibles sus teorías, como
fue el caso del físico austríaco Erwin Schroedinger cuando apeló a la historia de los gatitos para
exponer su principio de indeterminación, con el cual describía en síntesis que las partículas más
pequeñas tienen un comportamiento que, dentro del razonamiento común, no es el mayormente
aceptado por las personas.
La descripción anterior, implica ubicar el escenario en el cual Paul Dirac estaba inserto
cuando planteó que donde había materia, también podía haber antimateria. Concretamente señaló,
que si el átomo tenía partículas de carga negativas llamadas electrones, debía haber partículas que
fueran "electrones antimateria", a los que se les llamó positrones y que debían tener la misma masa
del electrón, pero de carga opuesta y que se aniquilarían al entrar en contacto, liberando energía.
Este descubrimiento de Dirac fue tan revolucionario que lo hizo merecedor del premio Nobel en el
año 1933.
El siguiente paso se dio en 1932, cuando Carl Anderson, del Instituto Tecnológico de
California, en un trabajo de experimentación confirmó la teoría de Dirac al detectar la existencia de
un positrón al hacer chocar rayos cósmicos. Pasaron dos décadas para dar otro salto y este vino en
1955, cuando un equipo de la Universidad de Berkeley formado por los físicos Emilio Segre, Owen
Chamberlain (ambos ganadores del Nobel de física de 1959), Clyde Weingand y Tom Ypsilantis
lograron hallar el primer antiprotón, o sea, la primera partícula especular del protón que es la
partícula de carga positiva del átomo. Un año después, con el uso de las mismas instalaciones, otro
equipo, formado por Bruce Cork, Oreste Piccione, William Wenzel y Glen Lambertson ubicaron el
primer antineutrón, el equivalente a la partícula de carga neutra de los átomos. La carrera por las
tres antipartículas básicas - equivalentes a la neutra, la negativa y la positiva - estaba terminada.
Otro paso lo dieron los soviéticos, que por el año 1965 contaban con el acelerador de partículas
más poderoso de los existentes en esos momentos. En un trabajo encabezado por el físico León
Lederma, los soviéticos lograron detectar la primera partícula compleja de antimateria, el
antineutrino, formado por dos partículas básicas. Posteriormente, usándose el mismo acelerador se
detectó el antihelio.
Con la inauguración, en 1978, de las instalaciones europeas del Centro de Investigación de
Alta Energía (CERN) de Ginebra, y los avances tecnológicos que ello implicó, se pudo lograr crear
antitritio y, en 1981, realizar el primer choque controlado entre materia y antimateria, con lo que
comprobaron una hipótesis valiosa: la cantidad de energía liberada por el mismo choque era
enorme, mil veces superior a la energía nuclear convencional. Pero para la receta para generar
antiátomos faltaba un ingrediente que permitiera la combinación de antipartículas para poder
producirlo, lo que precisamente faltaba era una fórmula para conseguirlo.
La dificultad radicaba en la velocidad con que se producen las partículas de antimateria y
sus violentas colisiones. Era necesario contar con una fórmula que permitiera desacelerarlas o
igualar su velocidad para unirlas, interrogante que fue respondida, en parte, por los trabajos del
profesor de física de la Universidad de Stanford Stan Brodsky y por el ingeniero físico chileno Iván
Schmidt.
En 1992, Brodsky y Schmidt publicaron sus trabajos de complejos cálculos en los cuales
sugerían la fórmula de un método para producir antiátomos, o sea, como poder unir antielectrones y
antiprotones. Pero también se requería capacidad de experimentación. A ellos llegó Charles
Munger, quién formó su propio equipo en Chicago para realizar los experimentos. Pero las
publicaciones nortearnericanas-chilenas también llamaron la atención de físicos europeos del
CERN donde se formó un equipo multinacional encabezado por Walter Oelert con el objetivo de
experimentar en la creación de un antiátomo. En la práctica, con ello, se dio una competencia
científico-mundial para alcanzar este logro.
El 4 de enero de 1996, los científicos del CERN anunciaron el éxito de haber obtenido en un
proceso de experimentación, no uno, sino nueve antiátomos de hidrógeno. No se trata de partículas
fundamentales o de pequeñas combinaciones, se trata - en propiedad - de lo que se puede
mencionar como átomos de antihidrógeno.
El método propuesto por la pareja Brodsky y Schmidt consistió, básicamente, en hacer
chocar un haz de antiprotones con un gas y, en cuyo proceso, se producirían pares de electrón-
positrón; luego, de esos positrones, una pequeña fracción viajaría casi a la misma velocidad de los
antiprotones, lo que implicaría que los positrones sean capturados por un antiprotón, lo que haría
que ambas antipartículas se combinaran para formar un antiátomo.
Los antiprotones rompen los núcleos del xenón y crean algunos pares de electrón y
positrón(2). Una fracción de estos pares es capturada por los antiprotones, alrededor de los cuales
pasan a orbitar; se crean átomos de anti-hidrógeno(3). Como estos átomos son eléctricamente
neutros, el campo magnético del acelerador no los desvía y continúan una trayectoria recta que los
lleva a atravesar a gran velocidad una fina barrera de silicio(4). Mientras que el antiprotón continúa
su camino, el positrón choca contra el electrón(6) con lo que ambas partículas se aniquilan.
Ahora, el experimento que hizo el CERN consistió en la elección del hidrógeno como
elemento de trabajo porque es el más simple y abundante de todos los que conforman el universo.
Con apenas dos componentes - uno positivo y otro negativo - era lo más sencillo. El acelerador
LEAR, con el cual se realizó el experimento, disparó un chorro de antiprotones a través de una fina
nube de gas xenón. Los antiprotones rompieron los núcleos del xenón y crearon algunos pares de
electro-positrón. Una fracción de estos pares fue capturada por los antiprotones, lo que implicó que
empezaran a orbitar alrededor de ellos; entonces se crearon antiátomos de hidrógeno.
Como estos antiátomos son neutros, el campo magnético del acelerador no los desvía y
continuarán una trayectoria recta que los lleva a atravesar a gran velocidad una barrera de silicio.
Mientras tanto el antiprotón continúa su camino, el positrón choca contra el electrón aniquilándose
ambos. El resultado es una emisión de rayos gamma que choca contra la barrera de silicio y delata
lo que ocurrió.
Uno de los problemas interesantes para desarrollar el proceso fue el de poder establecer
como poder atrapar la antimateria. Una de las dificultades era la de evitar que la antimateria
explotara al tomar contacto con la materia. La solución a la cual se llegó, en los trabajos realizados
por el CERN, fue la de usar un envase diseñado por el Laboratorio Nacional de Los Álamos de
EE.UU.. Este tipo de envase consiste en mantener a la partícula de antimateria en forma estable
por medio de campos eléctricos y magnéticos. Un ciclotrón puede frenar a un antiprotón de modo
que pueda ser capturado, detenido y paralizado con campos magnéticos. Una vez quieto, el
antiprotón es introducido en un envase que comporta un vacío interior para evitar choques con
átomos de aire y el magnetismo impide que el antiprotón toque sus paredes, detonando una
explosión de rayos gamma.
En el proceso se detectaron once choques contra la barrera, de éstos, nueve son
considerados indudablemente causados por la aparición de antiátomos de hidrógeno; sobre los
otros dos hay dudas. El antiátomo de hidrógeno producido, sólo dura 10 segundo antes de
encontrar materia a su paso y desaparecer y, fue por eso, que Brodsky y Schmidt propusieron en
sus trabajos la creación de un campo magnético para poder detectar los antiátomos en medio de
todas las partículas que se generan en el proceso.
Las partículas - que tienen cargas positivas o negativas - comportarán una órbita curva,
pero el antiátomo (cuya carga total es neutra) no será afectado por el campo magnético y saldrá en
línea recta.
El antihidrógeno es el estado más simple del límite atómico de la antimateria y, hasta el
anuncio efectuado por el CERN en enero de 1996, nunca antes se había observado
experimentalmente. Se logró sintetizar un átomo de antimateria desde sus antipartículas
comitentes.
El átomo de hidrógeno ha sido uno de los sistemas físicos más importantes para una
variedad amplia de medidas fundamentales relativas al comportamiento de la materia ordinaria. La
producción de antihidrógeno abre las puertas para una investigación sistemática de las propiedades
de la antimateria y la posibilidad única de comprobar principios físicos fundamentales.
En la cosmología podemos prever que a futuro se podrán contar con tecnologías que
permitan investigar con más y mejor precisión la estructura del universo y, por ende, las
características y fuentes de emisión de antimateria en él. Para ello en particular, la NASA ha
desarrollado un proyecto para instalar en la estación espacial Alpha, en el año 2002, un detector de
antipartículas que se la ha denominado Espectrómetro Alfa Magnético (AMS). El instrumento está
diseñado para detectar antimateria atómica (hasta ahora solamente se han observado
antipartículas) entre las partículas de los rayos cósmicos, que a la velocidad de la luz bombardean
intensamente la Tierra. La mayor parte de ellas provienen del Sol y también de remanentes de
estrellas que han explosionado en nuestra galaxia, pero la detección de las más energéticas se ha
conseguido en lugares ubicados próximos al centro de la Vía Láctea y de fuentes lejanas de ésta.
En consecuencia, serán estos últimas los blancos focalizado para ejecutar los procesos de
detección de antimateria atómica espacial.
Pero no sólo para el campo de la investigación en física la producción de antimateria tiene
ribetes de excepción, si no que también en otros campos de la ciencia podría tener aplicaciones
inmensas como el aerospacial, o como ya se ha demostrado en la medicina, etc.... Podemos soñar
con energía ilimitada y barata; motores para naves interestelares que podrían desarrollar
velocidades a más de un tercio la de la luz; mayor intensidad en la exploración del espacio y, por
supuesto, muchas otras cosas más que, por ahora, podrían ser consideradas pura ciencia ficción.
Al momento de escribirse estas líneas, solamente se han desarrollado en laboratorio
diecinueve antiátomos de hidrógeno y el equipo de norteamericanos encabezados por Charles
Munger proyecta a futuro, lograr unos cien. Lo anterior, no significa que se podrá contar en el corto
plazo con reactores de materia-antimateria, o que pronto se podrán unir antiátomos para crear
antimoléculas y, luego, anticosas. Por ahora, es mejor considerarlo como ficción. Consideremos
que para poder contar con un supercombustible de antimateria para viajes espaciales, hay todavía
que pasar una multiplicidad de obstáculos. El primero es encontrar un método para crear
antiátomos en reposo, en vez de alta velocidades, para que no desaparezcan al chocar con la
materia. Luego, habría que producir 1020 de estos, por lo menos. Lograrlo, no es imposible, pero
por ahora debe ser considerado a un largo plazo. En cuanto a las "anticosas", es mejor adherirse a
la idea de que nunca se puedan concretar. Se escogió hacer un antiátomo de hidrógeno porque
este es el más simple de todos. Pero para producir moléculas de antiátomos, sería necesario crear
antiátomos más complejos, y luego unirlos, lo que teóricamente es factible, pero de ahí a la práctica
es casi invisualizable.
Recamado de la Fuente.-
Contornos de radio recamados sobre un modelo de la fuente de la radiación producida por
la aniquilación. La observacion de los radios sugieren la existencia de un canal conductor de la
radiación que va desde el centro de nuestra galaxia a latitudes altas.
En general, ello es consecuente con la ubicación y dirección de la fuente de aniquilación.
Las primeras observaciones que se pudieron realizar de explosiones de rayos gamma
debido a emanaciones desde el centro de nuestra galaxia fueron a comienzos de 1970, y
registraban un rango energético de 511_[KeV].
Posteriormente, a comienzos de 1980, la energía de las explosiones pareció disminuir
cuando aparentemente emanaba desde el mismo lugar registrado anteriormente, volviéndose a
observar emisiones con el rango de 511_[KeV] en las últimas detecciones que realizó el
espectrómetro OSSE del satélite CGRO.
Ello estaría indicando que los aniquilamientos de positrones se estarían generando en una
pequeña y discreta fuente, posiblemente en la vecindad de un agujero negro al cual se le ha
apodado "El Aniquilador".
La nube de antimateria particulada, que fue detectada en los mapas de explosiones de
rayos gamma elaborados por el CGRO, se observa elevarse como un especie de pluma partiendo
desde costado del centro de la Vía Láctea, y es extremadamente difusa. Por lo que se ha podido
distinguir, es factible considerar que sólo hay en ella positrones, y no antiprotones o antiátomos.