Está en la página 1de 20

La Antimateria

Resumen
En este ensayo se exponen, desde un punto de vista conceptual, el origen y el desarrollo de la
teoría de la antimateria. Para entender el origen, se revisan las ideas fundamentales de la
mecánica clásica y su interpretación semántica; luego las ideas de la mecánica cuántica, las de la
mecánica cuántica relativista, y las de la teoría de la antimateria. Finalmente, se explica la forma en
que fue detectada la antimateria.
Introducción
Para el hombre de la calle la idea de antimateria es esotérica, enigmática, posiblemente oscura e
incomprensible. Forma parte de su cultura, cultura mal formada o desinformada; cultura al fin. La
palabra es parte de su vocabulario, pero no de su comprensión. Esta y otras ideas de la ciencia
moderna han sido implantadas en el léxico del lego por las historias de ciencia ficción, las series de
televisión, y ocasionalmente por la prensa y la radio; de manera muy aislada por los hacedores y
practicadores de la ciencia. Tal es la cultura de los medios de comunicación masiva. Son muy
pocos los que tienen una idea fiel de lo que antimateria significa. Son muy pocos también los que
poseen alguna noción, aunque sea muy vaga, de las teorías que la sustentan y que le dieron
origen, a pesar de que estas ultimas forman parte de la cultura universal de nuestro tiempo. En
nuestra época, todo ser humano, en principio, debería tener alguna noción de las grandes ideas de
su tiempo, ya pretérito, ya actual; todo ser humano que se ostente de ser un ser de su tiempo y de
su cultura. Por lo anterior:
Esta es la historia, esbozada tan solo, de una de las grandes ideas de nuestro tiempo, implantada
ya en la cultura universal y llamada a formar una pieza integral del pensamiento humano universal.
Va emparejada a otras ideas igualmente geniales y trascendentales del siglo XX, como son la
mecánica cuántica y la teoría especial de la relatividad. Esta es la historia de la antimateria.
En las próximas páginas delinearemos las ideas primeras sobre el mundo; las teorías de la
naturaleza que dieron origen a la idea de antimateria y sobre las que descansa, su origen, las
incertidumbres y errores de los autores que le dieron paternalidad, su consolidación al tenerse la
confirmación experimental, sus consecuencias, y su estado actual; también esbozaremos la forma
en que ha afectado para siempre nuestra concepción del mundo.

1. La mecánica clásica
Por mecánica clásica entendemos la gran síntesis sobre la concepción del mundo hecha por los
científicos del siglo XVII. Figuran algunos estudiosos del movimiento de los cuerpos celestes -
Brahe, Kepler, Galileo, etc. - y del movimiento de los cuerpos terrestres -Galileo, Newton, y otros-;
por supuesto sin que una lista excluya a la otra. Es una gran síntesis porque resume en 3 axiomas,
y unas cuantas definiciones todo el conocimiento sobre la mecánica -esto es, movimiento- de los
cuerpos y sintetiza éste; es decir, descubre que las explicaciones del movimiento de los cuerpos
terrestres y de los cuerpos celestes están englobadas por los mismos principios. La naturaleza -
supuesta ya divina o terrestre no cuenta, las leyes son las mismas. La mecánica clásica fue la
primera teoría de tipo axiomático sobre el mundo; axiomático en el sentido de la geometría
euclideana clásica; es decir todas la verdades se deducen de unos pocos principios o axiomas -
también llamados autoverdades- y unas cuantas definiciones.
Los axiomas son conocidos por todas las personas con educación media superior. Estos son:
I Todo cuerpo en estado de reposo o de movimiento continuará así hasta que una fuerza exterior
modifique este estado de reposo o de movimiento.
II Las fuerzas aplicadas sobre determinado cuerpo son proporcionales a las aceleraciones
obtenidas del cuerpo.
III A toda acción que se ejerce sobre un cuerpo, corresponde una reacción, de la misma intensidad
y de sentido contrario.

Dentro de las definiciones están: estado de reposo, estado de movimiento, fuerza, aceleración,
acción, masa, tiempo, velocidad, materia, y muchas otras. Vale la pena hablar un poco sobre estas
últimas, ya que conforman el conocimiento junto con los axiomas que tenemos del movimiento de
los cuerpos del mundo exterior. Aunque es pertinente una aclaración; una persona que sabe, o que
decimos que sabe, mecánica clásica, no solamente conoce los axiomas y las definiciones -aparato
conceptual- sino que además maneja con soltura el aparato matemático involucrado ecuaciones
diferenciales- y sabe como aplicarlo a situaciones físicas.
En la mecánica clásica, muchas de la definiciones son limitadas, ambiguas y no libres de
dificultades. Sin embargo, en el ámbito para el que fueron pensadas, estas funcionan bien. Veamos
algunos ejemplos concretos. Newton propuso que el tiempo es absoluto, fluye ajeno a todo influjo
externo y es universal; es decir, no depende del estado de movimiento del observador.
Éstas son llanamente suposiciones sobre la naturaleza del parámetro que llamamos tiempo. Es lo
que observamos, o lo que nos dicta la experiencia más inmediata. Nada contradice estas o nos
hace pensar que son erróneas; tal es nuestro acondicionamiento. Veremos más tarde que
indagaciones mas profundas sobre estos hechos llevaron a la formulación de la teoría especial de
la relatividad. Aunque parece ser que Newton estaba consciente de estas dificultades, no tuvo otra
alternativa. Ahora tomemos la idea de reposo.
Esta es ambigua pues depende del observador. Solamente existe un sistema de coordenadas
inercial donde un determinado cuerpo esta en reposo; visto desde cualquier otro esta en
movimiento. ¡Un cuerpo que esta en reposo y a la vez se mueve! No hay paradoja, todo depende
del estado del sistema desde donde se este observando. Otro ejemplo: por definición, masa es la
cantidad de materia que contiene un cuerpo. A su vez, clásicamente, materia es todo aquello que
compone a los cuerpos. Esta es una idea intuitiva, fabricada para describir objetos macroscópicos,
esto es, objetos de la vida diaria, y con los cuales tenemos experiencias directas. No hay ninguna
garantía de que sea válida cuando la extrapolemos a regiones -microcuerpos- donde no tengamos
experiencias diarias. Decimos, los objetos están hechos de materia.
Sí, pero qué es la materia. La definición es recursiva; materia es todo aquello que compone a los
cuerpos. Nada mas absurdo que esto, porque la lógica se ha perdido. Para que no suceda tal cosa
hay que cortar en algún punto, y tomar como evidente -es decir, sin demostración- alguna
proposición. La mecánica clásica toma como evidente la idea de materia, en el sentido de que es
todo lo que constituye a los cuerpos. No se define más.
Porque no se puede, además no se necesita más. Luego veremos que podemos calar más hondo
cuando tengamos experiencias con cuerpos microscópicos y además enfoquemos las cosas desde
una perspectiva diferente. Un ejemplo más:
Energía es otro paradigma de concepto clásico, su definición dice que es la propiedad que poseen
todos los cuerpos para realizar un trabajo; trabajo es la energía almacenada o gastada por un
cuerpo, o en un cuerpo. No comentamos mas sobre este concepto.
Al margen de la teoría clásica, al menos en principio, quedan discusiones como, que es el vacío,
cual es el propósito de la mecánica clásica, y otras cuestiones; más cerca estas de los objetivos de
la filosofía que de la mecánica clásica.
Si bien la física clásica, es decir, la mecánica clásica, no esta dispensada de problemas de
consistencia, nadie puede negar u omitir los grandes logros aquilatados. Con toda justicia podemos
decir que es una teoría autoconsistente, es una teoría de las llamadas cerradas. Las
inconsistencias surgen cuando forzamos las autoevidencias supuestas para que se revelen en
evidencias. ¡Esto es equivalente a pretender construir el conocimiento de la nada! Pretensión
completamente absurda. Tenemos que suponer algo, para empezar. Como una primera
aproximación en la descripción del mundo externo, la mecánica clásica es válida. En realidad
ninguna teoría axiomática esta libre de estos problemas. La misma geometría de Euclides los tiene;
empero estos no le restan ningún mérito, excepto el de ser una teoría absoluta.
Basten, para ejemplificar, recordar las interminables discusiones sobre la autoevidencia de sus
postulados. Discusiones que llevaron a la formulación de otras geometrías igualmente verdaderas y
autoconsistentes conocidas como geometrías no-euclideanas, y posteriormente a todo un
programa para la construcción de todo tipo de geometría posible.
Las discusiones sobre la autoevidencia de los postulados y de las definiciones de la mecánica
clásica, junto con la abrumadora evidencia experimental no explicada por los primeros,
desembocaron en nuevas mecánicas.
Pero antes de pasar a revisar esas nuevas mecánicas, echemos un vistazo a los principios que aun
estas preservan. En la mecánica clásica se supone, por principio, la conservación de la cantidad de
movimiento -ya sea lineal, ya sea angular-; también la conservación de la masa; y la conservación
de la energía, cualquier tipo de energía. Dentro de la interpretación semántica de la mecánica
clásica están como principios:
i) La objetividad. Esto es, la postulación de un mundo externo al observador y que es factible de ser
descrito por leyes naturales independientes de toda intervención de la voluntad del hombre.
ii) La localidad. Esto es, todo fenómeno natural es de tipo local; quiere decir que los resultados de
un experimento en la luna, por ejemplo, o en el laboratorio vecino no afectan los resultados de otro
en la tierra o en otro laboratorio.
iii) La causalidad. Esto es, a todo fenómeno antecede una causa o razón.
iv) El determinismo. Esto es, la suposición de que podemos predecir el futuro, si conocemos con
todo detalle las condiciones iniciales y las leyes que rigen el comportamiento de los cuerpos
involucrados. En mecánica clásica, en principio, podemos hacerlo; conocemos las leyes que rigen y
podemos conocer las condiciones iniciales con toda la precisión que querramos; no existen
limitaciones a la precisión, por principio. La teoría clásica no presupone una incertidumbre inherente
al proceso de medición. Si bien existen las incertidumbres en los procesos de medición, las
presupone tan pequeñas como se deseen, sin que por ello nuestras mediciones queden afectadas.
Dicho de otra manera, los efectos del observador sobre el fenómeno son tan péquenos que no le
alteran en su naturaleza, y se pueden reducir tanto como se quiera. No existen incertidumbres en el
proceso de medición, y las obtenidas están dadas por las limitaciones experimentales.
v) Completez. Esto es, a cada elemento de la realidad física le corresponde un elemento de la
teoría; si en una teoría esto se cumple, decimos que la teoría es completa. Tomemos como
ejemplo la electrodinámica clásica. En el mundo externo existe una propiedad de la materia -puede
ser observada- la electrodinámica se refiere a esta como "carga eléctrica". De esta forma a un
elemento de la realidad física, se le asocia un elemento o concepto de la teoría. La teoría clásica
sobre el mundo externo es objetiva, es local, es causal, es determinista, y es completa.
Los principios antes numerados no son recuperados por la mecánica cuántica. como veremos más
adelante.

2. La mecánica cuántica
La teoría cuántica fue introducida por M. Planck en un comunicado a la Sociedad Alemana de
Ciencias Físicas en 1900. Su hipótesis fundamental fue la discretización o cuantización de la
radiación electromagnética cuando es absorbida por las paredes del cuerpo negro, i.e., las paredes
solo admiten-hipotetizó- unidades cuantizadas de energía. Por cuerpo negro se entiende cualquier
cuerpo capaz de absorber y radiar energía al mismo ritmo. Una pared metálica pintada de negro es
una buena aproximación. Una constante, ahora conocida como constante de Planck, caracteriza
esta absorción. Planck no discretizó la radiación electromagnética cuando se propaga, sólo cuando
es absorbida o intercambiada por o con las paredes del cuerpo negro. Con ésta hipótesis describió
y reprodujo las curvas del espectro de radiación del cuerpo negro. La hipótesis de Planck fue una
hipótesis muy afortunada que le tomo 4 años en formular. Aunque al principio no fue del todo claro
su significado, otros físicos usaron la misma hipótesis para describir fenómenos aparentemente no
conectados con el fenómeno de radiación del cuerpo negro. El efecto fotoeléctrico, por A. Einstein -
trabajo que le valió el premio Nóbel-. Explicación de los espectros de radiación electromagnética del
átomo de hidrógeno por N. Bohr -trabajo por el cual se le concedió el premio Nóbel-; y otros
muchos que cimentaron la teoría de los cuantos y acunaron la universalidad de la constante de
Planck.
Niels Bohr, autor de la primera teoría atómica, contribuyó sustancialmente a la creación de la
mecánica del cuanto. Su teoría explicaba muy bien los espectros de radiación emitida por el átomo
de hidrógeno. Tales espectros eran conocidos muy bien mucho antes de haber nacido la teoría del
cuanto. Sin embargo, aunque la teoría funcionaba muy bien en átomos hidrogenoides -es decir, de
un solo electrón-, fracasaba dramáticamente en átomos de más de un electrón. La teoría no
contemplaba, por ejemplo, como tomar en cuenta la interacción entre dos electrones. Debido a
estas y otras dificultades que la teoría presentaba, era necesario un formalismo para describir la
mecánica del cuanto. Las ideas filosóficas de A. Einstein y N. Bohr contribuyeron decididamente a
su formulación.
Albert Einstein consideraba que toda teoría física debería basar sus conceptos en variables de tipo
observable, es decir, que todo concepto físico tuviera su contraparte experimental. Consideraba
que este era un requisito que toda teoría física debería cumplir. Estos requisitos los cumple la teoría
de la relatividad -como veremos en la próxima sección-. Empero no los cumple la teoría atómica de
Bohr. La teoría atómica de Bohr hablaba -bueno, habla porque todavía se enseña en las escuelas
de física como un preámbulo para la mecánica cuántica- de órbitas atómicas, periodos atómicos,
etc., ninguno de estos conceptos tiene su contraparte experimental. En la mecánica clásica existen
las contrapartes experimentales a los conceptos antes señalados, luego es lícito hablar de ellos.
Pero en la física del microcosmos no, por lo tanto algo estaba completamente equivocado en la
teoría de Bohr. Fue W. Heisenberg, quien al aplicar el criterio de Einstein para las teorías físicas,
pudo dar con el formalismo para la creación de la mecánica del cuanto. El observable fundamental
resulto ser el concepto de estado cuántico. En los espectros atómicos no se observan períodos y
órbitas atómicas, solo estados cuánticos atómicos. -El formalismo de Heisenberg consistió en decir
como calcular amplitudes de probabilidad de que un sistema pase de un estado a otro-. El estado
inicial y el estado final en una transición atómica radiactiva. Fueron estos los observables de la
mecánica cuántica de Heisenberg.
Se cuenta -por el propio Heinserberg- que cuando Einstein le preguntó cómo había creado la
mecánica del cuanto, esto es, cómo se le había ocurrido la formulación, le dijo que simplemente
había usado su requisito de observables para toda teoría física; a lo que Einstein contestó que ya
había cambiado de opinión.
Siguiendo con nuestra historia. Cuando Heisenberg desarrolló el álgebra pertinente se topó con un
álgebra no conmutativa. Permítaseme explicar esto.
En otras palabras, significa que el producto de a por b no es igual al producto de b por a. El
resultado anterior preocupó enormemente al autor de la teoría, quien al principio consideró que algo
andaba completamente incorrecto. Sin embargo poco después se comprendió que tal producto es
posible; los matemáticos ya lo manejaban con anterioridad y llamaban a los elementos de esta
álgebra matrices, y por supuesto conocían sus propiedades de no conmutación multiplicativa.
Expliquemos un poco más. Nos han enseñado que 4 x 5 es igual a 5 x 4, de aquello no hay duda.
Decimos que el producto es conmutativo porque el producto final es igual en ambos casos. En
general las operaciones a las que estamos acostumbrados en la vida diaria son conmutativas; la
multiplicación, la suma, etc., lo son; empero podemos definir una serie de operaciones que no lo
son, de tal suerte que al ejecutar una y después la otra el resultado es dramáticamente diferente de
si primero aplicamos la segunda y enseguida la primera. concretemos nuestra ejemplificación: sea
A, la operación de disparar una pistola; y sea B, la operación de llevar la pistola a la sien. El proceso
y el producto BA son: disparar la pistola y en seguida llevar la pistola a la sien; el resultado es el
pedazo de plomo en el aire. El proceso y el resultado de AB son: llevarse la pistola a la sien y en
seguida disparar, el resultado es el pedazo de plomo incrustado en el cráneo; el resultado es
drásticamente diferente al anterior. El primer resultado es inofensivo, y el segundo resultado es
mortal. Claramente, pues, AB no es igual a BA. Luego las operaciones A y B no son conmutativas.
A la mecánica de Heisenberg se le conoció con el nombre de la mecánica matricial. Otros
desarrollos paralelos fueron dados por Schrödinger enteramente independientes de Heisenberg.
Schrödinger planteó una ecuación de onda que describe como varía en el espacio y como
evoluciona en el tiempo la función de onda que describe un estado físico -observable físico-. Esta
es una ecuación diferencial de segundo orden en el espacio y de primer orden en el tiempo. Este
tipo de ecuaciones eran muy conocidas en mecánica clásica. La versión de Schrödinger es análoga
a la versión -en el sentido de la formulación en términos de ecuaciones diferenciales- a la
formulación de la mecánica clásica. El propio Schrödinger demostró que el formalismo de
Heisenberg y el de él de la mecánica cuántica son equivalentes.
El formalismo de Schrödinger acarreó otro problema; que al principio no resultó fácil resolver, ya
que significaba la función de onda. Diferentes escuelas le dieron distintas interpretaciones. Ésta fue
una situación sin precedente en la historia de la física. Generalmente en mecánica clásica las
ecuaciones eran obtenidas cuando ya se tenia una interpretación para ellas.
Las ecuaciones describían situaciones físicas con las que ya se tenían experiencias directas. Luego
su interpretación se seguía naturalmente. Pero esta situación no se da cuando se estudian
sistemas microscópicos, donde no tenemos una experiencia directa. La interpretación de la función
de onda de la ecuación de Schrödinger tomo varios años. Ésta función depende de la posición y de
los momentos -tomados como operadores- y del tiempo. Si la función es propiamente normalizada,
es decir, si existe una constante multiplicativa de tal manera que su módulo al cuadrado sea la
unidad cuando se integra sobre todo el espacio considerado, entonces el módulo al cuadrado de la
función de onda puede ser interpretado como la densidad de probabilidad de encontrar la partícula
en determinada reunión del espacio a determinado tiempo.
Tenemos ahora un formalismo para decir cual es la probabilidad de encontrar una partícula en
cierta región del espacio a determinado tiempo. Con esto hemos perdido el determinismo de la
mecánica clásica. Ya no se puede decir que la partícula esta en determinado lugar del espacio.
Podemos decir tan sólo, la probabilidad de tenerla en algún lugar del espacio. Se dice que Einstein
exclamó: "Dios no juega a los dados". La interpretación estadística le resultaba inadmisible; por
consiguiente dedicó mucho tiempo y esfuerzos a encontrar una interpretación determinista a la
función de onda. El abandono del determinismo clásico le molestaba enormemente. Nunca aceptó
la interpretación probabilística de la mecánica cuántica. Niels Bohr replicaría: "no le corresponde a
los físicos decirle a Dios como debe jugar". Bohr estaba satisfecho con la interpretación de la
mecánica cuántica. Estos dos personajes nunca se pusieron de acuerdo. Los debates y encuentros
amistosos entre estos dos científicos duraron hasta la muerte de A. Einstein en 1954. N. Bohr murió
después, en 1962. Lo mas que pudo hacer Einstein fue mostrar que la mecánica cuántica no es
completa, no sigue el principio de completez, aunque es lógicamente consistente. Para
hacerlo,Einstein definió la realidad física: en base a su definición mostró que había elementos de la
realidad física que no estaban contemplados por la mecánica cuántica; luego se seguía la
incompletez de la mecánica cuántica.
Bohr aceptó la consistencia de la demostración pero objeto la definición de realidad física. Con ello
el debate continuo. Era el año de 1935; diecinueve años mas tarde el debate continuaba. Aún, hoy
en día algunos físicos no la aceptan. Sin embargo es la interpretación aceptada por la mayoría de
los físicos.
Aunque a regañadientes los físicos aceptaron la potencia de la nueva mecánica del cuanto. Otros
se dieron cuenta casi inmediatamente de la utilidad de la nueva mecánica. Paul A. M. Dirac fue uno
de ellos. La potencia de la nueva mecánica surgió aun más, cuando se escribió en la formulación
canónica, es decir, en una forma donde aparecen las coordenadas espaciales y las variables
conjugadas -momentos-; formulándola así, la nueva mecánica adquiere una forma análoga a la
mecánica clásica. Las diferencias están dadas por la propiedad de no conmutación de las variables
conjugadas posición y momento. Y esta formulación admite una generalización a todo tipo de
variables conjugadas que no son del tipo de momento y posición.
Verbigracia, las variables conjugadas pueden ser del tipo de los operadores de permutación;
pueden ser los operadores que representan las rotaciones de un cuerpo en un espacio
tridimensional; pueden ser operadores de creación y destrucción de partículas; pueden ser
operadores de emisión y absorción de partículas; o de manera muy general podemos decir que
pueden ser los elementos de un grupo cualquiera.
La generalización puede ir mas lejos, al escoger apropiadamente las variables conjugadas para
representar el espacio físico; y escribir ecuaciones análogas a la ecuación de Heisenberg en este
espacio, sin que se requiera una analogía clásica, y aun poder interpretar la función de onda al
cuadrado como una densidad de probabilidad.
A pesar de todos los logros sorprendentes de la formulación de la mecánica cuántica, subsistía una
dificultad; como hacerla compatible con la teoría especial de la relatividad. En la próxima sección
revisaremos brevemente las hipótesis y consecuencias de la relatividad especial; luego veremos
como se resolvió el problema de hacer compatible la mecánica cuántica y la teoría especial de la
relatividad.

3. La relatividad especial
La teoría especial de la relatividad fue introducida por Albert Einstein en 1905. Once años más
tarde introdujo la teoría general de la relatividad donde compaginó la teoría especial de la
relatividad y la teoría de la gravitación. Como en partículas submicroscópicas las interacciones
gravitacionales son pequeñas -al menos ese es el sentimiento generalizado, no se toman en cuenta
cuando se formula la teoría de partículas elementales; esto quiere decir que la teoría general de la
relatividad no se toma en cuenta, solamente se hace uso de la teoría especial de la relatividad dado
que intervienen altas velocidades.
La teoría especial de la relatividad surgió casi como una consecuencia natural después de
examinar algunas inconsistencias de la electrodinámica de los cuerpos en movimiento. La teoría de
Maxwell -conocida como electrodinámica clásica- requería, según versión del propio Maxwell, la
existencia de un marco de referencia de propiedades mecánicas extrañas y contradictorias, donde
la velocidad de las ondas electromagnéticas fuera c y solamente c (la velocidad de la luz en el
vacío). No se concebía, según la visión mecánica del universo, la propagación de una onda sin
requerir de un medio que la condujera. (El sonido requiere de un medio material para propagarse).
Por ello se invento el éter (el medio ficticio que desempeñaba el papel del medio donde la luz se
propaga). Este medio debería tener propiedades extrañas. El experimento de Michelson & Morley
desmintió la existencia de un marco de referencia como el del éter. Dejando por sentado que la
velocidad de la luz es independiente de la velocidad de la fuente.
Algo incomprensible según la mecánica clásica; donde la velocidad de la fuente mas la velocidad
de la perturbación sería la nueva velocidad de la perturbación, si se le observara desde otro marco
de referencia. Para la luz esta ley de adición no parecía funcionar, y no funciona. Basándose en las
consideraciones anteriores, Einstein postuló que la velocidad límite máxima para los objetos
materiales es la velocidad de la luz en el vacío. Y además, ésta es una constante independiente del
marco de referencia desde el cual se mide. Con estos dos postulados transformó la mecánica de
Newton en mecánica válida para objetos a bajas velocidades comparadas con la velocidad de la
luz- en una nueva mecánica -mecánica relativista- válida para objetos que se mueven a cualquier
velocidad menor que la velocidad de la luz en el vacío, por supuesto. La mecánica relativista
contiene en el límite a bajas velocidades la mecánica de Newton. En la mecánica relativista las
coordenadas espaciales quedan en la misma categoría que la coordenada temporal y viceversa.
Las coordenadas espaciales se funden con la coordenada temporal en una formulación
tetradimensional de la mecánica. Diciéndolo de otra manera, podemos agregar que la mecánica
relativista puede ser formulada exigiendo que la coordenada temporal sea simétrica con las
coordenadas espaciales, excepto por algunos cambios de signo que ocurren en las ecuaciones.
La teoría especial de la relatividad tuvo sus predicciones espectaculares corroboradas, al
comprobarse la dilatación temporal y la contracción de la longitud.
Según la teoría especial de la relatividad, la energía de una partícula es la suma de su energía en
reposo -la energía que le corresponde en virtud de su masa- y la energía cinética -energía que le
corresponde en virtud de su movimiento-. Para una partícula en reposo, la energía se escribe como
el producto de su masa por el cuadrado de la velocidad de la luz. Otra predicción de la teoría
especial de la relatividad. La conversión de materia en energía, desprendida de la formulación
anterior, en una pila atómica o en una desintegración radiactiva cualquiera -reacciones donde se
consume masa.
Esta predicción fue espectacularmente confirmada. Con ello cambió la política mundial y la forma
de hacer la guerra. Nació la bomba atómica en 1945. Las estrategias de los gobiernos cambiaron
para siempre, el mundo no volvió a ser el mismo.

4. La mecánica cuántica relativista


La mecánica cuántica de Heisenberg o la de Schrödinger es una mecánica no relativista. Es válida
para sistemas de partículas a bajas velocidades. Para hacer válida la mecánica cuántica a altas
velocidades es necesario hacerla consistente con la teoría especial de la relatividad. Se ha indicado
anteriormente que la teoría especial de la relatividad puede ser formulada haciendo que la
coordenada temporal sea simétrica con respecto a las coordenadas espaciales. Esta es la idea que
vamos a aplicar para hacer consistente la mecánica cuántica con la teoría especial de la relatividad.
La ecuación de Schrödinger es una ecuación asimétrica en sus coordenadas espaciales y
temporales. En ella aparecen los operadores temporales a la primera potencia, y los operadores
espaciales a la segunda potencia. Podemos hacer esta ecuación consistente con la teoría especial
de la relatividad exigiendo que los operadores, tanto espaciales como temporales, sean del mismo
orden; ya sea de segundo orden o de primer orden.
Veamos que ocurre cuando pedimos que ambos operadores sean de segundo orden.
Para hacerlo simplemente se usa la expresión para la energía relativista al cuadrado y el operador
temporal al cuadrado. Con ello los operadores espaciales y temporales quedan ambos al cuadrado
y a la vez simétricos. Esta ecuación fue adivinada primeramente por L. de Broglie, y es conocida
como la ecuación de Broglie. Fue adivinada porque no se dedujo, simplemente se planteó.
La ecuación de Broglie puede ser modificada para incluir la influencia de un campo
electromagnético externo. La ecuación resultante es una ecuación algo complicada. Y además
satisface los requerimientos de la teoría especial de la relatividad, y es como la ecuación de
Schrödinger. Esta ecuación es conocida como la ecuación de Klein & Gordon. Se dice que fue en
realidad descubierta por Schrödinger, pero el nunca la publicó debido a que no da el espectro
correcto del átomo de hidrógeno; Schrödinger siempre estuvo insatisfecho con esto. Muchos físicos
estaban satisfechos con la ecuación de Klein & Gordon a pesar de las serias dificultades que esta
presenta. Aunado a lo anterior, la densidad de probabilidad dada por la ecuación de Klein & Gordon
no está bien definida; esta no viene dada por el cuadrado de una amplitud, sino que puede tomar
valores positivos y negativos; lo cual la hace inadmisible. Los físicos interpretaban esta expresión,
que puede tomar valores negativos y positivos, como una densidad de carga. Todos los físicos
estaban contentos con usar la ecuación de Klein & Gordon y su interpretación. Todos, excepto
Dirac. A Dirac le disgustaba que la teoría de Klein & Gordon violara algunas de las características
que hacían a la teoría de Schrödinger elegante y general; como la teoría de transformaciones.
Quebrantaba la teoría de transformaciones porque no había forma posible de trasformar la función
de onda para ser referida a otras variables distintas a las de posición, como se puede hacer en la
teoría de Schrödinger. Dirac cuenta que en aquella época los físicos parecían contentos con la
ecuación de Klein & Gordon a pesar de todas las dificultades que presentaba. Dirac se planteó el
problema de encontrar una ecuación de onda consistente con la teoría especial de la relatividad y
que preservara las características de la teoría de transformaciones. Dirac encontró que la otra
alternativa que mencionamos era la solución correcta. Es decir, exigir que todos los operadores que
aparecen en la ecuación sean de primer orden y no de segundo orden como en la ecuación de
Klein & Gordon. La ecuación que resulta se conoce como ecuación de Dirac. La nueva ecuación
cumple con los requerimientos de la simetría impuesta por la teoría especial de la relatividad y con
los requerimientos fundamentales de la mecánica cuántica.
La ecuación de Dirac resultó útil para describir una partícula de espín un medio del cuanto y con
momento magnético. Estos resultados no estaban contemplados originalmente por Dirac.
Los físicos a menudo resuelven una dificultad y les aparecen otras. La ecuación de Dirac resolvió
las dificultades que planteaba la ecuación de Klein & Gordon pero otra se hizo evidente. La función
de onda de la ecuación de Dirac presentaba 4 componentes, en vez de una como la ecuación de
Schrödinger; una función de dos componentes era perfectamente aceptable y comprensible, cada
una de las componentes se refería a un estado posible del espín del electrón, pero cuatro
componentes exigía ir al límite de la imaginación de los físicos. Al principio no fue entendido el
significado de la función de onda con cuatro componentes. Sin embargo, Dirac logro darle un
interpretación satisfactoria. Las primeras dos se referían a los dos posibles estados del electrón con
energía positiva, y las otras dos a los mismos estados posibles pero con energía negativa. Los
estados de energía negativa se antojaban inadmisibles. Por primera vez los físicos se preocuparon
por entender el significado de estados físicos con energía negativa. Por supuesto, esta no era la
primera vez que los físicos se topaban con el problema de la energía negativa; en la teoría especial
de la relatividad aparecen cuando escribimos la energía como la raíz cuadrada de la suma de el
producto del momento por la velocidad de la luz al cuadrado y el producto de la masa por la
velocidad de la luz al cuadrado al cuadrado.
En la teoría cuántica aparecen estados de energía negativa porque usamos la expresión descrita
anteriormente para escribir la energía. Aparecen en la teoría de Klein & Gordon y en la teoría de
Dirac. En la teoría de la relatividad no nos preocuparon mucho los estados con energía negativa;
tales estados no se observan. Si una partícula posee energía positiva permanecerá ahí sin
oportunidad de pasar a estados con energía negativa, al menos si nos restringimos a la visión
clásica. Los niveles de energía para una partícula, según la teoría de la relatividad, consiste de
todos los estados desde la energía que le corresponde a su masa en reposo hasta el infinito; y
además de todos los estados desde la energía que le corresponde a menos su masa es reposo
hasta el menos infinito. Según la visión clásica, si una partícula tiene energía positiva no puede
transitar a estados de energía negativa y viceversa. Sin embargo esta situación no se tiene en
mecánica cuántica, donde es posible brincar desde estados de energía positiva a estados de
energía negativa sin pasar por los estados intermedios. Si empezamos con una partícula en los
estados con energía positiva, esta puede pasar a los estados con energía negativa. Luego el
problema de los estados de energía negativa fue el problema más grave de la teoría de Dirac. La
solución de este problema condujo al concepto de antimateria.
Un electrón en un campo electromagnético exterior puede tener transiciones desde los estados de
energía positiva a los estados de energía negativa, inducidas por el campo electromagnético
exterior. El mismo Schrödinger sugirió algunas posibles soluciones, al problema de los estados de
energía negativa, ninguna de ellas funcionó satisfactoriamente; y como no podían deshacerse de
los estados de energía negativa, lo mas natural fue encontrarles una interpretación. Por supuesto
no se permiten físicamente; los estados con energía negativa no se observan en el laboratorio.
La interpretación puede ser realizada usando el principio de Pauli. Éste sugirió que la propiedades
de la tabla periódica podían ser explicadas satisfactoriamente si se consideraba que un estado
cuántico solo puede ser ocupado por un electrón. Un estado cuántico se refiere al estado de
movimiento y de espín, en conjunto, del electrón. Este enunciado es conocido por el nombre de
principio de exclusión de Pauli. Este describe una de las propiedades del electrón. Dos de ellos no
pueden estar en un mismo estado cuántico.
Usando este principio podemos imaginar que todos los estados posibles de energía negativa, en
nuestro mundo tal y como lo conocemos, están llenos con un electrón en cada uno de ellos. Con
esto estamos requiriendo una densidad infinita de electrones porque los estados se prolongan
hasta menos infinito. Imaginamos esta situación como un mar de electrones, infinito y sin fondo.
Debemos suponer también que los electrones de este mar infinito no contribuyen al campo
electromagnético. Debemos suponer además que en el vacío todos los estados de energía positiva
están desocupados y todos los estados de energía negativa están completamente ocupados. Con
ello podemos suponer que las desviaciones de esta distribución son las que contribuyen al campo
electromagnético. Con la imagen de un mar infinito de electrones llenando todos los posibles
estados de energía negativa, los posibles saltos desde los estados de energía positiva hacia
estados de energía negativa por los electrones quedan prohibidos, por el principio de Pauli.

5. La teoría de hoyos
Existe la posibilidad de que un electrón salte a estados de energía negativa, y la situación se da
cuando existe un hoyo en el mar de electrones con energía negativa; es decir, si hay un estado
vacante en el mar que puede ser ocupado por un electrón. Cuando el electrón baja al estado de
energía negativa, ambos, el electrón y el hoyo desaparecen, y la energía aparece en otra forma;
esta se observa como dos veces la energía del electrón original.
La energía que se observa puede ser en forma de fotones. Los hoyos aparecen en la distribución
de energías negativas del electrón, y se revelan como nuevos entes en la teoría. Debemos tener
una interpretación para estos.
De acuerdo con la teoría de Dirac, la transición de los electrones desde estados con energía
positiva a estados con energía negativa es insoslayable.
Entonces lo más razonable es buscarles una interpretación física a esas transiciones. Dirac planteó
la siguiente hipótesis: la imagen de vacío es ya no de una región donde no existe nada, sino de una
región donde todos los estados con energía negativa están completamente llenos. Para Dirac la
imagen de vacío más razonable es aquella región del espacio que esta en su estado más bajo de
energía posible. Mientras mas se agreguen electrones al estado de energía negativa mas baja
será su energía. El estado mas bajo se logrará cuando todos los estados estén ocupados. Esta es
la imagen de vacío planteada por Dirac.
Un hoyo en ese mar de energía negativa aparece como una partícula; una partícula con energía
positiva, ya que para hacer desaparecer el hoyo debemos agregar energía negativa. Podemos ir un
poco mas lejos y preguntarnos como se va a mover el hoyo bajo la influencia de un campo
electromagnético externo. Las ecuaciones de movimiento para una partícula cargada en un campo
electromagnético y en estados de energía positiva se aplicarían para una partícula en estados de
energía negativa. No existe algún argumento para no aplicar estas ecuaciones, en principio
podemos usarlas. Existirá diferencia en su trayectoria, y nada más.
La diferencia esta en que la segunda se movería como lo haría la primera en el caso de tener la
carga eléctrica opuesta. Entonces los hoyos en un campo electromagnético externo se moverían
exactamente como electrones con carga eléctrica positiva. Un hoyo en los estados de energía
negativa se mueve como si tuviera una carga eléctrica positiva; de aquí que su movimiento
corresponde al de una partícula en estado de energía positiva y carga positiva. Resta investigar su
masa. La teoría es completamente simétrica, por lo tanto lo más natural es suponer que la masa de
un hoyo sea idéntica a la masa de un electrón. Sin embargo Dirac dudo de esta situación porque en
aquella época la única partícula cargada positivamente conocida era el protón. Parece que estaba
enterado de la enorme diferencia de masas entre el protón y el electrón, y de la simetría entre los
estados de energía positiva y los estados de energía negativa que el mismo estaba proponiendo;
aun así apoyo la idea corriente de que la materia en su totalidad debía ser explicada tomando en
cuenta únicamente, como entes cargados, a los electrones y a los protones. Era común pensar que
sólo se requerían dos partículas, una cargada positivamente y otra cargada negativamente -el
protón y el electrón en orden respectivo-. No se requería mas, según sentimiento generalizado de la
época. Pero la naturaleza es mas rica que la imaginación, a veces. La opinión imperante era que no
se requerían nuevas partículas para explicar la materia del mundo observable. Lo cual es cierto;
pero también era cierto que estaban mirando cosas que no son usuales o corrientes en este
mundo. Por ello Dirac, penso que el hoyo seria el protón.
Dirac cedió a la corriente de opinión imperante y publicó su artículo sobre la teoría de hoyos con el
nombre de la teoría de los electrones y protones. Rápidamente encontró oposición a su
interpretación; principalmente de parte de los físico matemáticos; H. Weyl, físico matemático de la
Universidad de Göttingen, por ejemplo. Weyl estableció categóricamente que la teoría demandaba
que la masa del hoyo debería corresponder a la masa del electrón.
Y por lo tanto el hoyo sería algo no usual y desconocido hasta entonces por los físicos. Sin saberlo
siquiera sus autores, la antimateria había nacido.
Y a Dirac se le iba de las manos un premio Nóbel.

6. Detección de la antimateria
Años después de la publicación del artículo de Dirac, se anunció que una partícula con la masa del
electrón y carga positiva había sido descubierta. Al parecer fue Blacket el descubridor de esta
partícula -se lo contó a Dirac-, sin embargo no publicó nada porque sería que las evidencias que
tenía no eran suficientes, y mientras se hacía de mas evidencias otros físicos publicaron resultados
conclusivos. Anderson fue quien publicó estos resultados definitivos sobre la existencia de
antielectrones. En la época se examinaban trazas de partículas cargadas, moviéndose en un
campo magnético, dejadas en cámaras de Wilson. Partículas cargadas con un signo se mueven en
cierta dirección, las cargadas con el signo opuesto se mueven en dirección opuesta. Empero, si uno
observa una trayectoria curvada en una dirección, no sabe uno si interpretarla como la trayectoria
de una partícula cargada con un determinado signo moviéndose en una dirección, o bien como la
trayectoria de una partícula cargada con el signo opuesto moviéndose en la dirección inversa. En
las fotografías tomadas con cámaras de Wilson, los físicos notaban frecuentemente que algunas
trayectorias podían interpretarse como electrones saliendo de una fuente -fuente radiactiva-
mientras que otras podían ser interpretadas como electrones moviéndose hacia la fuente o
entrando a la fuente. Situación por demás singular. Como esto ocurría con mucha frecuencia para
ser casualidad, los físicos se dieron a la tarea de investigar el fenómeno. Para determinar la
naturaleza de la partícula bastaba con investigar la naturaleza de su carga, o bien la dirección hacia
la cual se estaba moviendo. Anderson interpuso una placa de plomo en las trayectorias de las
partículas, con el fin de pararlas; observo a ambos lados de la placa de plomo. Como la partícula es
frenada, en el lado que lleve menor velocidad su trayectoria será mas curvada que en el lado donde
lleve más velocidad. Como las partículas no pueden obtener energía de la placa de plomo, solo
perderla, entonces la partícula venía de la región de donde la curvatura es mayor hacia la región en
donde su curvatura es menor -es mas lenta-. Con este método la dirección de la trayectoria se
determinó. Todas las trayectorias resultaban de partículas que provenían de la fuente; ninguna
partícula entraba. Las trayectorias de partículas que parecían entrar a la fuente correspondieron a
partículas que salían pero con carga opuesta a la carga del electrón. Electrones positivos o
positrones. Por este descubrimiento a C.D. Anderson se le otorgó el Premio Nóbel en 1936.
Desde el descubrimiento de Anderson, los positrones se han observado innumerables veces. Los
positrones son la antimateria de los electrones. Hoy en día ya son partículas fácilmente manejables,
y se presentan a diario en el seno de los aceleradores de partículas en varias partes del mundo.
Los argumentos anteriores llevaron a descubrir los positrones, esto es, los antielectrones. Resta
responder una pregunta. Y concierne a la existencia de las antipartículas en general. ¿Existe la
antipartícula para cualquier partícula que exista o se pueda crear? La respuesta es afirmativa.
Primero; para toda partícula que siga la estadística que sigue el electrón, es decir la estadística que
siguen las partículas de espín un medio, los argumentos delineados anteriormente conducen a la
predicción de la existencia de su correspondiente antipartícula. Por ejemplo para el protón, existe el
antiprotón; para el neutrón, existe el antineutrón, etc. Aunque en estos dos últimos casos las
situaciones son un poco mas complicadas que en el caso de los electrones, porque si bien siguen
una ecuación de onda parecida a la ecuación de onda de los electrones, para el caso de los
protones la ecuación de onda es un poco mas complicada. Las complicaciones se derivan de la
intervención de otras fuerzas además de las electromagnéticas. Podemos seguir visualizando las
antipartículas de estas partículas como estados no ocupados en los estados de energía negativa
asociados a las partículas. Estos, como en el caso de los electrones, aparecerán como partículas
diferentes; con la misma masa y con la carga opuesta.
Con la imagen anterior abrimos la posibilidad de crear pares de partículas y antipartículas; basta
con perturbar el vacío apropiadamente para obtener un par de partícula antipartícula. El proceso de
crear un par partícula-antipartícula lo podemos ver como sigue: si ya creamos un par, lo que ha
ocurrido es que hemos sacado una partícula de los estados de energía negativa hacia un estado
observable, como lo es el estado de energía positiva; el hueco en los estados de energía negativa
lo observamos como la antipartícula de la partícula que hemos sacado, y se ve como una vacante
en los estados de energía negativa, i.e., energía positiva. Decimos que hemos creado un par. Por
supuesto el proceso inverso también es posible; un par partícula antipartícula puede ser destruido,
sus cenizas estarán compuestas de fotones.
La energía que se requiere para crear un par es dos veces la energía de la partícula en reposo.
Para el caso del electrón positrón es alrededor de un millón de electrón voltios, es decir, un millón
de veces la energía cinética que adquiere un electrón cuando cae a través de la diferencia de
potencial de un volt. La energía que se requiere para crear un par de protón antiprotón es cerca de
4,000 veces mayor. Estas energías son fácilmente alcanzables por la tecnología moderna; esto
quiere decir que pares de protones antiprotones, de neutrones-antineutrones, y de electrones-
antielectrones son fácilmente creados en los laboratorios de altas energías en el mundo.
Antimateria en general puede ser creada; antideuterios, antihelios, etc., han sido producidos en los
laboratorios, antiátomos livianos también. Las partículas que no satisfacen el principio de Pauli
también tienen sus antipartículas, aunque no siguen la estadística de las partículas que cumplen
con el principio de Pauli. Las primeras, aquellas que no siguen el principio de Pauli, son llamadas
bosones, y las que lo cumplen son fermiones. Para los bosones, algunas partículas son sus
mismas antipartículas; como es el caso del portador de la interacción electromagnética, el fotón.
Para algunos bosones cargados sus antipartículas son las partículas con el signo opuesto de la
carga eléctrica. Por supuesto para los bosones ya no tenemos la imagen de un vacío con los
estados de energía negativa llenos completamente, y la teoría se hace mas complicada.
Las ideas de Dirac, sobre la antimateria, son solo cualitativas. Ideas alternas han sido desarrolladas
por Stückelberg, Feynman y otros. La idea que se explota es: los positrones, en general toda la
antimateria, pueden ser considerados como electrones, materia en general, con el tiempo real
invertido o corriendo hacia el pasado. Es decir la antimateria seria la materia ordinaria pero
corriendo hacia atrás en el tiempo.
Con el desarrollo de la teoría de la antimateria la idea de partícula elemental se hizo más vaga. La
idea de partícula elemental, como aquella que es el bloque fundamental desde el cual se
construyen las demás no tiene sentido; porque en el proceso de división de la materia nuevas
partículas pueden ser creadas a partir de la energía de las partículas que se están dividiendo, y no
significa que estaban dentro de las partículas que se disociaron.
Por esta razón no podemos describir de una manera simple los últimos constituyentes de la
materia. Los físicos ahora batallan con un gran número de partículas, todas ellas parecen
igualmente fundamentales; lo que hacen en este tiempo es estudiar las transformaciones de estas
en otras. Pero ya no las piensan como fundamentales.
La antimateria ahora es un hecho, aunque tecnológicamente su uso y manejo es limitado. Empero
existen aceleradores de partículas que en una dirección circula materia, digamos electrones -
también los hay en donde circulan protones-, y en la dirección opuesta antimateria, los
antielectrones o antiprotones en su caso. Cuando estos dos pedazos de materia antimateria se
encuentran se aniquilan uno al otro y surgen fotones u otras partículas. Lo mismo ocurriría con un
bloque de materia y otro bloque de antimateria que se juntasen. La materia y la antimateria, juntas,
seria la forma de explosivo mas poderoso que jamás se haya inventado. Tan sólo nos limita su uso
la tecnología para poder guardar un pedazo de antimateria sin que interacciones con la materia
ordinaria.
El rastro electromagnético que deja la antimateria es igual al rastro que deja la materia. Estudiando
solamente sus espectros electromagnéticos no podríamos decir cual es materia y cual es
antimateria, hasta hacerlos que se junten; si explotan, es antimateria, si no lo hacen es materia.
Esto da pie a la especulación de la existencia de estrellas y galaxias formadas de antimateria.
Incluso la especulación sobre la existencia de universos formados enteramente de antimateria. No
lo sabremos nunca, a no ser que se descubra un método para distinguir la materia de la antimateria
sin necesidad de ponerlas en contacto.
Por último, nuestro universo esta formado básicamente de materia, esta asimetría es un misterio.
En un misterio desde el punto de vista de la teoría de antimateria que hemos explicado. Tal teoría
sabemos que funciona; sin embargo nada asegura que sea completa. Siguiendo con su lógica:
,Donde quedo la antimateria que debería estar en nuestro mundo? La antimateria solo la
conocemos por las trazas que deja en una cámara u otro medio para detectarse. Esta se crea en
los laboratorios, en las estrellas, en las desintegraciones nucleares, pero es una ínfima cantidad
comparada con la cantidad de materia que observamos. Y su vida es efímera. ,Por que nuestro
universo esta formado por una sola clase de materia a la que llamamos simplemente materia?
Quizá estemos lejos de descubrir este enigmático misterio. Porque es mucho lo que ignoramos
sobre nuestro universo. Los científicos, en particular los físicos, se entregan a estas hermosas
investigaciones .

Lecturas recomendadas
Feynman, R.P. (1994). Six Easy Pieces. Addison-Wesley.
Félix, J.(1992). Distinguibilidad de los neutrinos. Avance y Perspectiva,11: 211.
Selleri, F. (1986). El debate de la teoría cuántica. Madrid: Alianza
Teller, E.(1991). Conversations on the Dark Secrets of Physics. Plenum.

Autor:
Julián Félix Valdez
Instituto de Física, Universidad de Guanajuato
Apartado Postal E-143
C. P. 37150 León, Gto., México
***********************************
La Antimateria:
Hasta 1928, en la física ni siquiera como concepto se había desarrollado la idea de
antimateria y, mucho menos, la capacidad de producirla. Pero el estadio cambió cuando se
empezaron a conocer los estudios del físico británico Paul Dirac.
En la práctica, todo comienza con los trabajos de Dirac que publicó en el año 1929, en una
época que coincide con los tiempos que se descubrían los primeros secretos de la materia, se
teorizaba sobre el comportamiento de las partículas que comportan la fuerza débil, y se
profundizaban los estudios de los componentes de los átomos, especialmente en la teorización de
lo que se llama fuerza fuerte. Fueron tiempo en que la audacia tuvo una preeminencia como rol
intelectual dentro del mundo de la física, en el cual se plantearon conceptos como el de la
mecánica ondulatoria, el principio de incertidumbre o, también, el descubrimiento del espín en los
electrones. Se dice que fue una de las épocas más exotérica de la física, en la cual hubo
ejercitantes que concurrieron a simpáticas metáforas para hacer más accesibles sus teorías, como
fue el caso del físico austríaco Erwin Schroedinger cuando apeló a la historia de los gatitos para
exponer su principio de indeterminación, con el cual describía en síntesis que las partículas más
pequeñas tienen un comportamiento que, dentro del razonamiento común, no es el mayormente
aceptado por las personas.
La descripción anterior, implica ubicar el escenario en el cual Paul Dirac estaba inserto
cuando planteó que donde había materia, también podía haber antimateria. Concretamente señaló,
que si el átomo tenía partículas de carga negativas llamadas electrones, debía haber partículas que
fueran "electrones antimateria", a los que se les llamó positrones y que debían tener la misma masa
del electrón, pero de carga opuesta y que se aniquilarían al entrar en contacto, liberando energía.
Este descubrimiento de Dirac fue tan revolucionario que lo hizo merecedor del premio Nobel en el
año 1933.
El siguiente paso se dio en 1932, cuando Carl Anderson, del Instituto Tecnológico de
California, en un trabajo de experimentación confirmó la teoría de Dirac al detectar la existencia de
un positrón al hacer chocar rayos cósmicos. Pasaron dos décadas para dar otro salto y este vino en
1955, cuando un equipo de la Universidad de Berkeley formado por los físicos Emilio Segre, Owen
Chamberlain (ambos ganadores del Nobel de física de 1959), Clyde Weingand y Tom Ypsilantis
lograron hallar el primer antiprotón, o sea, la primera partícula especular del protón que es la
partícula de carga positiva del átomo. Un año después, con el uso de las mismas instalaciones, otro
equipo, formado por Bruce Cork, Oreste Piccione, William Wenzel y Glen Lambertson ubicaron el
primer antineutrón, el equivalente a la partícula de carga neutra de los átomos. La carrera por las
tres antipartículas básicas - equivalentes a la neutra, la negativa y la positiva - estaba terminada.
Otro paso lo dieron los soviéticos, que por el año 1965 contaban con el acelerador de partículas
más poderoso de los existentes en esos momentos. En un trabajo encabezado por el físico León
Lederma, los soviéticos lograron detectar la primera partícula compleja de antimateria, el
antineutrino, formado por dos partículas básicas. Posteriormente, usándose el mismo acelerador se
detectó el antihelio.
Con la inauguración, en 1978, de las instalaciones europeas del Centro de Investigación de
Alta Energía (CERN) de Ginebra, y los avances tecnológicos que ello implicó, se pudo lograr crear
antitritio y, en 1981, realizar el primer choque controlado entre materia y antimateria, con lo que
comprobaron una hipótesis valiosa: la cantidad de energía liberada por el mismo choque era
enorme, mil veces superior a la energía nuclear convencional. Pero para la receta para generar
antiátomos faltaba un ingrediente que permitiera la combinación de antipartículas para poder
producirlo, lo que precisamente faltaba era una fórmula para conseguirlo.
La dificultad radicaba en la velocidad con que se producen las partículas de antimateria y
sus violentas colisiones. Era necesario contar con una fórmula que permitiera desacelerarlas o
igualar su velocidad para unirlas, interrogante que fue respondida, en parte, por los trabajos del
profesor de física de la Universidad de Stanford Stan Brodsky y por el ingeniero físico chileno Iván
Schmidt.
En 1992, Brodsky y Schmidt publicaron sus trabajos de complejos cálculos en los cuales
sugerían la fórmula de un método para producir antiátomos, o sea, como poder unir antielectrones y
antiprotones. Pero también se requería capacidad de experimentación. A ellos llegó Charles
Munger, quién formó su propio equipo en Chicago para realizar los experimentos. Pero las
publicaciones nortearnericanas-chilenas también llamaron la atención de físicos europeos del
CERN donde se formó un equipo multinacional encabezado por Walter Oelert con el objetivo de
experimentar en la creación de un antiátomo. En la práctica, con ello, se dio una competencia
científico-mundial para alcanzar este logro.
El 4 de enero de 1996, los científicos del CERN anunciaron el éxito de haber obtenido en un
proceso de experimentación, no uno, sino nueve antiátomos de hidrógeno. No se trata de partículas
fundamentales o de pequeñas combinaciones, se trata - en propiedad - de lo que se puede
mencionar como átomos de antihidrógeno.
El método propuesto por la pareja Brodsky y Schmidt consistió, básicamente, en hacer
chocar un haz de antiprotones con un gas y, en cuyo proceso, se producirían pares de electrón-
positrón; luego, de esos positrones, una pequeña fracción viajaría casi a la misma velocidad de los
antiprotones, lo que implicaría que los positrones sean capturados por un antiprotón, lo que haría
que ambas antipartículas se combinaran para formar un antiátomo.
Los antiprotones rompen los núcleos del xenón y crean algunos pares de electrón y
positrón(2). Una fracción de estos pares es capturada por los antiprotones, alrededor de los cuales
pasan a orbitar; se crean átomos de anti-hidrógeno(3). Como estos átomos son eléctricamente
neutros, el campo magnético del acelerador no los desvía y continúan una trayectoria recta que los
lleva a atravesar a gran velocidad una fina barrera de silicio(4). Mientras que el antiprotón continúa
su camino, el positrón choca contra el electrón(6) con lo que ambas partículas se aniquilan.
Ahora, el experimento que hizo el CERN consistió en la elección del hidrógeno como
elemento de trabajo porque es el más simple y abundante de todos los que conforman el universo.
Con apenas dos componentes - uno positivo y otro negativo - era lo más sencillo. El acelerador
LEAR, con el cual se realizó el experimento, disparó un chorro de antiprotones a través de una fina
nube de gas xenón. Los antiprotones rompieron los núcleos del xenón y crearon algunos pares de
electro-positrón. Una fracción de estos pares fue capturada por los antiprotones, lo que implicó que
empezaran a orbitar alrededor de ellos; entonces se crearon antiátomos de hidrógeno.
Como estos antiátomos son neutros, el campo magnético del acelerador no los desvía y
continuarán una trayectoria recta que los lleva a atravesar a gran velocidad una barrera de silicio.
Mientras tanto el antiprotón continúa su camino, el positrón choca contra el electrón aniquilándose
ambos. El resultado es una emisión de rayos gamma que choca contra la barrera de silicio y delata
lo que ocurrió.
Uno de los problemas interesantes para desarrollar el proceso fue el de poder establecer
como poder atrapar la antimateria. Una de las dificultades era la de evitar que la antimateria
explotara al tomar contacto con la materia. La solución a la cual se llegó, en los trabajos realizados
por el CERN, fue la de usar un envase diseñado por el Laboratorio Nacional de Los Álamos de
EE.UU.. Este tipo de envase consiste en mantener a la partícula de antimateria en forma estable
por medio de campos eléctricos y magnéticos. Un ciclotrón puede frenar a un antiprotón de modo
que pueda ser capturado, detenido y paralizado con campos magnéticos. Una vez quieto, el
antiprotón es introducido en un envase que comporta un vacío interior para evitar choques con
átomos de aire y el magnetismo impide que el antiprotón toque sus paredes, detonando una
explosión de rayos gamma.
En el proceso se detectaron once choques contra la barrera, de éstos, nueve son
considerados indudablemente causados por la aparición de antiátomos de hidrógeno; sobre los
otros dos hay dudas. El antiátomo de hidrógeno producido, sólo dura 10 segundo antes de
encontrar materia a su paso y desaparecer y, fue por eso, que Brodsky y Schmidt propusieron en
sus trabajos la creación de un campo magnético para poder detectar los antiátomos en medio de
todas las partículas que se generan en el proceso.
Las partículas - que tienen cargas positivas o negativas - comportarán una órbita curva,
pero el antiátomo (cuya carga total es neutra) no será afectado por el campo magnético y saldrá en
línea recta.
El antihidrógeno es el estado más simple del límite atómico de la antimateria y, hasta el
anuncio efectuado por el CERN en enero de 1996, nunca antes se había observado
experimentalmente. Se logró sintetizar un átomo de antimateria desde sus antipartículas
comitentes.
El átomo de hidrógeno ha sido uno de los sistemas físicos más importantes para una
variedad amplia de medidas fundamentales relativas al comportamiento de la materia ordinaria. La
producción de antihidrógeno abre las puertas para una investigación sistemática de las propiedades
de la antimateria y la posibilidad única de comprobar principios físicos fundamentales.
En la cosmología podemos prever que a futuro se podrán contar con tecnologías que
permitan investigar con más y mejor precisión la estructura del universo y, por ende, las
características y fuentes de emisión de antimateria en él. Para ello en particular, la NASA ha
desarrollado un proyecto para instalar en la estación espacial Alpha, en el año 2002, un detector de
antipartículas que se la ha denominado Espectrómetro Alfa Magnético (AMS). El instrumento está
diseñado para detectar antimateria atómica (hasta ahora solamente se han observado
antipartículas) entre las partículas de los rayos cósmicos, que a la velocidad de la luz bombardean
intensamente la Tierra. La mayor parte de ellas provienen del Sol y también de remanentes de
estrellas que han explosionado en nuestra galaxia, pero la detección de las más energéticas se ha
conseguido en lugares ubicados próximos al centro de la Vía Láctea y de fuentes lejanas de ésta.
En consecuencia, serán estos últimas los blancos focalizado para ejecutar los procesos de
detección de antimateria atómica espacial.
Pero no sólo para el campo de la investigación en física la producción de antimateria tiene
ribetes de excepción, si no que también en otros campos de la ciencia podría tener aplicaciones
inmensas como el aerospacial, o como ya se ha demostrado en la medicina, etc.... Podemos soñar
con energía ilimitada y barata; motores para naves interestelares que podrían desarrollar
velocidades a más de un tercio la de la luz; mayor intensidad en la exploración del espacio y, por
supuesto, muchas otras cosas más que, por ahora, podrían ser consideradas pura ciencia ficción.
Al momento de escribirse estas líneas, solamente se han desarrollado en laboratorio
diecinueve antiátomos de hidrógeno y el equipo de norteamericanos encabezados por Charles
Munger proyecta a futuro, lograr unos cien. Lo anterior, no significa que se podrá contar en el corto
plazo con reactores de materia-antimateria, o que pronto se podrán unir antiátomos para crear
antimoléculas y, luego, anticosas. Por ahora, es mejor considerarlo como ficción. Consideremos
que para poder contar con un supercombustible de antimateria para viajes espaciales, hay todavía
que pasar una multiplicidad de obstáculos. El primero es encontrar un método para crear
antiátomos en reposo, en vez de alta velocidades, para que no desaparezcan al chocar con la
materia. Luego, habría que producir 1020 de estos, por lo menos. Lograrlo, no es imposible, pero
por ahora debe ser considerado a un largo plazo. En cuanto a las "anticosas", es mejor adherirse a
la idea de que nunca se puedan concretar. Se escogió hacer un antiátomo de hidrógeno porque
este es el más simple de todos. Pero para producir moléculas de antiátomos, sería necesario crear
antiátomos más complejos, y luego unirlos, lo que teóricamente es factible, pero de ahí a la práctica
es casi invisualizable.

Antimateria Particulada Cósmica


Detectar antimateria generada en el cosmos no es una cosa fácil. Hasta ahora, solamente
se ha podido observar una nube de positrones que fue detectada cerca de un torrente de rayos
gamma, ubicado en las cercanías del centro de la Vía Láctea, y que estaba siendo monitoreado por
el espectrómetro OSSE. Tanto de la nube de positrones como de los rayos gamma no se conocen
las fuentes de origen, se presume que deberían encontrarse en algún lugar aledaño entorno al
centro de la galaxia.

Nube de Antimateria Particulada Cósmica


Para detectar y estudiar las emisiones de rayos gamma en la Vía Láctea la NASA, el 5 de
abril del año 1991, colocó en el espacio el satélite científico Compton Gamma-Ray Observatory
(CGRO) con cuatro instrumentos orientados a localizar los rayos y a estudiar sus espectro
electromagnético dentro de una banda de rangos de energía que va desde los 30_[KeV]a los
30_[GeV]. En el proceso de localización de rayos gamma, el OGCR ha logrado elaborar varios
mapas de ubicaciones que han permitido en ellos distinguir los rayos que se genera entorno a las
explosiones de estrellas masivas jóvenes a lo largo del plano de la galaxia cerca del centro de ésta.
Pero esos mapas, no sólo han mostrado a los rayos gamma, sino que fuera de programa,
sorprendentemente han descrito la existencia de una nube relativamente alejada del plano del
centro de la galaxia ubicada a un costado en los mapas de detección de rayos gamma, y cuyas
bandas espectrales han sido captadas por uno de los más sensibles espectrómetros de la
actualidad el OSSE, que se encuentra empotrado en el satélite CGRO. El estudio de las bandas del
espectro que captó el OSSE señaló que se trataría de una nube de antimateria particulada,
precisamente de positrones (antipartícula elemental).
Ahora bien, el origen de esa inesperada nube de antimateria particulada que aparece a uno
de los costados de los mapas desarrollados por el CGRO es, por ahora, un misterio. Seguramente
se tendrá que esperar hasta que pueda entrar en servicio el próximo satélite que ha proyectado
instalar en el espacio la NASA, en el año 2002, para el monitoreo, rastreo y estudio de rayos
cósmicos y también antimateria.
Las huellas espectrales de los procesos de aniquilamientos de electrones y positrones han
sido detectadas por el espectrómetro OSSE. Los colores del mapa de la derecha representan la
energía del aniquilamiento de electrones y positrones que han ocurrido en el plano de la Vía Láctea,
cerca del centro galáctico, y que se han transformado en rayos gamma . La energía que se capta
es de 511_[KeV], y corresponde a los restos energéticos de la masiva energía del positrón. El mapa
es un modelo adaptado de los 511 KeV detectados. El OSSE ha descubierto que la mayor cantidad
de radiación se concentra mayormente dentro de una región comprendida dentro de los 10 grados
del diámetro del centro de la galaxia. Las líneas superpuestas sobre el mapa representan las
emisiones de 511_[KeV] de energía captadas por el OSSE.
La nube detectada de antimateria particulada , podría haberse formado a raíz de múltiples
explosiones de estrellas, hecho que ha sido detectado justamente en el lugar de la galaxia donde
fue hallada. Tampoco es descartable la eyección de antimateria particulada desde un disco de
acreción de un agujero negro cercano al centro de la Vía Láctea, la fusión de dos estrellas de
neutrones, o la producción de ella por una fuente enteramente diferente.
Se piensa que los positrones así como la antimateria en general, son relativamente raros
en el universo. Sin embargo, existen varias formas como para que sea posible la generación de
positrones. Una de ellas es a través de la descomposición natural de los elementos radiactivos.
Tales materiales radiactivos pueden originarse en fuentes astrofísicas como supernovas, novas, y
estrellas Wolg-Rayet que son masivas y tienen una violenta actividad en sus superficies. Como se
trata de objetos relativamente comunes en las galaxias, los positrones resultantes de los materiales
radiactivos pueden expandirse a través del espacio. Es posible que este tipo de estrellas que
generan estos materiales radiactivos sean también las responsables de crear toda la materia
constituyente que se distribuye por el universo, incluida la Tierra.
Fuente Teórica de Antimateria Cósmica.-
Las bandas horizontales anchas representan a la radiación generada por la aniquilación
desde el disco de la galaxia. La región circular de colores resaltados corresponde a la aniquilación
radiactiva producida en el centro galáctico. La posible fuente de la antimateria particulada,
descubierta por una radiación de aniquilación ascendente, se encontraría lejos del plano de la
galaxia.
Otra manera en que se podrían generar positrones es con la caída de materia sobre los
campos gravitacionales altos de los agujeros negros, ya que la temperatura de ella debería
incrementarse lo suficiente como para generar pares de positrones y electrones que podrían ser
disparados lejos de los agujeros negros a velocidades altísimas. El número de positrones que se
puedan crear en un agujero negro depende de la cantidad de materia que aporte por insuflación
alguna estrella que esté jugando el rol de compañera, mientras que el número de positrones
creados por descomposición radiactiva se mantiene constante por un largo período de tiempo.

Modelo Teórico de Fuente de Antimateria.-


Modelo de contornos graficados sobre una imagen óptica del lugar donde fue ubicada la
nube de positrones en nuestra galaxia. No se pueden observar evidencias visuales de una fuente
de gas caliente cerca del centro de la Vía Láctea debido a la gran cantidad de polvo y gas que se
encuentra en ese lugar impidiendo una visión más profunda y detallada.
Una tercera posibilidad es que en aquellos lugares donde se ha detectado la presencia de
positrones --digamos por ahora en un sitio de nuestra galaxia-- sean espacios en que los últimos
millones de años han sido la morada de la fusión de dos estrellas de neutrones de donde sale la
emisión de partículas como un bólido galáctico masivo. De esos sucesos se crean las condiciones
de los fenómenos de las explosiones de rayos gamma que tanto han desconcertado a los
científicos que se focalizan en el estudio de las estructuras del cosmos.
Dado que el universo muestra tener más materia que antimateria, el positrón tiene un muy
corto período de existencia desde que se crea. El positrón es la antipartícula del electrón y cuando
ambos colisionan se aniquilan convirtiéndose en energía que se manifiesta en rayos gamma con un
rango energético de 511_[KeV], lo que refleja el aniquilamiento del positrón.

Recamado de la Fuente.-
Contornos de radio recamados sobre un modelo de la fuente de la radiación producida por
la aniquilación. La observacion de los radios sugieren la existencia de un canal conductor de la
radiación que va desde el centro de nuestra galaxia a latitudes altas.
En general, ello es consecuente con la ubicación y dirección de la fuente de aniquilación.
Las primeras observaciones que se pudieron realizar de explosiones de rayos gamma
debido a emanaciones desde el centro de nuestra galaxia fueron a comienzos de 1970, y
registraban un rango energético de 511_[KeV].
Posteriormente, a comienzos de 1980, la energía de las explosiones pareció disminuir
cuando aparentemente emanaba desde el mismo lugar registrado anteriormente, volviéndose a
observar emisiones con el rango de 511_[KeV] en las últimas detecciones que realizó el
espectrómetro OSSE del satélite CGRO.
Ello estaría indicando que los aniquilamientos de positrones se estarían generando en una
pequeña y discreta fuente, posiblemente en la vecindad de un agujero negro al cual se le ha
apodado "El Aniquilador".
La nube de antimateria particulada, que fue detectada en los mapas de explosiones de
rayos gamma elaborados por el CGRO, se observa elevarse como un especie de pluma partiendo
desde costado del centro de la Vía Láctea, y es extremadamente difusa. Por lo que se ha podido
distinguir, es factible considerar que sólo hay en ella positrones, y no antiprotones o antiátomos.

Dibujo del Centro de la Vía Láctea.-


El dibujo de la derecha,????? representa al centro de la Vía Láctea con objetos y diferentes
actividades cósmicas que cohabitan en esa región de la galaxia.
La actividad que más se distingue es una fuente de gas caliente cargado de positrones, mucho de
ellos aniquilándose mientras viajan dentro de los halos galácticos. La radiación de esa aniquilación
ha sido observada por los instrumentos del OSSE empotrados en el satélite CGRO.
La detección de antiátomos fuera de los laboratorios no será un trabajo sencillo. Los antifotones
que emitiría un antiátomo serían indistinguibles de los fotones que emitiría un átomo, de manera de
que por este simple hecho de medición una galaxia no sería diferente de una antigalaxia. Tampoco
es una labor sencilla rastrear señales de su presencia en los rayos cósmicos de alta energía.
Ahora bien, el hecho de que se llegara a descubrir dentro de los flujos de emisión de rayos
cósmicos de tan sólo un núcleo de antihelio, ello daría cabida como para pensar con más de un
fundamento sobre la existencia de estrellas y galaxias de antimateria, lo que llevaría también a
implicaciones profundas sobre aspectos fundamentales que guardan relación con la asimetría
bariónica del universo.
Para poder captar directamente los rayos cósmicos se han desarrollado experimentos con globos
instalados en la atmósfera y satélites orbitando a la Tierra. Pero es un método que sólo permite la
captación de ellos por algunas pocas horas y, en lapsos breves, solamente es posible distinguir
antimateria si uno de cada 10.000 rayos cósmicos proviniera de un antinúcleo. Como las fuentes
emisoras provienen desde lugares distantes, probablemente las antipartículas correspondan sólo a
una de cada 10.000 millones de partículas.
Pero, no cabe duda esperar, de que el espectrómetro Alfa Magnético orbitando fuera de la
atmósfera, tendrá muchas mayores posibilidades de éxito que los experimentos con los actuales
satélites, globos ubicados en la atmósfera o con instrumentos empotrados en la superficie de la
Tierra. Se piensa que con el AMS se podrán detectar los rayos cósmicos vírgenes. Asimismo, las
mediciones podrán extenderse por períodos mucho más prolongados, lo que indudablemente
facilitará la ubicación de la antimateria en medio de lluvias de partículas comunes.
Por los conocimientos experimentales que hemos adquirido hasta ahora, sobre la formación de
antimateria en laboratorios y por el hallazgo de la existencia de positrones, no es arriesgado pensar
en antimateria atómica deambulando por el espacio como fósiles ocasionados por los primeros
segundos del Big Bang o como producto de la propia dinámica del universo.
En teoría, en el momento del Big Bang, debiera haber habido igual cantidad de materia que de
antimateria. Ahora, por qué esta última se fue extinguiendo, las razones de ello las podemos
encontrar en la explicación que nos entregó, en el año 1967, el físico Andrei Sakharoc. Según él,
ese proceso de extinción se debería a una pequeña asimetría en las leyes de la física, conocida
como violación CP.
Esa asimetría que formula Sakharoc, debería haber comenzado a intervenir en el primer segundo
del Big Bang. En ese instante, y de acuerdo a la Teoría Unificada de la Física, todas las fuerzas que
ahora se conocen en la naturaleza estaban fundidas en una sola, exteriorizadas en la llamada
partícula X. Más tarde, cuando el universo se enfrió y estas partículas decayeron, la asimetría
habría dejado una pequeña y mayor proporción de partículas en relación a las antipartículas.
Específicamente, mil millones más una partícula, por cada mil millones de antipartículas.
En función a lo inmediatamente anterior, la mayoría de los físicos piensan, por lo tanto, de que tanto
partículas como antipartículas en un instante se habrían mezclado, y como ambas se aniquilan en
una bocanada de rayos gama, el resultado final sería que el universo actual no estaría conformado
por antimateria. Por lo menos, la brillantez del trasfondo de radiación que lo llena, cerca de mil
millones de fotones por cada partícula de materia, indicaría que ello es así, efectivamente. Puede
que esta sea una explicación convencional, pero comparto la opinión de Stephen Hawking y de
otros científicos en cuanto a que pensar experimentalmente en la posibilidad de la existencia de
galaxias y antigalaxias o, más aún, de universo y de antiuniverso es, de alguna manera, una
contradicción con las leyes de la física.
Lo anterior, no significa desterrar las posibilidades de que en algún momento la asimetría de las
leyes de la física de las cuales hemos hablado podría haber sido revertida en ciertas regiones de la
bola de fuego del Big Bang, favoreciendo la creación de antimateria sobre la materia. Eso abriría la
posibilidad de que en alguna parte del espacio pueda haber sobrevivido antimateria, formando
incluso, antigalaxias. Ello se sostiene en algunos modelos teóricos que se han desarrollado, pero se
opone la experiencia experimental de laboratorio, lo que lo hace aparecer poco verosímil por ahora.
La primera prioridad para la física en esta cuestión se encuentra en poder entender y distinguir
cuales son las leyes que gobiernan la antimateria.
Según la relatividad general, la antimateria tiene que comportarse básicamente como la materia, y
esto si que abre una tremenda interrogante.
Si el comportamiento es asímil y la antimateria esta presente fuera de los laboratorios, entonces
que pasa con el efecto gravitatorio sobre ella. A lo mejor, ha empezado un ciclo de la física en que
se podría llegar a cuestionar hasta sus leyes fundamentales. El mayor conocimiento que se está
adquiriendo sobre la antimateria, promete revelar muchas interrogantes acerca del comienzo del
universo. Después del Big Bang, existió tanta antimateria como materia, pero por lo que hasta
ahora hemos deducido, sólo esta última fue capaz de sobrevivir los propios procesos evolutivos del
universo, ya que la que hemos detectado en el espacio correspondería a una nueva generación.
¿Por qué la antimateria estuvo y está condenada al ocaso? ¿Cómo fue que el universo no colapso
fracciones de segundo después de que comenzó, si sabemos en laboratorio que la antimateria y la
materia se anulan con sólo toparse? Estos, entre muchos otros, son algunos de los misterios que
afloran con mayor intensidad al tenerse la certeza de que en experimentación de laboratorio se
visualiza el antiátomo.
De una cosa los humanos, por ahora, podemos estar seguros: solamente hemos podido detectar
en el universo, precisamente cerca del centro de nuestra galaxia, antimateria particulada. En la
Tierra, no hay fuente alguna de antimateria, y la exploración astronómica del sistema solar,
incluyendo el astro central, tampoco la ha encontrado en ninguna parte. Los electrones y protones
que nos llegan del Sol, atravesando la atmósfera terrestre, son partículas de la materia ordinaria.
Tampoco es probable que los campos siderales -estrellas y materia interestelar- escondan
antimateria; si no fuera así, estaríamos percibiendo regularmente, y en todas las direcciones de la
galaxia, intensas radiaciones gamma, muy superiores a las detectadas en los aniquilamientos de
positrones (antimateria particulada) que se han podido registrar, generada de la aniquilación de los
antiátomos que cohabitaran allí, producto de sus colisiones con la materia ordinaria. Y tal cosa no
ha sucedido, lo que debería ser inevitable si se considera que la materia se está constantemente
intercambiando entre las estrellas. En cambio, ignoramos si remotas regiones extragalácticas dan o
no dan albergue a la antimateria.
Hemos detectado grandes radiaciones de rayos gamma, cuya procedencia, posiblemente, sea de
explosiones ocurridas en galaxias lejanas, pero no tenemos certeza alguna de qué las causó o si
allí se hubiesen producido aniquilamientos de antiátomos. ¿Somos moradores de un cosmos
asimétrico, formado únicamente de la materia que nos es familiar, o al contrario, habitantes de un
universo simétrico que incluye a la vez galaxias, unas de materia y otras de antimateria, como lo
sugieren los físicos suecos H.Alfvén y O. Klein? Al nivel que nos encontramos en el desarrollo de
nuestros conocimientos, que aún está muy lejano para entender muchas cuestiones relacionadas
con propiedades fundamentales de la composición de la materia, contestar afirmativa o
negativamente la pregunta equivaldría, en ambos casos, a vestirse, por ahora, con una gran
audacia intelectual.
Pero no puedo terminar esta parte de este trabajo sin hacer un último alcance al respecto. Si por
casualidad Ud. se encuentre con su anti-yo, por favor no le dé la mano. Ambos desaparecerían en
un gran destello luminoso.

Autor: Patricio Díaz Pazos <pdiaz@arauco.reuna.cl>

También podría gustarte