P. 1
NUCLEO-SINTESIS

NUCLEO-SINTESIS

|Views: 126|Likes:
Publicado porjosclem

More info:

Published by: josclem on Apr 02, 2010
Copyright:Attribution Non-commercial

Availability:

Read on Scribd mobile: iPhone, iPad and Android.
download as PDF, TXT or read online from Scribd
See more
See less

02/04/2013

pdf

text

original

1

INTRODUCCION

La Teoria Estandar de la NucleoSintesis (SBBN) funciona extremadamente bien es una teoria que describe los eventos tan primigenios como los primeros segundos del tiempo cosmico. Es una teoria sobredeterminada con menos parametros que predicciones; provee evidencia para una historia del Universo hasta la epoca muy primigenia del desacoplamiento de la interaccion-debil (T > 1 MeV, t<1 seg.) Confirma: la homogeneidad en ese tiempo, y tambien la ley de expansion predicha por la Relatividad General, nos confirma la aproximada conservacion de entropia desde los tiempos primigenios; y tambien confirma el Modelo Estandar de la Fisica de Altas Energias.[glosario] La teoria es bien definida,muy precisa,las mayores incertidumbres son introducidas por los valores experimentales de las secciones de las reacciones nucleares. La exactitud teorica es mejor que un: 0.1 % para el 4 He mejor que un 10% para el deuteron, y de unos: 20 a 30% para el Litio, en todos esos casos, la incertidumbre teorica es mucho mas pequeña que la precision observacional, y permite tener conocimiento del Universo hasta tiempos del orden de: 1 seg. después de la llamada “gran explosion”: origen del Universo en un instante t = 0.

2 El problema del Deuteron (D). A causa de sus propiedades unicas, la distribución del D en el Universo constituye una pista poderosa para trazar la historia del desarrollo de la materia. El deuteron es muy inestable, su energia de amarre nuclear es de solo 2.2 MeV. Los astrónomos precisan que solo pudo haber sido sintetizado durante los tres primeros minutos de la expansion . El campo de la Cosmologia ha entrado en una era de precision, una era donde una imagen global del Universo esta cristalizando a causa de las nuevas observaciones precisas que pueden poner a prueba al modelo cosmologico estandar (siglas SBBN) con una pletora de datos nuevos. A partir del año 1948, la Cosmologia ha sido transformada, de ser una rama de la Filosofia Metafisica, a ser Ciencia dificil. La creacion de radio-telescopios condujo al descubrimiento de quasares, pulsares lentes gravitacionales y de hoyos negros, la radiacion cosmica de fondo. Las fluctuaciones en la radiacion cosmica, fueron detectadas, fueron hechos los descubrimientos de estructuras del Universo a gran escala: los muros y vacios. Es importante revisar y checar los pilares fundamentales de la Cosmologia Estandar: son: la teoria de la Gravitacion de Einstein y la expansion universal, de Hubble la nucleosintesis debida a la gran explosion (BBN) y la radiacion cosmica de fondo.

3 La SBBN predice con exactitud las abundancias primordiales de los elementos ligeros: deuterio, helio, litio, boro. La concordancia entre las abundancias predichas y las medidas, provee una medida directa de la densidad barionica del Universo. Se emplea a la BBN y a la CMB para investigar a la fisica del Universo primigenio desde tiempos de un segundo hasta 400,000 años despues del instante inicial de la ”gran explosion”, y hasta mayores tiempos. Recientes medidas de la anisotropia de la CMB, ejecutadas por el satelite WMAP examinaron esta concordancia al medir independientemente dicha densidad. Clave a esta prueba de concordancia es un entendimiento cuantitativo de las incerttidumbres en las predicciones de las abundancias.[Cyburt, 2004] Estas incertidumbres son dominadas por los errores sistematicos en las secciones nucleares de dispersion, pero para el Helio-4 estas son dominadas por las incertidumbres en la vida media del neutron,τ(n). y en la constante de Newton G. La concordancia entre las restricciones a las diferentes densidades de bariones pone limites cuantitativos sobre sus concordancias, y restringe a los modelos no-estandar Desviaciones de estas, sugieren la necesidad de nuevos efectos fisicos en el sistema de la teoria BBN estandar, tales como: la variacion temporal de las constantes fisicas, la existencia de la nuevas particulas predichas por las teorias SuperSimetricas:

4 gravitinos, neutralinos, fotinos, etc. y el lepton pesado: τ, El ”boom” reciente en las medidas de la anisotropia, ofrece dar nueva forma al panorama cosmologico. Estas observaciones traen una medida independiente de la densidad barionica del cosmos. Si se adopta la densidad medida por el WMAP, se restringe al numero de neutrinos a ser tres; esto quiere decir que hay una relacion entre la BBN y la Fisica Fundamental de Particulas Elementales; los teoricos en este campo han encontrado que la Teoria Unificada de las Interacciones (GUT, siglas in ingles) tiene implicaciones Cosmologicas [#]. Conforme se den nuevos datos mas precisos de las secciones nucleares, y de las abundancias y la resolucion de la anisotropia de la CMB restricciones mas severas pueden establecerse sobre la Astrofisica Nuclear y la Fisica de Particulas Elementales Respecto al concepto de ”la gran explosion”, hay una polemica, unos expertos afirman que no hubo tal explosion, sino una expansion a partir de un plasma muy caliente y muy denso, el mismo Lemaitre escribio sobre un ”Atomo primigenio” Gamow, de una materia primordial, bautizada como: ”Hyle” -en Griego: fundamentoalgunos prefieren hablar de una singularidad, en el sentido matematico: un punto sin dimensiones, con temperatura y densidad infinitas, y si, de una gran explosion.

5 Otros [Steinhardt, 2000], teorizan que la BB se debio a una interaccion entre dos ”membranas” [branes] desde un Universo de dimensiones mayores a tres. El estatus de la SBBN como una ”piedra angular” de la Cosmologia reposa sobre la concordancia entre las predicciones teoricas y las mediciones. Su fuerza consiste en que es una teoria que pasa las pruebas experimentales; desde su inicio en 1948, la BBN predijo una abundancia del Helio de: Y ~25% y las estrellas tienen esta abundancia, asi dando la mas fuerte evidencia, hasta la fecha, que la SBBN explica la sintesis de los elementos ligeros en la epoca de unos pocos minutos luego del instante inicial de la BB. En los años 80’s, la BBN paso la prueba del Litio-7 cuando la predicha abundancia de 10 −10 , relativa al Hidrogeno, fue verificada via la observacion del litio en estrellas de baja metalicidad, en nuestra galaxia. Estos exitos permitieron acotar con exactitud la densidad de bariones del Universo y su tasa de expansion, en la epoca de la nucleosintesis.[Yang et al, 1984] En los 1990’s hubo muchas observaciones de las abundancias de: D, 3 He, 4 He, Li, las observaciones del D en tres quasares fueron la primera medida directa de una abundancia primordial y fueron la siguiente prueba critica de la BBN. Pero, porque las abundancias primordiales no son necesariamente directamente medibles ambas, la calidad de los datos y de los modelos de evolucion quimica y estelar

6

usados para inferir las abundancias primordiales de estos, han llegado a ser muy muy importantes cuando los datos han aumentado. En muchos casos estas abundancias deben ser corregidas debido a la ”contaminacion astrofisica” que sucede durante la evolucion del Universo, y asi la determinacion de las abundancias depende del modelo. Consecuentemente, checar la teoria SBBN con las observaciones, descansa sobre los modelos de evolucion quimica y estelar que trazan el destino de los elementos ligeros al traves de los varios ambientes astrofisicos. Las abundancias primordiales son obtenidas de datos contaminados y asi se debe apoyar sobre un modelo para la evolucion de un elemento dado cuando es procesado a traves de una o de mas generaciones de estrellas y es aumentado o reducido por procesos galacticos (entrada de materia primordial o flujo de salida de material procesado). La tarea es derivar cotas sobre las abundancias primordiales que sean insensibles a los detalles de su historia de procesamiento como sea posible. Predicciones Las predicciones de la SBBN estan unicamente determinadas por un parametro: la densidad de los bariones (parametrizada por η : el cociente bariones/fotones: n b /n γ ), con tal que asumamos un Universo homogeneo e isotropico que tuvo,en un instante inicial muy denso y muy caliente, y que la densidad de su energia, al tiempo de la NS:

7

t ~1 seg. luego de la BB esta descrita por el Modelo Estandar de la Fisica de Particulas Elementales: La Cromodinamica Cuantica (QCD).La densidad de energia, es: ρ tot = ρ γ + ρ b + ρ e + ρ ν N ν , densidades de fotones, electrones,bariones y de neutrinos, N ν es el numero de especies de neutrinos). Los calculos de abundancias, del modelo SBBN son hechas con el codigo Fortran de computadora hecho por Robert Wagoner, [1973]. Las abundancias primordiales son obtenidas de datos contaminados y asi se debe apoyar sobre un modelo para la evolucion de un elemento dado cuando es procesado al traves de una o mas generaciones de estrellas y es aumentado o reducido por procesos galacticos (entrada de materia primordial o flujo de salida de material procesado) La tarea es derivar cotas sobre las abundancias primordiales que sean insensibles a los detalles de su historia de procesamiento, como sea posible. Citando a Zeldovich: la cosmologia ha provisto de un acelerador ”para el pobre”, para la Fisica de particulas elementales. Cuando los aceleradores terrestres se acercan a los limites ultimos de la tecnologia, es imperativo que nuestro entendimiento del laboratorio cosmologico sea desarrollado aun mas, en particular porque ofrece probar fenomenos que nunca pueden ser recreados en los laboratorios terrestres, no importando que tan poderoso fuera el acelerador.

8

Pero muchos teoricos ya se han guiado casi exclusivamente por consideraciones cosmologicas, puesto que no hay otros datos experimentales disponibles en las energias en las que estan interesados. Al comparar los datos de las abundancias con calculos teoricos, notamos que ahora hay un estado insatisfactorio de la situacion observacional. En 1996, hubo un esfuerzo concertado para obtener determinaciones precisas de las abundancias, y los numeros aun estan plagados por errores sistematicos, los investigadores de este campo usan criterios muy subjetivos, como: ”razonable” y ”sensible” para determinar cotas a las abundancias. Y las fluctuaciones en la radiacion cosmica, que ”iluminan” las etapas primigenias del Universo fueron detectadas, y fueron medidas con los satelites WMAP y PLANCK con una exactitud sin precedente, dando una determinacion precisa de la densidad barionica, a ser: Ω b h 2 = 0.0224 ± 0.0009, [Spergel,et.al.,(2003)] El acelerador de particulas, LEP, ha checado el modelo estandar de la FPE y ha checado el modelo basico BBN, en dos formas: a traves de la NS y del conteo de neutrinos, limitando los candidatos de materia obscura. La CMB prueba los eventos a una temperatura de 10 4 K, y a tiempos de 10 5 años donde las abundancias de los elementos ligeros prueban el Universo a una T = 10 10 K y a tiempos del orden de t ~1 seg. Son los resultados de la NS que han llevado a la

9

union: cosmologia-particulas elementales. La teoria BBN ha predicho que la abundancia del He, es de: Y ~25% . En 1984, Yang y Olive, y por Reeves y Audouze, establecieron completamente la BBN como herramienta para explorar el Universo, y que es diferente de un chequeo de consistencia, esto fue hecho al mostrar que las demas abundancias de los ligeros tenian contribuciones principales de la BB, y que los efectos de las contribuciones estelares donde eran relevantes podrian ser removidos por tecnicas apropiadas para obtener restricciones sobre los productos de la BB para esos isotopos. Asi, las predicciones para los 4 elementos ligeros: He, Li, Be, D eran muy relevantes. Se demostro en los 70’s que contrario a lo que se pensaba, que el deuteron es hecho en una cantidad significativa en la etapa de la NS, el deuteron producido asi, restringe a la densidad de los bariones ”desde la cota superior” Inversamente, el 3 He puede usarse para restringir esta densidad ”desde abajo”solo si la abundancia relativa del Li respecto al hidrogeno: Li /H, esta cerca de su minimo permitido de 10 −10 , es posible la concordancia. Los astronomos midieron esta prediccion, de hecho, el Li da las mismas restricciones a la ρ b como lo hace el D, o el 3 He, convirtiendo a la fraccion de la densidad critica con el rango permitido [el parametro h, o ”de ignorancia” en la cte. de Hubble] da, para la den-

10

sidad Ω :

0.02 < Ω b h 2 < 0.11

que concuerda con las estimaciones dinamicas de la Ω, pero requiere de materia nobarionica si la densidad Ω = (ρ/ρ c ) =1 La existencia de mas neutrinos implica el efecto fisico: si hay mas tipos de particulas relativistas, seria mas grande la densidad a una temperatura dada y asi, una expansion cosmologica mas rapida, y esta, daria como resultado, las tasas de las interacciones debiles, ser rebasadas por la tasa de la expansion, en una epoca anterior, a T mas alta asi la interaccion-debil sale del equilibrio mas pronto ocasionando que hayan mas neutrones y asi mas Helio, pues ya no hay reacciones de reversa, y se desequilibra todo. Con la determinacion de las medidas extragalacticas del Deuterio, la teoria BBNS se ha transformado. Se dice que la actual es una Era de Precision en la Cosmologia. En el pasado, se hacia enfasis en demostrar la concordancia del modelo estandar BBN con las abundancias de los isotopos ligeros, extrapoladas a sus valores primordiales al usar las teorias de la evolucion estelar y galactica.Cuando una medida directa del D primordial es establecida, se usa para restringir los modelos, mas flexibles, de la evolucion estelar [y esta abierta la cuestion del error sistematico en la abundancia del Helio] El exito notable de la teoria en establecer la concordancia, ha conducido a concluir que la BBNS es un tercer pilar fundamental de la Cosmologia de la BB, junto con la expan-

11

sion de Hubble y la radiacion cosmica del fondo (siglas CMB). de los tres pilares, el BBN analiza al Universo hasta tiempos primigenios de: t ~1 seg y conduce a una interaccion de la cosmologia con la fisica de particulas elementales. Las nuevas medidas extragalacticas del D afianzan esta imagen. y dan un valor convergente de la densidad del Universo, Ω, y permiten a la BBN ser una restriccion en los escenarios de la evolucion estelar y galactica. El Universo se expande de acuerdo con las ecuaciones de Einstein-Friedman, y esta formado como un plasma muy caliente de multitud de particulas que se formaron en una era anterior a la del BBN y son atraidas o repelidas por medio de la fuerzas: nuclear, la debil y la electromagnetica. Y las medidas de las abundancias de: 3 He, 4 He, 6 Li, Be y B, muestran una concordancia notable con los calculos teoricos. Ahora, esta concordancia trabaja, solo si la densidad de bariones es menor que el valor critico de la densidad cosmologica. Desde los trabajos pioneros de Gamow, Alpher, Hoyle,Peebles, Wagoner, los calculos no han variado mucho. Estos se hacen asi: se establece una red de reacciones nucleares que llevan desde el Hidrogeno, hasta el Deuterio, Litio,Berilio, Boro, etc,por captura de neutrones y por decaimiento-beta, cada reaccion tiene su seccion eficaz de dispersion o captura, y su exactitud depende de la exactitud de los actuales experimentos de disper-

12

sion nuclear; se calcula la tasa de reacciones: R = n < σ v> donde estos promedios: < σ v > se calculan usando una distribucion de velocidades,de Maxwell, se sutituyen las R’s en las ecuaciones para las abundancias y se utiliza un programa de computadora, en Fortran, establecido por Truran y por Wagoner, el cual tiene varios parametros que se dan como datos de entrada, que son: el parametro de Hubble, la vida media del neutron, la densidad de particulas, el numero de neutrinos, (todavia se espera mejorar la medida de la vida media del neutron). La abundancia del 7 Li es la que se mide con menor exac-

titud, porque las reacciones 3 H(α,γ) 7 Li y la

3

He(α,γ) 7 Be, son medidas con poca

precision. Las incertezas experimentales tienen un impacto minimo. En los años 60’s el interes estaba en el 4 He que no depende sensiblemente de la densidad, fue hasta los años 70’s que la teoria BBN fue desarrollada como una herramienta para investigar el Universo, mas aun, las determinaciones de la abundancia del D mejoraron significativamente con mediciones en el viento solar, y en los meteoritos, y medidas en el medio interestelar por el satelite Copernico, en 1973. Medidas con el telescopio Hubble, en 1993, han disminuido los errores de medicion, considerablemente. Reeves et.al., dieron una restriccion a la densidad de bariones, excluyendo un Universo cerrado con bariones. Luego estos argumentos sobre el D fueron cimentados y proba-

13 ron que ningun otro proceso astrofisico que no fuera el BBN produciria D,significativamente. Esto fue el principio del uso del Deutron como ”bariometro cosmico”, que culmino en una determinacion de la densidad con una exactitud de 5 % Esta densidad fue comparada con las medidas dinamicas de la densidad, mostrando que la Ω no intersecta a la Ω-visible para cualquier valor de la H 0 , y que la Ω total > 0.1, tal que la existencia de la materia obscura no-barionica es necesaria. Yang et al, enfatizaron, en 1984, apoyados en medidas precisas, que las abundancias de los elementos ligeros son consistentes, sobre nueve ordenes de magnitud, con la BBN, pero solo si la densidad Ω b esta restringida a ser alrededor de 6 % del valor critico (para Ho ~50). Otro desarrollo fue el calculo explicito, por Steigman et al , mostrando que el numero de generaciones de neutrinos, N ν , tenia que ser pequeño pera evitar la sobreproduccion del 4 He, y tambien en los 70’s, fueron descubiertos: el quark ”encantado” el ”bottom” y el lepton pesado, τ; asi que parecia que cada nuevo detector de particulas produciria nuevas. Posteriormente el limite a N ν mejoro con medidas de la abundancia Yp, del Helio, y las mediciones del tiempo de vida τ(n) del neutron, y con limites a la cota inferior a la densidad fluctuando en N ν 4, durante los años 80’s.

El poder de la BBN homogenea viene del hecho que esencialmente toda la fisica que se da como ”entrada” esta bien determinada en el laboratorio terrestre. El rango apropiado de temperaturas, desde: T = 0.1 a 1 MeV esta bien explorado en los laboratorios, se

14

conoce con precision, de hecho, se conoce para esas temperaturas,T, mejor que lo conocido en el centro de las estrellas como nuestro sol, su centro tiene una T 10 6 K,

equivalentes a: E ~1 KeV, menor que las energias donde las tasas de las reacciones nucleares dan resultados significantes en los experimentos, y solo los tiempos grandes y altas densidades disponibles en las estrellas permiten que muchos sucesos tomen lugar. ¿Crisis o Concordancia? El argumento para una ”crisis” en la BBN se basa en una cota superior a la abundancia D/ H, llevando a una cota inferior sobre la η, que entra en conflicto con la abundancia Y P . Pero esta cota no es creible. No hay conflicto galactico con una gran abundancia del deuterio, pues la evolucion quimica puede destruir a este, por un factor de 10 o mas ¿que tan buena es la concordancia, y que tan bien restringida es la η? una opinion sensible y conservadora es que la dispersion actual de los resultados publicados refleja ignorancia o ”errores sistematicos”. En este caso,se puede afirmar solo que los 3 elementos son ampliamente consistentes con η, sobre lo mas del rango de: 10 −9 a 10 −10 . A pesar de la concordancia, esta es una, algo debil, victoria para la SBBN. Pero la meta es mas ambiciosa: se desea una prueba mas precisa del modelo y una medicion mas precisa de la η. Nuevos experimentos en Fisica Nuclear: medir las

15

secciones nucleares de dispersion, ayudara a reducir las incertidumbres teoricas. [La compilacion mas reciente de tales secciones es la NACRE,C. Angulo,et.al.,’99] Esa medida de la densidad se obtuvo con el WMAP, que fue de: Ω b h 2 = 0.0224 ± 0.0009, y la traduccion entre Ω y η, es: Ω b h 2 = 3.6519x10 7 η

Desde los años 80’s, los cosmologos introdujeron para la densidad barionica del Universo, un intervalo de concordancia donde las abundancias predichas y las medidas de los elementos ligeros, fueran consistentes con sus incertidumbres. Al final de los 90’s, la determinacion del deuterio primordial, D, se supone que es lo suficientemente exacta para fijar la densidad ρ u Ω ; y estos intervalos para el D, 7 Li,
4

He y Ω b eran predichos por mediciones del D.

En el 2000, observaciones de la CMBA, llegaron a ser un medio competitivo de estimar la Ω b . Entonces los resultados de la CMBA pueden ser un chequeo de los resultados de la teoria SBBN, y pueden conducir a nuevas restricciones de dicha teoria, esto es: la fisica de neutrinos, (los procesos fisicos que incluyen a estas particulas, durante las eras de la evolucion del Universo). Medir las abundancias primordiales es un desafio considerable, debido a las dificultades ya mencionadas, Burles, et.al. midieron, en1999, para el He, D, Li: Y p = 0.244 ±0.002 (es la abundancia Primordial del Helio)

16

D H
3

P

= (3.4 ± 0.3)x10 −5

7

Li H

= (1.7 ± 0.15)x10 −10
P

He H

= (1 ± 0.3)x10 −5
P

(los cocientes expresan: la abundancia entre la abundancia del hidrogeno) en 1980 los cosmologos introdujeron un intervalo de concordancias para la Ω b donde las abundancias predichas y medidas para los cuatro elementos ligeros son consistentes Copi,et al, (1995) derivaron: 0.007 < Ω b h 2 < 0.024 hubo un cambio entre 1998 y 1999,con la determinacion exacta la abundancia del D primordial que permitio la determinacion, mas exacta de la densidad barionica, Ω b

17

La figura muestra los intervalos de concordancia para cada elemento y la densidad y las abundancias esperadas para los nucleos 3 He, D, 4 He y 7 Li, calculadas en la SBBN. Nuevas estimaciones de los errores en las secciones transversales fueron usadas para estimar los intervalos de confianza (C. L.) de 95% que se muestran por las anchuras verticales de las predicciones de las abundancias. La escala horizontal, η, es el unico parametro libre en los calculos, se expresa en unidades de la densidad barionica o la densidad critica para un parametro de Hubble de 65 km s.Mpc Los C.L. de 95% para los datos, mostrados por los rectangulos, son del trabajo de Isotov y Thuan,1988 ( 4 He); Burles y Tytler,1998 (D); Gloeckler,1996 ( 3 He)

18

Bonifacio y Molaro, 1997 ( 7 Li extendido hacia arriba por un factor de dos para permitir un posible agotamiento.La densidad barionica es predicha por la medicion del deuterio, (banda vertical). (de Burles, Nollett, Turner, astro-ph/9903300) Tytler et al [2000] midieron la abundancia del deuterio: (D/ H) P = (3.3 ±0.5)x10 −5 Burles, Nollet, Turner, [2000] proporcionaron la determinacion: Ω b h 2 = 0.0189 ±0.0019 hasta ese año, la concordancia entre las predicciones de la teoria SBBN y las mediciones, hacian de la SBBN una piedra angular de la cosmologia de la teoria del Big Bang. Pero, las mediciones de la CMB, en los globos: BOOMERANG y MAXIMA en el año 2000, favorecen el valor: Ω b h 2 = 0.030 +0.009 −0.008 el cual no puede ser acomodado en el modelo SBBN [Burles, 2000]. Los experimentos con los satelites WMAP y el PLANCK surveyor, mejoraron la medida de la Ω b , y aparentemente la SBBN, entro en crisis, y los cosmologos y los astrofisicos investigan actualmente a los modelos no-estandar de la NS, (siglas NSBBN). En 1970, los astronautas del Apolo determinaron la abundancia del D y esto se empleo para restringir la densidad de la materia ordinaria pues la produccion del D, depende de la densidad de bariones, ρ b ; y los procesos astrofisicos, desde la epoca primordial,

19 destruyen al deuterio. El D era usado para establecer un limite superior a la ρ b basandose en el hecho que la BB debio haber producido al menos la cantidad del D observada en el medio interestelar (ISM), junto con las mediciones de las abundancias de los demas elementos ligeros, producidos en la BB, se derivo un intervalo de concordancia para la densidad barionica. Pero ocurrio un cambio en 1998, Tytler midio esta abundancia y obtuvo (D/H)p = (3.0 ± 0.4) x 10 −5 que lleva a una determinacion precisa: Ω b h 2 = 0.020, con el parametro de Hubble, (o factor de ignorancia): h = H 0 /100, y esto implica : ρ b = 1.878x(Ω b h 2 ) x 10 −29 gr/cm 3 Los experimentos en el globo BOOMERANG y el satelite WMAP, reportaron, para la densidad: Ω =0.032 ±0.009, y esto concuerda con la teoria BBN. Medidas de las anisotropias de la CMB pueden,ultimamente, determinar la densidad hasta una exactitud del 1% WMAP Observo las anisotropias de la CMB, con una precision de 10 −6 K, su resolucion angular es de 40 veces mejor que su predecesor, el satelite COBE; observo el cielo completamente, durante un año entero. Midio la polarizaciuon de la CMB, la orientacion

20 de la radiacion surge en parte, de la ultima dispersion de luz en la epoca de la ”recombi-nacion” cuando se formaron por vez primera los atomos estables, Medidas de las anisotropias de la CMB determinaron la densidad barionica, hasta una exactitud del 1%. La edad del Universo determinada, es de 13,700 millones de años. Este resultado es consistente con las mediciones de la edad obtenidas por otros medios con el telescopio espacial Hubble, haciendo mediciones de distancias y corrimientos hacia el rojo de estrellas cefeidas en galaxias lejanas. Otros datos obtenidos, son: el tiempo de recombinacion fue 380,000 años despues del instante inicial, t = 0 la era de las primeras estrellas fue cerca de 200 millones de años despues del inicio. la composicion de materia del Universo es: materia atomica: ~4%, materia obscura: de cerca del 23%, y energia obscura: 73 %. Mide el espectro Intensidad-frecuencia, con suficiente precision. que apoya al modelo inflacionario de Guth y Linde, el cual predice una pequeña desviacion de la planidad del espectro de las inhomogeneidades. Alain Coc, Carmen Angulo et.al, han calculado,empleando calculos Monte-Carlo, y usando datos del WMAP, las abundancias de: 3 He, 4 He, D, Li, como funcion de η, y asi es ahora posible inferir las abundancias primordiales de tales elementos. p.ej. para el deuterio se obtiene: D/ H =2.60x10 −5 , de perfecto acuerdo con el valor promedio 2.78x10 −5 obtenido en las nubes cosmologicas. Esto refuerza la confianza

21

en el valor deducido de: Ω b h 2 . Las otras abundancias deducidas son: Y P = 0.2457 ± 0.0004, para el 4 He
3

He/H = (1.04±0.04) x 10 −5

7

Li/H = (4.15±0.49)x10 −10

Pero, hay una fuerte discrepancia con las mediciones del Litio en las estrellas-halo, y esta discrepancia, si no es de origen nuclear, es un desafio. Hay teorias recientes que podrian afectar a la BBN, son: la que investiga a la variacion de la constante de estructura fina, (α = e 2 /0c), la que modifica a la velocidad de la expansion durante la era de la NS, debida a la Quintaesencia, la teoria de la gravitacion modificada, la de las asimetrias leptonicas. Sin embargo, su efecto es mas significativo sobre el He que sobre el Li. Por otra parte, de observaciones de supernovas-I, a z grande, ejecutadas por dos grupos de cosmologos: las medidas de luminosidad-distancia muestran evidencia de que el Universo actual esta acelerando su expansion. Mas aun, medidas recientes de la CMBA y de las fracciones de bariones en los clusters de galaxias, indican que el Universo es plano, y que la materia contribuye cerca de 1/3 de la densidad critica; y que cerca de 2/3 de esta densidad constituye la energia obscura: Ω Λ ~2/3. La naturaleza de esta energia es un nuevo desafio para la Cosmologia y la Fisica

22

Fundamental. La interpretacion mas sencilla es: la constante cosmologica Λ, que Einstein introdujo en 1917, para que su solucion a la eq.cosmologica fuera la de un Universo estatico, sin expansion. Es necesario saber si esta constante, lo es o si varia espacialmente, bautizada como el campo quintaesencia, Q, En este caso, Λ, la energia del vacio es el resultado de un campo escalar, Q, que interactua con otros campos via la gravedad. —————————————— HISTORIA. DE LA TEORIA DE LA NUCLEOSINTESIS La Ciencia de la NucleoSintesis esta restringida a trazar en el tiempo y el espacio, la composicion quimica del Universo. Los primeros intentos para construir esta teoria fueron dados por Meyer y Teller y por Gamow, Alpher y Herman, para quienes la materia primordial (Hylem) eran agrupamientos de neutrones, los cuales al desintegrarse en protones electrones y neutrinos, formarian a los futuros nucleos. Klein y Beskow sugirieron que el equilibrio nuclear estadistico, en ambientes especificos, darian cuenta de las abundancias, pero fallaron en varios detalles Las hipotesis basicas debidas a Weizsacker las restablecio Chandrasekhar: aparte de efectos secundarios, la transmutacion de los elementos es la causa completa de la presencia de todos elementos en las estrellas; ellos son sintetizados continuamente en las estrellas, las que se supone que empezaron como puras masas de Hidrogeno; mas aun, las transmutaciones nucleares son la unica

23

causa de la energia de las estrellas. La idea de que el equilibrio entre las especies nucleares pudo ocurrir en algun tiempo y lugar en la evolucion estelar y que los patrones de las abundancias asociadas pudieron persistir en la materia estelar, cuando se dispersa en el espacio, es una idea antigua y atractiva. 1922, Friedman publico su solucion a la ecuacion cosmologica, que implica un Universo en expansion. Tolman, estudio el equilibrio termodinamico entre el hidrogeno y el helio como una posible explicacion de sus abundancias relativas. En 1924 la idea que la distribución de las abundancias relativas de los elementos era universal, William Harkins y Giuseppe Oddo, notaron que la distribucion de las abundancias reflejaba sus propiedades nucleares, mas que sus propiedades químicas. En 1927, el abate catolico George Lemaitre, publica su teoria del ”Atomo Primigenio”, para explicar el origen del Universo. -decia Gamow que en el trabajo de Lemaitre hay mucho lirismo y poco rigorEn 1929, Edwin Hubble: mide las velocidades de las nebulosas extragalacticas, y de ahi se deduce que el Universo esta en expansion. en este año, son pioneros de la teoria de origen de elementos: Atkins y Houtermans En 1930, Victor Goldschmidt publico una distribucion basada en la entonces bien establecida idea que las estrellas estaban hechas del mismo material, una conclusión astrofísica de la cual Cecilia Gaposhkin y Henry Norris Russell habian hecho contribuciones. La grafica de abundancias, dada por Goldschmidt fue base de los trabajos de Gamow 1932: Einstein, y de-Sitter, publican una solucion a la ecuacion cosmologica de Einstein

24 1937 Weizsacker da su hipotesis de la estructuracion de los elementos y la predicciones cuantitativas que siguen de esta hipotesis, investiga las reacciones nucleares en estrellas. Pueden obtenerse de los hechos generales de los datos empíricos: abundancia-estabilidad por el uso de reacciones termodinámicas en equilibrio, como las empleadas en reacciones químicas. En 1938 hubo una conferencia de fisicos nucleares y astrofísicos: sobre el trabajo de Bethe ese año, Hans Bethe: publica ”Energy production in stars” donde da su explicación del funcionamiento de las estrellas, en base a la fisica nuclear. ese año, Weizsacker, dio la vision dominante: ”...ningun elemento mas pesado que el 4 He puede ser sintetizado en una cantidad apreciable. Asi suponemos que los mas pesados fueron estructurados en las estrellas” Dos de los problemas mas difíciles en la primera mitad del siglo XX, eran: (1) la fuente de energia de las estrellas. y (2): el origen de los elementos quimicos. El primero fue resuelto en 1938, cuando Hans Bethe y Weizsacker encontraron los mecanismos nucleares que originan la energia enorme que emiten las estrellas. En 1939 el primer dilema fue resuelto cuando Hans Bethe y otros, formularon las reacciones nucleares que dan origen a la energia que hace que funcionen las estrellas. Los fisicos nucleares pusieron su atencion en las estrellas para resolver el 2o. enigma. En este año, Donald Hughes dio un gran avance en este campo, recopilo secciones de captura de neutrones a energias de1 MeV, para gran numero de elementos, al intentar determinar la adaptabilidad de varios elementos para construir los reactores nucleares. Lo interesante de los resultados de Hughes era: las secciones variaban inversamente

25

con los datos de las abundancias relativas, y mas aun, los datos exhibian secciones de captura muy pequeños para núcleos con “numeros mágicos” , cuyas abundancias eran grandes relativas a los núcleos vecinos. Esto sugirió una fuerte relacion inversa entre las abundancias y las secciones de captura de neutrones. 1942 Chandrasekhar y Henrich: publicaron un trabajo pionero, titulado: “Un intento para interpretar las abundancias relativas de los elementos y de sus isótopos” ese año, Gamow sumo ideas de varias teorias: la imagen emergente de la energia estelar resultante de los ciclos proton-proton y el del carbono-nitrogeno desarrollados por Bethe, Weizsacker, Teller, Atkins y Houtermans, y por Gamow mismo. La confianza de que la distribución de las abundancias relativas (respecto al Hidrógeno) de los elementos, era uniforme al traves del cosmos,y mas particularmente, de la falla de las llamadas ”teorias de equilibrio” para explicar las abundancias. George Gamow y Lemaitre empezaron a desarrollar la teoria, conocida posteriormente como ”La Gran Explosion”, (Big Bang) en la cual, los elementos de la tabla periódica eran construidos por medio de la captura de neutrones por protones minutos después del instante de tiempo cero, de la gran explosion. En ese año, dio una conferencia en la academia de ciencias, en Washington, sobre otro metodo: propuso que las abundancias podrían ser el resultado de un proceso de ruptura, de no-equilibrio, en el cual un objeto superdenso original compuesto de materia nuclear se fragmentaria semejante al atomo primigenio propuesto por Lemaitre, en 1927. Asi los elementos mas pesados se formarian por reacciones de captura de neutrones, hasta

26 alcanzar el limite de estabilidad nuclear que se llega con el Uranio y todo esto, en el contexto de las etapas primigenias del Universo en expansion. Segun Chandrasekhar, si el Universo primigenio logro el T E en T ~10 10 K, y densidad de 10 7 g/cm 3 , entonces las abundancias de los elementos ligeros serian ”congeladas” en cocientes que concordaban con las observadas . Pero esto es en parte correcto, pues la gran densidad de materia en esa epoca habria requerido de una rapida expansion para evitar el colapso, y de esto, los calculos basados en el equilibrio no son apropiados. 1946 Gamow publica un trabajo pionero: ”el origen de elementos en el Universo en expansion” en ese, Gamow propuso otro metodo aun: calculaba, basado en la métrica del espacio-tiempo de Robertson-Walker, la tasa de expansion de un modelo de Universo dominado por la materia, razono que a temperaturas suficientemente grandes (mayores que la energia del nucleon, la densidad de energia del campo de radiacion debe haber sido mayor que la densidad de energia de la materia. En tal condicion, los fotones de la radiacion pueden romper cualquier nucleo. Uso la abundancia calculada del Helio para predecir que, en esa epoca, la frecuencia de los fotones habria sido corrida hacia el rojo del espectro, hasta longitudes de onda milimetricas. Y noto que los neutrinos serian tan numerosos como los fotones y jugarian un papel muy importante y que la reaccion clave que dispararia todo,seria la captura de un neutron por un proton para formar un nucleo de Deuterio (hidrogeno pesado). # Y concluyo que a altas densidades la tasa de expansion habria sido demasiado rapida para poder permitir que se estableciera una distribución de equilibrio. Y que si las reacciones de captura de neutrones fueran primariamente responsables de establecer la distribución de abundancias, las cuales requerirían que hubiera muchos neutrones libres en el Universo primigenio, entonces el tiempo disponible para las reacciones termonucleares habria sido corto en comparación con la vida-media del neutron. Calculo que: Una densidad de neutrones de: 10 30 cm −3 (~10 6 gr cm −3 ) existiria durante menos de 1 seg. en una etapa primigenia, y porque los decaimientos-β que son necesarios para establecer las

27

igualdades apropiadas entre protones y neutrones, son medidas en minutos, es claro que el tiempo necesario para establecer el equilibrio con los neutrones, a las altas densidades requeridas, no estaba disponible en el Universo primigenio en expansion. Esta demostracion hizo necesario considerar los procesos de no-equilibrio. El hipotetizo una materia comparativamente fria de neutrones que se coagulaban en complejos mas pesados los cuales a su vez ejecutando decaimientos debiles, moviendo hacia la region de estabilidad nuclear y asi estructurando a los elementos mas pesados. La gran abundancia del Hidrógeno era considerada a ser el resultado de la competencia de los neutrones entre la coagulación y el decaimiento-beta del mismo. En el Universo primigenio, no podria haber ocurrido a traves de procesos de equilibrio, acompleto esta demostracion por un calculo sencillo de las escalas temporales incluidas. A su alumno Alpher le dio el tema de tesis: la formación, en no-equilibrio, de los elementos por captura de neutrones. Pero en 1948, no se conocían las secciones nucleares de dispersión y sus calculos fueron muy aproximados y dados a conocer en el famoso trabajo: ”alfa beta gamma”, de 1949. Este mismo año, Gamow, Alpher y Bethe propusieron que todos los elementos fueron construidos al capturar neutrones, minutos despues del Big Bang. Este fue el inicio de la teoria del Big Bang.

28 Correcciones criticas a su teoria fueron hechas por Chushiro Hayashi, Enrico Fermi y Anthony Turkevich que condujeron al trabajo seminal de 1953 (Phys.Rev. 92,1347) donde describen correctamente la síntesis de grandes cantidades de Helio, y poco de los demas elementos; En 1950, Hayashi noto que la hipotesis de materia neutronica inicial, era incorrecta. El campo de radiacion, a T > 10 9 K, genera pares e- e+ que sirven para mantener el equilibrio entre neutrones y protones, Chandrasekhar, en 1942 ya habia notado esto y que a estas temperaturas, ambas particulas estan en dicho equilibrio, debido a las interacciones-debiles: e − + p  n + ν e Fermi noto que las barreras de la repulsión electrica coulombianas y la falta de núcleos estables con masas 5 y 8, evitaban una síntesis significativa mas alla del 4 He. Esta teoria entonces, requeria de un principio muy caliente. En 1949 Gamow: prediccion de la radiacion cosmica, con una temperatura de 5 Kelvins Alpher y Herman predijeron que los fenomenos fisicos posteriores a la BB, habrian dejado una radiacion de reliquia de microondas, conocida ahora como ”radiacion cosmica del fondo” (CMB, cosmic microwave background, siglas en Ingles) Al presentar su tesis, Alpher inicio una interaccion con otros fisicos que condujeron a una sucesión de resultados muy diferentes a como los esperaban, como experto en fisica nuclear, Fermi, en un seminario de Alpher, elevo una objeción técnica respecto al metodo empírico de Alfer, Fermi le dio a su alumno Turkevich, que rehiciera el calculo de Alpher, usando valores para las secciones de captura,

29

y mostrando lo que Gamow y sus alumnos sabian y admitian en privado, que su mecanismo no produciria nada mas pesado que un núcleo de masa 4, a partir de neutrones. Fermi invito a su amigo Martin Schwartzchild para obtener evidencia observacional de la formación de elementos pesados en las estrellas. En un trabajo clásico en 1950, midieron el debil espectro de dos grupos de estrellas, del mismo tipo estelar, encontraron evidencia de produccion de metales durante la vida media de la galaxia. Ya solo quedaba la barrera de masa-5 a ser resuelta. Schwartzchild le dio este problema a un joven físico nuclear: Edwin Salpeter, se puso a trabajar y en 1952, vio que el Berilio-8, inestable como es, puede estar presente en los centro caliente de las gigantes rojas, en suficiente cantidad para proveer un conveniente puente de paso para la formación del Carbono-12, a traves de la adicion de un núcleo de 4 He. Ahora, con estos dos problemas resueltos, el triunfo de la formación estelar de materia parecia completarse, derribando la teoria de Gamow, pero..... el descubrimiento, por Merrill en 1952,del elemento Tc en estrellas-S,sirvio como una demostracion de que el proceso nuclear lento(s-process) es basico para la sintesis en las estrellas. Pero permanecia el problema del Helio, las estrellas son deficientes como productoras de He por un factor de hasta 10. Esto llevo a Hoyle y Tayler a revivir la posibilidad de una sintesis primordial del helio: las ideas de Gamow en 1953 Alpher, Herman y Follin, incorporaron, en su trabajo basico, el proceso mencionado de

30

la produccion de pares electron-positron, e- e+. Cerca de 1956, los astrofisicos encontraron que las estrellas de diferentes poblaciones difieren ampliamente en su contenido metalico, y el concepto de la ”sintesis universal” fue abandonado en favor de la nucleosintesis estelar En 1957, Hoyle desprecio todas las teorias pre-estelares de la síntesis como ”requiriendo de un estado del Universo del cual no tenemos evidencia”. Pero la curva de las abundancias, no es sencilla, tiene picos y valles Este año se publica el clasico trabajo BBHF sobre la nucleosintesis en las estrellas Fred Hoyle, los esposos Burbidge y William Fowler, e independientemente por A G Cameron, demostraron que esencialmente todos los elementos mas pesados que el
4

He pueden ser hechos en las estrellas, pero bajo condiciones diferentes a las que otros

astrofisicos como Weizsacker habian considerado. Burbidge, et. al.[BBHF 1957], presentaron al menos siete procesos separados para dar explicación de los datos. Irónicamente, fue Hoyle mismo quien encontro un gap que no podria ser llenado en la teoria estelar, un gap en el proceso mejor entendido de todos: la formación del He a partir . En 1959, Shvartzman demostro que la NS nos da informacion sobre el numero de neutrinos y que los gravitones, no tienen tiempo de entrar en equilibrio con la materia primordial: a menor trayectoria libre, hay mas interacciones y mayores abundancias, esto es: menor tiempo entre las interacciones.

31

Un año:1964, antes del descubrimiento de la CMB, Hoyle y Roger Tayler predijeron que la abundancia del Helio era del 25% (por masa) y sugirieron que la explicación la daba una teoria basada en una explosion original, reviviendo las ideas de Gamow de 16 años antes. Luego del decubrimiento de la CMB por Penzias y Wilson, en 1965; los calculos teóricos fueron refinados por PJE Peebles, Robert Wagoner, Fowler y Hoyle, explicar la gran abundancia primigenia del helio fue un gran triunfo de la teoria de la caliente gran explosion (hot big bang ) de Gamow. Hoyle concluyo que cerca del 90% del He contenido en las estrellas debe haber sido sintetizado antes del nacimiento de la galaxia. La base para esta conclusion fue un ar– gumento de energia: La cantidad total de energia liberada en la formacion de todo el He observado es ~10 veces mayor que la energia radiada por las galaxias desde su formacion. Asi, ”es dificil suponer que todo el He ha sido producido en las estrellas ordinarias” [Hoyle y Tayler, 1964. En lugar de esto, se dirigio la atencion a la formacion del He en las etapas primigenias del Universo en expansion. Reviviendo asi las ideas pioneras de Gamow, de 16 años antes. . Hoyle y Tayler: dieron la clave de la produccion del Helio, un año antes del descubrimiento de la CMB, ellos calcularon una abundancia del 4 He: 25 % y sugirieron una explicacion basada en la HBB. Muchos de los detalles de las abundancias observadas de los elementos fueron explicadas en terminos de los procesos nucleares en las estrellas. Pero un problema principal permanecia: el origen del Helio.

32

Las estrellas, parece, que son deficientes como productoras de la actual abundancia de Helio galactico, por un factor de hasta 10. esto llevo a Hoyle a revivir la posibilidad de una sintesis cosmologica del helio (las ideas de Gamow) e hicieron una revision de las concentraciones observadas en varios objetos astronomicos variando desde alrededor de 27% en el Sol hasta mas del 40% en algunas nebulosas planetarias, y sugirieron que la concentracion del He nunca puede ser baja, aun en las estrellas mas viejas. En 1965 Penzias y Wilson descubren la radiacion cosmica de microondas este año, Robert Dicke interpreta el descubrimiento de Penzias y de Wilson, en terminos de la Cosmologia del Universo en expansion. J. Peebles calcula la abundancia del Helio En 1966, los calculos basados en la teoria del HBB fueron refinados por James Peebles quien empleo las secciones nucleares eficaces de las interacciones nucleares-debiles, de las particulas p, n e, ν, calculadas por medio de la teoria Vector-Axial (debida a Richard Feynman y a Murray Gell-Man) de dichas interacciones En 1967 Robert Wagoner, William Fowler y Hoyle, quienes explicaron teoricamente la abundancia primigenia del 4 He, y esto fue un triunfo impactante de la teoria de la HBB [luego bautizada como: Standard Big Bang NucleoSynthesis, (SBBN); y efectuaron el primer calculo sistematico de las abundancias, hasta el Carbono C 12 , en el marco de un Universo de Friedmann, homogeneo e isotropico, y en expansion desde un estado muy denso y muy caliente, emplearon un codigo Fortran de computadora, que incluye a 64 reacciones nucleares y hasta 18 elementos quimicos.

33 Estas concentraciones o abundancias, eran explicables sobre un rango de un parametro de densidad: h, desde 10 −4 hasta 10 −2 , a muy altas temperaturas.[en notacion de Wagoner, la densidad de Bariones es ρ b = h T 3 gm/cm 3 , (convencion: T 9 = 10 9 K)] 9 10 −6 h 10 −7

Esto cubria casos desde un Universo de Friedmann con h ≈ 10 −4 hasta estrellas masivas con M 10 6 M .El interes en este caso fue estimulado por el descubrimiento,

de la Radiacion Cosmica del Fondo (CMB) con una T de 2.73 K. Puesto que la densidad de bariones,en promedio, no puede ser menor de ~3x10 −3 o mucho mayor de ~3x 10 −29 gm/cm 3 , hasta la epoca actual, la determinacion de esta T, llevo a Peebles, en 1966, a concluir que h cae en el rango de:10 −5 -10 −3 y encontro que si h ≈ 3x10 −5 conduce a una abundancia de ~27% Ya en los 1970’s, se dieron cuenta que se restaura la simetria de norma a una temperatura critica T c , y que tan grande T c (del orden de 250 GeV para la transicion electro-debil) habia ocurrido en el Universo primigenio en el modelo BBN, y varios fisicos de particulas sintieron que tenian que aprender acerca del Universo primigenio y de sus transiciones de fase.[ver capitulo de Eras del Universo] En 1973, Hubert Reeves, Jean Adouze, Fowler y David Schramm, pusieron su atencion en el deuterio, cuya produccion depende sensiblemente de la densidad de la materia ordinaria (barionica). Su razonamiento, junto con la deteccion del D en el medio interestelar, condujo a un limite superior para la densidad barionica, de no mas de 10 % de la densidad critica del Universo.

34

Mas aun, la SBBN empezo a jugar un papel importante en comprobar a la física fundamental: la física de particulas elementales. En un trabajo influyente , en 1977, Gary Steigman, Schramm y James Gunn, usaron a la produccion del 4 He para restringir el numero de las especies de neutrinos; y esto ayudo tambien a unir los campos de la Cosmología y la Física de Particulas En el principio de los 1980’s, las abundancias primordiales de los elementos ligeros: D, 3 He
4

He y 7 Li, habian sido determinadas y la concordancia de las predichas con las medidas,

se uso como prueba de la teoria del HBB, y como medio de restringir a la densidad barionica El modelo HBB se convirtio en la Cosmologia Estandar y la HBB uno de sus cimientos. Y mas aun, la HBB comenzo a jugar un papel importante en poner a prueba a la Fisica fundamental de Particulas Elementales. En 1998, la primera medicion precisa del deuterio primordial, por David Tytler y Scott Burles, marco el inicio de una epoca de precision para la teoria HBBN. Esta teoria fija a la densidad barionica con una precison de 7 %, y a su vez, lleva a predicciones exactas de las abundancias de los otros elementos ligeros. ————————————————————————

Sintesis y abundancias de los elementos quimicos
INTRODUCCIÓN HISTORICA Con el establecimiento de la Fisica Cuantica, la Fisica Nuclear y la Teoria de la Gravitación, en los años 20’ s, del siglo XX, los científicos pudieron dar una teoria

35 del origen y evolucion del Universo, Hans Bethe, explico ¿de que procesos fisicos nucleares las estrellas emiten su colosal energia? en todas las octavas del espectro electromagnético: luz visible, los rayos: X, infrarrojos, ultravioleta, etc. Habian especulaciones, a finales del siglo XIX, debidas a Helmholtz, Kelvin y Norris Russell, sobre la necesidad de otra fuente de energia que no fuera química o electromagnetica o gravitacional, Rutherford, Perrin, Jeans y Eddington sugirieron que procesos nucleares eran la causa. este ultimo establecio los fundamentos modernos para resolver el problema. Reconocio los trabajos de Aston sobre la espectroscopia de masas nucleares, las cuales demostraron que 4 nucleones de hidrógeno son mas pesados que un nucleo de helio y ya habian efectuado en los laboratorios nucleares, las transmutaciones, que son, p.ej. transformar una especie de núcleo, en otro, mediante bombardeo con protones y neutrones los núcleos capturan ambas particulas y cambian en un núcleo mas pesado. O el choque hace que un núcleo se fisione,o se rompa, hacia uno menos pesado. Otros pioneros fueron Atkinson y Houtermans quienes aplicaron la teoria de la penetración de barreras electricas, [que fue investigada por Gamow, y se basa en la Física Cuantica] al problema de la reacciones termonucleares en las estrellas. ABUNDANCIAS DE LOS ELEMENTOS QUÍMICOS Y DE SUS ISÓTOPOS. No hay una verdadera “cósmica” o “ universal” distribución de la abundancias de los elementos, el establecimiento de una muestra relativamente “ normal” es esencial para principiar en revelar los origenes de los elementos y para establecer las anomalias en las abundancias.

36

Las abundancias en los meteoritos y en el Sol y estrellas similares, fueron estandarizadas por Harold Urey y por Hans Suess, en 1956, en un análisis profundo basados en una mezcla de datos observacionales, geológicos y astronomicos; y de la sistematica nuclear empírica. Para las abundancias químicas relativas, los meteoritos son considerados como una muestra mas representativa de, al menos, algo del material del sistema solar primordial. Las medidas experimentales se basan no solo en medidas químicas, sino en técnicas de activacion de neutrones y en medidas de fracciones anomalas de isótopos, por la tecnica de la espectroscopia de masas, hechas en 1963 Las abundancias solares: El espectro de radiaciones solares ha sido analizado con detalle muy preciso, para medir las abundancias relativas (respecto al Hidrógeno) en la fotosfera solar, esto lo hicieron: Goldberg, Aller y Muller, en 1960, y en 1958 midieron las abundancias en estrellas de población I y II, y encontraron que no difieren mucho de las de nuestro Sol. Abundancias anomalas Existen abundancias anomalas, en muchas estrellas. estas sugieren diferentes mecanismos y circunstancias para la nucleosintesis, estas medidas las hicieron los esposos Burbidge, en 1957; y son citadas como una indicación de síntesis reciente de elementos pesados en estrellas gigantes como la BaII HD 46407, debida a un proceso de captura de neutrones, a lo largo de una escala grande de tiempo.[proceso lento, o: s-proceso] Un conocimiento del ambiente astronomico es crucial para la formulacion de las hipótesis

37 de la N.S. y de su prueba experimental. Observaciones Astronomicas y la Evolucion Estelar. El conocimiento del ambiente astronomico es crucial para la formulacion de las hipótesis de la nucleosintesis y de su prueba experimental. La formulacion basica de las ecuaciones que describen el cuasi-equilibrio en el interior de las estrellas fue dada por Martin Schwartzchild, en 1958. El lento proceso de la evolucion de la estrella cuando sus reservas de energia son utilizadas sucesivamente, es basico en el problema de la NS, y fue detallado por los esposos Burbidge y por: Hayashi, Hoshi, Sugimoto, en 1958 y 1962. quienes dieron un tratamiento detallado de las pistas evolutivas de 3 estrellas representativas desde la secuencia pre-principal, de contracción mediante la combustión del hidrógeno, helio y carbono con una discusión cualitativa del desarrollo posterior hacia la etapa de enana blanca. Calculos detallados evolutivos de estrellas con masas de: 0.5 a 15 masas solares, fueron dadas por Icko Iben, en 1965 y 1967. EVOLUCION ESTELAR El lento proceso de la evolucion de una estrella cuando sus fuentes de energia son usadas, es descrito en varios textos, inicialmente en el de M. Schwartzchild, de 1958. y en el trabajo de C. Hayashi y R.Hoshi, de 1962 Supernovas De gran importancia para el concepto de la redistribucion de elementos sintetizados, es la explosion de las supernovas.

38 La base mas directa experimental para las teorias de la NS, esta en las medidas en el laboratorio, de las tasas de reacciones nucleares con energias de choque que se aproximen a las esperadas en al ambiente astrofísico. En las estrellas, las energias termicas de protones, tan bajas, como de 10 a 20 kilo-eV, son efectivas, pero en el lab, las medidas pueden extenderse hasta menos de 100 KeV. Varios fisicos nucleares, entre ellos William Fowler, midieron, en 1950 a 1967, las pertinentes secciones transversales de choque y de absorción de neutrones, NUCLEOSINTESIS UNIVERSAL La NS puede ocurrir en las etapas primigenias de un Universo en expansion antes de la formacion de estrellas y galaxias, las teorias cosmologicas de Einstein, Friedman, y de Robertson-Walker, y su aplicacion por Richard Tolman, nos dan una estimación de las altas temperaturas y densidades, bajo las cuales esta síntesis se efectuo. Los pioneros en estas ideas, fueron: Weizsacker, en 1937; y George Gamow, en 1946. quien reconocio que la distribución de abundancias relativas, parecia reflejar a las secciones transversales de captura de neutrones; y noto que los neutrones libres constituirían una gran fraccion de la materia nuclear a altas temperaturas y densidades. Asi, durante la etapa, o era, de la Gran Explosion del Universo expandiente, los neutrones decairian en protones, y por sucesivas capturas de neutrones por los protones, comenzando con la reaccion: neutron + proton → deuteron + foton de radiación, o: n + p → d + γ

39

simbolizada mas breve por la notación: H(n, γ)D, resultaria en la síntesis de todos los elementos. Esto lo completaron: Alpher, Bethe y Gamow en 1948. La idea esencial era que dada una concentración inicial, en equilibrio, de neutrones y protones, se fusionarian en deuterio tan pronto como la temperatura del Universo cayera por debajo de la energia de amarre del deuteron, y este entraria en una serie de reacciones que producirían los demas elementos mas pesados. Pero Fermi noto que como no hay un núcleo estable con A = 5 y 8, y las barreras electricas “ Coulombianas” de repulsión, bloquearian la nucleosíntesis, cuando la temperatura cae. Entonces el énfasis se enfoco en hacer calculos detallados de la formación de núcleos ligeros, en particular, del Helio. La cantidad formada, de D y de He era gobernada por el cociente del numero de neutrones al numero de protones: n /p, en el tiempo correspondiente a la temperatura de captura a la cual el D podria ser formado, Alpher y Herman calcularon este cociente, en 1950, y supusieron que el unico efecto que causa el agotamiento de los neutrones era su inestabilidad por causa del decaimiento-beta, y es un efecto pequeño. El principal efecto en la interconversion de neutrones y protones, es la dispersión inelástica de neutrinos (ν), por nucleones, por ejemplo: ν e + n → e − + p. Hayashi, en 1950, encontro que el cociente n/p = 0.25 aproximadamente, y el valor actual es 0.12. En 1953, Alpher, Follin y Herman rehicieron el calculo de Hayashi con mayor detalle.

40

Analizaron como el resultado depende de la vida promedio del neutron, y encontraron un valor entre 0.22 y 0.17. Pero no tomaron en cuenta la teoria del decaimiento debil, desarrollada por Enrico Fermi posteriormente. Pero en 1964 y 1966, Hoyle, Tayler y Peebles incluyeron tal teoria en los calculos. En 1969, Shvartsman sugirió que la presencia de varias particulas exoticas en el Universo primigenio podria cambiar la cantidad del Helio primordial, pero no comento sobre el uso de la tasa de producción observada, para limitar el numero de tales particulas y tambien para limitar el numero de neutrinos. Este paso lo tomo Peebles, en 1971, pero habia fallas en la teoria de Hayashi, y en 1953, Alpher, Follin y Herman, la mejoraron, incluyendo un análisis de la Interacciondebil que transmuta el neutron en un proton, un electron y un neutrino Bajo la hipótesis que la densidad primigenia a una temperatura dada era similar a la que ocurria en el interior de las estrellas, se demostro que la reaccion: 3 He 4 → C 12 podria “ hacer de puente” los gaps de masas en A=5 y 8, pero no resultaba la síntesis mas alla del Neon-20. Tambien Hayashi,y Nishida, en 1956, estudiaron este aspecto de la NS. El interes en la posibilidad de la NS pre-estelar fue reconsiderada en 1964, por Hoyle y Tayler que reconsideraron las ideas de Gamow y sus colaboradores, al observar que el Helio es mas abundante que lo que se espera de la nucleosíntesis estelar Probaron que un cociente de las abundancias He / H , de aproximadamente 1/3, es producida,

41 bajo hipótesis razonables, durante las condiciones que siguieron a la ”gran explosion”, [los 3 minutos siguientes al instante inicial, t = 0] Mas aun, habia evidencia de una radiación termica (llamada: radiación cósmica del fondo) que surgia de una centella (fireball) primordial, que el mismo Gamow predijo. En 1965, los radioastronomos Penzias y Wilson encontraron una radiación de fondo que venia de todas las partes del Universo, y tenia una temperatura de 3 grados Kelvin, que tenia una distribución de Planck, (de radiación de cuerpo negro), y una longitud de onda de 7.3 cm. Análisis y calculos mas complicados mostraron que solo los elementos D, 3 He, 4 He y 7 Li pueden ser producidos en la etapa de la Nucleosintesis primigenia. En 1967, Wagoner, Fowler y Hoyle, analizaron los resultados de la NS a muy altas temperaturas posibles solo en la primordial explosion, o en los “rebotes” calientes en las estrellas supermasivas. En conexión con la discusión de la síntesis pre-estelar, actualizaron los calculos de Fermi, aunque la producción del Helio era de 25 a 30 % para todos los modelos razonables, sin considerar la degeneración de los neutrinos. SINTESIS ESTELAR En 1939 cuando la Física Nuclear habia madurado, Hans Bethe describio cuantitativamente las reacciones nucleares mas importantes que gobiernan la generación de energia en las estrellas, limitado todavía por inadecuados datos astrofísicos, fue el pionero en ese tema. Otro paso gigante en el entendimiento de la NS vino de “ puentear” el gap de la masa 5 y 8 esto lo hizo Edwin Salpeter, con la reaccion de 3 nucleos de He 4 hacia el C 12 .

42 El noto que esta reacion puede proceder a temperaturas relativamente bajas en helio puro y a muy alta densidad. El Berilio-8 es inestable a romperse en 2 particulas alfa y el cociente [de equilibrio] de Be/He es muy pequeño aun a muy alta T. Pero es suficiente para permitir la producción del Carbono-12, a traves de la reaccion: Be 8 + He 4 → C 12 , especialmente en vista de la resonancia, en la seccion transversal, asociada con un estado excitado en el Carbono-12. El primer tratamiento completo de la NS mas arriba del Carbono hasta el niquel, lo describio Fred Hoyle, en 1954, razono que la reaccion 3 He 4 → C 12 , procedia al traves de un estado excitado en el
12

C, y predijo una energia de excitación de 7.68 MeV para

el estado de energia relevante del carbono, experimentalmente medido a ser: 7.65. En vista de la dificultades asociadas con la síntesis pre-estelar y los desarrollos exitosos en la sintesis estelar ya descritas se concentro la atención en el interior de las estrellas como el asiento de la NS, este esfuerzo pronto resulto en establecer los principales mecanismos esenciales a la NS estelar, incluyendo a los elementos pesados y fue descrito por el trabajo de los esposos Burbidge, y por Hoyle y Fowler., en 1956, en la revista Science. En 1957 estos mismos astrofísicos, dieron una discusión detallada de los procesos relevantes en la NS en las estrellas, analizaron la combustión del H y del He, el proceso-alfa, produccion de neutrones, el proceso de equilibrio, o: e-proceso, procesos de captura de neutrones en las escalas temporales lenta y rapida: proceso-s y proceso-r, y el proceso-x, para la síntesis de los núcleos ligeros. Discutieron la teoria astrofísica y las observaciones astronomicas que son relevantes

43 a esos procesos. COMBUSTION DEL HIDROGENO Las ideas basicas incluidas en la fusion del H hacia el Helio en la cadena de reacciones proton-proton, o en el ciclo CNO, habian sido dadas en 1957, y en 1962 Caughlan y Fowler mejoraron los calculos usando experimentos e ideas teoricas mas recientes, en su trabajo: “las vidas promedio de los núcleos de: C, N y O, en el bi-ciclo catalitico C-O-N “ el analisis de los datos y el calculo de las vidas promedio de los nucleos asociados con esas reacciones, estos valores determinan las abundancias relativas de los núcleos, bajo condiciones de equilibrio. La determinación de la temperatura del centro del Sol, por la detección de los neutrinos solares en la superficie de la Tierra, la discutio John Bahcall en 1964. y R.Davis sugirió un experimento para detectarlos. En 1941, Gamow y Schonberg habian dado una teoria del coplapso estelar, basada en los neutrinos. En 1948, los colaboradores de Gamow desarrollaron una teoria evolucionista del Universo basada en la hipótesis del abate Lemaitre, que el Universo comenzo su vida a partir de un estado muy comprimido y caliente, desde el cual se expandio: la gran explosion, bautizada ironicamente asi, por Hoyle, quien proponia su teoria rival, del estado estacionario

COMBUSTIÓN DEL HELIO EN LAS ESTRELLAS El proceso basico de dicha combustión, 3 He 4 → C 12 , la analizo Salpeter, y ocurre cuando el

44

H en el centro, se ha conviertido en Helio y la estrella se contrae elevando la temperatura central. Este proceso es seguido por otras capturas de particulas-alfa sintetizando: C 12 y O 16 predominantes, con algo de Ne 20 y Mg 24 , producidos en las etapas finales bajo condiciones apropiadas. En una estrella de ultima generación (población I ), la combustion nuclear toma lugar en el Helio adulterado con elementos pesados y otras reacciones tienen lugar. Si hay una alta degeneracion de los electrones en el centro, la combustión eleva la temperatura sin causar expansion. Y este calentamiento incrementa la tasa de reacciones hasta que la fuente de energia se agota. Esta etapa acaba cuando el centro se hace no-degenerado a cuyo tiempo el centro se expande y se enfria. Este “ flash de Helio” fue descrito por M. Schwartzschild en 1962. COMBUSTIÓN DEL CARBONO,DEL OXIGENO Y DEL SILICIO La combustión del H ocurre a una T del orden de 10 7 , y la del Helio a T del orden de 10 8 . Cuando la T central de una estrella es mayor que 6 x 10 8 debido a la contraccion gravitacional , el carbono puede comenzar a combustionarse a traves de las reacciones:
12

C+

12

C→

23

Na + 1 H

20

Ne + 4 He
13

y posteriores capturas radiativas para formar: y tambien
14

C,

17

O,

21

Ne, y

23

Mg

N,

16

O,

20

Ne, y

23

Na junto con un numero apreciable de neutrones.

Posterior combustión a temperaturas mucho mas altas ocurre para el Oxigeno, con la producción de los isótopos de Mg, Al, Si, P y S, con el
28

Si, la especie nuclear mas

45

abundante. Cuando la temperatura alcanza los 3 x 10 9 K, empieza la combustión del Silicio. Los núcleos de masa intermedia alrededor del
28

Si son parcialmente

foto-desintegrados para producir un suministro copioso de particulas-alfa, protones y neutrones los cuales son capturados por los restantes núcleos de masas intermedias para formar los isótopos precursores del grupo del hierro. La importancia de las particulas alfa y de los núcleos-alfa (A = 2 Z = 4 n ) conduce a la anterior designación de la combustión del Silicio como el proceso alfa. La inclusión de las perdidas de neutrinos y una discusión de la combustión del Oxigeno, en las estrellas masivas, fue dada por [Fowler y Hoyle, 1964] EL PROCESO DE EQUILIBRIO La combustión del Silicio termina cerca de los 3.8 x 10 9 K, con la producción de los precursores radiactivos del grupo del hierro durante el corto estado de pre-supernova de la evolucion estelar. Los procesos nucleares fuertes tienen lugar en quasi-equilibrio. Los procesos de interacciones nucleares debiles, captura de electrones por núcleos, y emisión de neutrinos en la aniquilación de par electrón-positron, juegan un rol principal en determinar las abundancias relativas de los núcleos del grupo hierro, últimamente eyectados en la explosion de la supernova. Las transformaciones nucleares desde el Cameron, en
28

Si al grupo del hierro, la dieron Truran y

1966. y por Bodansky, Clayton y Fowler, en 1968.

46

LOS PROCESOS DE NEUTRONES
En las estrellas de población II, la combustión del helio puro procede al traves de la reacion 3 4 He → 12 C En estrellas de poblacion I, despues que el Hidrógeno en su centro ha sido agotado y la temperatura se ha elevado, el He puede interactuar con los núcleos ligeros, por medio de las reacciones (α, n):
13

C(α, n) 16 O, etc.

pueden entregar cantidades numerosas de neutrones. Y estos no encuentran las barreras repulsivas electricas y pueden interactuar con núcleos medios y pesados fácilmente, asi construyendo núcleos mas pesados. La reaccion
13

C(α, n) 16 O es una fuente de neutrones en estrellas gigantes rojas, y estos

son capturados subsequentemente por núcleos-semilla para construir núcleos mas pesados. especialmente aquellos con capas de neutrones cerradas. Los detalles de la estructuracion de los elementos pesados por captura de neutrones ,depende de la escala temporal del proceso. Cuando estas capturas son tan poco frecuentes que los decaimientos beta pueden ocurrir antes de una nueva captura, este proceso es llamado lento, o proceso-s (slow), y la trayectoria de la estructuracion corre por la linea de estabilidad de los isótopos que proceden hasta el Polonio y Bismuto en donde termina por decaimiento-alfa hasta los isótopos del Plomo. En condiciones como las que existen justo antes de la explosion de la supernova, la densidad de neutrones puede ser lo suficientemente grande, tal que la captura de neutrones, es rapida y el

47

decaimiento-beta puede solo ocurrir en aquellos núcleos donde las reacciones (n,γ) y (γ ,n) llegan al equilibrio. Asi, el proceso rapido: “proceso- r” sigue una trayectoria diferente de captura de neutrones que el proceso-s, y procede atraves de isótopos ricos en neutrones de los elementos transuránicos que no son inestables al decaimiento-alfa La síntesis termina eventualmente por fisión inducida por neutrones, o espontáneamente. cerca de núcleos con numero de masa A ∼ 280. Subsecuente decaimiento-beta resulta en la producción de los isóbaros beta-estables, a cada numero de masa atomica. La existencia de los isótopos naturales radiactivos del Uranio y del Torio requiere un mecanismo de este tipo. La producción del
254

Cf, en la primera prueba de una bomba atomica, en Eniwetok, en 1952

fue una prueba experimental de la estructuracion por rapida captura de neutrones. Procesos de Protones Los isótopos ricos en protones de muchos de los elementos pesados no pueden construirse por ambos procesos: el r y el s. Las reacciones postuladas para sintetizar esos isótopos son (p,γ) y la (γ,n) sobre materiales ya construidos por procesos de captura de neutrones tales reacciones pueden tomar lugar en explosiones de supernova SÍNTESIS DE LOS EMENTOS LIGEROS El deuterio, D, 3 Helio y los isotopos del Litio, Berilio y Boro, son destruidos por los procesos termonucleares en el interior de las estrellas. La presencia de estos nucleos raros se atribuye a la sintesis por procesos de espalacion [ruptura] en materia a una T

48 suficientemente baja de modo que reacciones termonucleares no ocurren. Las superficies de las estrellas y las nebulosas de las cuales se forman los planetas han sido propuestas como sitios posibles de esos procesos de ruptura. Son requeridos tambien procesos secundarios que incluyen a neutrones o una combustion nuclear. COSMO-CRONOLOGIA NUCLEAR La NS esta intimamente interconectada con la cronología de los sistemas astronomicos. La radiactividad produce una escala temporal para los eventos astronomicos. El uso de la radiactividad en la geocronología comenzo con un trabajo de Rutherford, el uso su conocimiento de las 3 series naturalmente radiactivas para deducir la edad de la Tierra y de la epoca de la formación de los elementos, esto lo publico en 1929, usando las medidas de Aston de los isótopos del plomo, calculo la edad de la Tierra a ser alrededor de: 3.4 x 10 ∧ 9 años, una cifra muy cercana al valor actual. LA EDAD DEL Universo La cronologia del Universo es un problema clave en la Cosmologia. La determinacion de la constante de Hubble a partir de los corrimientos-al-rojo de las lineas espectroscopicas de la luz de las galaxias establece una escala temporal para estimar la edad del Universo. Y esta depende de si la tasa de expansion se ha acelerado o desacelerado. Sobre la base de las medidas actuales, el reciproco de la constante de Hubble cae en un rango de (10—13) x10 9 años: o sea 10,000,000,000 años. Y los varios modelos cosmologicos evolutivos dan edades desde 6 hasta 20 x 10 9 años. La edad de los clusters estelares en la galaxia la energia de fusion disponible y su razon de liberación determina la vida media de las varias

49 etapas de la evolucion estelar. Esto ha conducido a la determinacion de las edades de los clusters globulares y galácticos en la galaxia. La epoca de la formación de los elementos Calculos basados sobre la síntesis, en el proceso-r, pueden ser usados para estimar la producción relativa del:
232

Th,

235

U, y

238

U en explosiones de supernovas a traves de la historia de la

galaxia. Las abundancias relativas de estos núcleos pueden ser usadas para determinar la duración de la formación de un elemento en la galaxia, antes de la formación del sistema solar.

LA EDAD DE LA TIERRA Y DE LOS METEORITOS
El decaimiento radiactivo ha sido usado para medir la edad de las rocas terrestres y de los meteoritos y asi inferir una edad minima del sistema solar. ——————————————–

PROCESOS FISICOS SUCEDIDOS DURANTE UNAS ERAS EN LA EVOLUCION PRIMIGENIA DEL Universo 1a. Epoca Cuando t =0.01 s, T ~10 11 K, (la que es mayor que el umbral para la produccion de pares: e- e + ), y la energia era de ~10 MeV, y todas las particulas estaban en equilibrio termico, esto es decir que estas interactuaban con suficiente frecuencia a lo largo del volumen del Universo de ese tiempo. Las interacciones a que nos referimos son la nuclear-debil, ejemplo: n + ν  p + e − . Este equilibrio (T.E.), cuando se refiere a los bariones, fija al cociente:

50

(numero de neutrones)/numero de protones): N(n)/N(p) = (n /p) La relacion es dictada por el cociente de dos distribuciones de Boltzman: n /p = exp{-Q/kT} = 0.878 ~1, cuando kT = 10 MeV. donde Q es la diferencia de masa entre neutron y proton, (Q = 1.293 MeV) [Se tomo la aproximacion de que los potenciales quimicos, del neutron y del proton, son iguales, y se cancelan al tomar el cociente. Al ser mas masivo el neutron que el proton, esto implica que hay mas protones que neutrones, y esto tiene consecuencia en las abundancias del helio y del deuterio. Asi el Universo seria diferente si el proton y el neutron tuvieran la misma masa [Hogan: Rev.Mod.Phys. ”Why the Universe is so”] La condicion de T E demanda una rapida tasa de reacciones, y esta tasa es proporcional a la seccion de choque σ, y a la densidad de las particulas interactuantes, N, y a la velocidad con que chocan o se dispersan. Estos factores dependen de la temperatura T: σ ~ T2 N ~T 3 o sea, la tasa Γ~ T 5

En tanto que esta tasa es mayor que la tasa de la expansion, el criterio de reacciones rapidas se mantiene. La tasa de expansion es el cociente 1 R dR dt =H

51

donde R(t) es el factor de escala, y H, el parametro de Hubble. y por la ecuacion de Friedman, la tasa de expansion es proporcional a la densidad de energia del Universo, esta densidad es a su vez proporcional a T 4 , asi: H ~T 2 , asi al bajar la T, tiene un efecto mas grande sobre la tasa de reacciones que sobre la tasa de expansion, pues T 4 >T 2 , y si las reacciones son inicialmente mas rapidas que la expansion, entonces habra una temperatura de equalizacion: Teq , cuando ambas tasas son iguales. Este evento es llamado el ”freeze-out” (exclusion), y cuando esta T de umbral se cruza, el valor de equilibrio del cociente: n /p ya no se mantiene, sino queda fijo. [Los neutrinos son importantes pues afectan la tasa de las interacciones debiles, las cuales actuan en la transmutacion de neutrones en protones] [La vida-media de neutron es un modo de parametrizar la intensidad de la interaccion debil, si es mayor esta vida, lo mas debiles que seran estas reacciones, como resultado, lo mas grande que sea la vida media del neutron, lo mas rapidas que seran estas interacciones que mantienen a los protones y neutrones en equilibrio estadistico,y cuando los neutrinos se desacoplan, menos neutrones decaen, y como resultado, mas neutrones restantes seran disponibles a tomar lugar en las reacciones de la BBN, y a su vez, sera producido mas He durante la epoca de la

52

NucleoSintesis.] Los calculos dan a ese cociente n/p el valor 1/6, y la energia kT = 0.8 MeV, que corresponde a una T = 10 10 K. Esta T es aun muy alta para que suceda la NS. Pero el Universo se va enfriando al expanderse,y cuando se ”enfria” a T ~4x10 9 K la energia es: E ~0.3 MeV, el proceso de construir nucleos empieza. Y a causa de este retardo, el decaimiento-debil de los neutrones libres disminuyo al cociente a valer: n /p ~1/7, y este cociente es el que determina las abundancias primordiales. Los principales constituyentes del Universo son: fotones, neutrinos y antineutrinos, y pares electron-positron, y tambien una pequeña cantidad de neutrones, protones. La densidad de energia de los pares es aproximadamente igual a la de los neutrinos y antineutrinos, ambas siendo (7/4) veces la de los fotones. La densidad de energia total, es cerca de 21x10 14 eV/ litro, o alrededor de: 3.8x10 11 g/cm 3 El tiempo de la expansion del Universo, en ese instante, es de: 0.02 s, el cual es la edad del Universo si la tasa de expansion hubiera sido la misma desde el principio como hasta ese instante. Y su circunferencia seria de 4 años luz. En esta epoca, y en anteriores, se tiene equilibrio termico.(siglas T.E.) 2a. epoca

53

Esta es al t = 0.12 s, cuando T cae a: T ~3x10 10 K, y no han ocurrido cambios cualitativos desde la 1a. epoca, los pares e-e + tienen velocidades relativistas, y la mezcla completa se comporta mas como radiacion que como materia, con la ecuacion de estado que es, aproximadamente, p = ε/3. [ε es la densidad de energia] La densidad de masa, total es de 3x10 7 g/cm 3 . El tiempo de expansion caracteristico es de: t exp an ~0.2 seg.

No se pueden formar nucleos atomicos aun, pero el balance entre el numero de protones y de neutrones, que eran transformados unos en otros debido a la reaccion debil: n + ν e  p + e-

esta empezando a ser alterada cuando los n’s ahora se transmutan mas facilmente en protones menos pesados, que por la reaccion inversa: p Î n. El cociente entre el num.de p’s y el de n’s es ahora de: 8/5: 62% p’s, y 38 % n’s. El equilibrio termico entre los neutrinos y las otras particulas esta empezando a cesar. El periodo de equilibrio termico es uno en el cual todas las particulas y la radiacion estan en equilibrio y el cociente n /p depende de la diferencia de masas entre esas particulas. La vida-media de neutron es un modo de parametrizar la intensidad de la interaccion debil, si es mayor esta vida, lo mas debiles que seran estas reacciones, y como

54

resultado, lo mas grande que sea la vida media del neutron, lo mas rapidas que seran estas interacciones que mantienen a los protones y neutrones en equilibrio termico, se desacoplan, menos neutrones decaen, como resultado, mas neutrones remnantes seran disponibles a tomar lugar en las reacciones de la BBN, y a su vez sera producido mas Helio durante la epoca de la NS. 3a. Epoca Sucede cuando t = 1.1 s, y la temperatura ha caido a T = 10 10 K, el contacto termico entre los neutrinos y las demas particulas y la radiacion, cesa por completo. El contacto termico significa la conversion de pares e- e+ en pares neutrino-antineutrino [por medio de la interaccion nuclear-debil] y viceversa, la conversion de los pares anteriores en fotones de radiacion. De aqui en adelante los neutrinos ya no jugaran un rol activo sino que solo proveeran con una contribucion a la densidad de masa-energia total. A esto se le llama la exclusion de la interaccion debil (freeze-out), y la densidad es del orden de: 10 5 g/cm 3 , y el tiempo de expansion caracteristico es de unos pocos segundos. Y la tasa de las interacciones debiles es menor que la tasa de la expansion. La temperatura esta cercana a la umbral para la produccion de pares e- e+, tal que esos pares estan empezando a aniquilarse con mayor frecuencia para producir fotones,

55

que los pares que se crean a partir de los fotones: ya no hay equilibrio estadistico. Pero la T es suficientemente alta como para que se formen los nucleos ligeros, pues si se forman, son desintegrados luego debido a la alta temperatura-energia, y el cociente: (neutrones/protones), (n / p), cambio a ser de:76 % protones contra 24 % de neutrones, o sea, 3 contra 1. 4a. Epoca Final del equilibrio estadistico nuclear.

La energia termica es: E = kT ≈ 0.5 MeV, sucede a: t  13 s, cuando la T ha caido: T ~3 x 10 9 K, y esta debajo de la umbral para la produccion de pares e- e+, tal que la mayoria de esas parejas se aniquilan. [la energia m e c 2 es de 0.5 MeV] El calor producido en esta aniquilacion ha reducido temporalmente la tasa de enfriamiento del Universo. Los neutrinos son alrededor de 8 % mas frios que los fotones, tal que la densidad de energia es un poco menor que si estuviera disminuyendo como T 4 [recordar aqui, la ley de Stefan:  = σ T 4 ergs/cm 3 ] El cociente p/n ha aumentado a ser de 83 % protones contra 17 % neutrones: ~5/1 La T es lo suficientemente baja como para que existan nucleos de Helio: 4 He, 3 He La tasa de la expansion es aun muy alta, asi que solo los nucleos ligeros se forman por medio de reacciones entre 2 particulas: p+nÎD+γ D + p Î 3 He + γ D + n Î 3H + γ

56

3

He + n Î 4 He + γ

3

H + p Î 4 He + γ

[una condicion fisica para que se formen los nucleos es que la tasa de reacciones Γ, debe ser mayor que la tasa de expansion del Universo: (R /R), de lo contrario, la densidad del Universo disminuye a mayor tasa y el numero de reacciones disminuye] Aunque el He es estable, los nucleos mas ligeros mencionados son inestables a esta T, tal que la formacion del He no es aun posible, por ser necesario ir a traves de los pasos intermedios para formar el He. La energia de amarre del D es 1/9 de la del 4 He. Las formulas que usaron son validas en tanto que todas las particulas,excepto los neutrinos, permanecen en equilibrio termico con los fotones, a temperatura T. esto es llamado la: ”Termalizacion”. Puede ser demostrado que choques de los fotones y particulas son suficientemente rapidos como para mantener esta condicion en el rango de temperaturas de interes: 60 T9 0.1. [convencion: T 9 = 10 9 T]

Arriba de la T ≈ 10 11 K, las reacciones π ±  µ ± + ν µ que suceden en un tiempo t ≈ 2x10 −8 seg y las reacciones µ  e + ν + ν (con t ≈ 2x10 −6 seg)

son lo suficientemente rapidas para mantener a electrones y neutrinos del muon, en T E, si estos no estan ”degenerados”. El proceso de aniquilacion de pares, y la

57

dispersion Compton, mantiene a las particulas cargadas en T E con los fotones. Cuando la T disminuye, ambos tipos de particulas: µ y ν, son excluidas (freeze-out) y se expanden adiabaticamente, de ahi en adelante, con la misma T (efectiva) Con objeto de especificar las propiedades dinamicas de nuestro sistema, debemos conocer la tasa de cambio de la distancia fisica entre particulas, R(t) y la relacion entre las propiedades del medio y esta R, o sea, la ecuacion de Friedmann, que da la Relatividad General de Einstein. [seccion de Cosmologia] A altas temperaturas, (T >10 11 ) todos los constituyentes estaban en E T. tal que la T ν de neutrinos era la misma que la T γ de los fotones,y se puede demostrar que: T  1/R cuando T cayo a ser ~10 10 , los neutrinos ya no interactuaban con las demas, estaban excluidos. Cuando la T cae a ser menor de ~10 9 K, los pares se aniquilan [porque la energia a esta T es menor que la energia de reposo de los electrones, y asi los fotones no tienen energia para crear pares e- e+] 5a.Epoca Era de la NucleoSintesis

Las dos claves para entender la sintesis de los elementos ligeros, son: la fraccion de neutrones libres y la salida del equilibrio termodinamico (T E) que ocurre. La fraccion es crucial porque, a diferencia de las estrellas, en las cuales la densidad de los neutrones es muy alta, y hay suficiente tiempo para que las interacciones

58

debiles transmuten protones en nucleos, con neutrones, ej.: p + p → D + e+ + νe en el Universo primigenio tales reacciones no ocurren, y la abundancia de neutrones libres determina la magnitud de dicha sintesis. La salida del T E es crucial: si no ocurriera todos los nucleones acabarian eventualmente en el Hierro. Esta sintesis sucede al t ~3 minutos despues de la 1a. epoca, cuando T = 10 9 K, la cual es, aproximadamente 70 veces mas caliente que el centro de nuestro Sol. Empieza la (era de la) Nucleosintesis. La energia es: E = kT = 0.08 MeV. Los pares e- e+ han desaparecido, y el contenido del Universo son principalmente fotones y neutrinos, mas una ”contaminacion” de protones neutrones y electrones, cuya densidad numerica es mucho menor que la de fotones, por un ratio de 1:10 9 la cual,eventualmente, evolucionara hacia la materia del Universo actual. En esta epoca, la temperatura de los fotones es 35 % mayor que la de los neutrinos. Es suficientemente ”fria” para que el 3 H (tritio), 3 He y 4 He, sean estables, pero el ”cuello de botella” del deuterio D, esta aun en operacion, tal que esos nucleos no pueden aun ser formados. El decaimiento-beta del neutron hacia un proton,electron y neutrino llega a ser muy importante, porque la escala de tiempo de esta reaccion es de: t ~12 min. Esto causa que las cantidades de p’s y n’s sean de: 86 % protones y

59 14 % neutrones. Un tiempo posterior al de la 5a epoca, la T cae lo suficiente como para que el deuterio sea estable, tal que nucleos mas pesados son formados facilmente, pero en cuanto se forman los nucleos de 4 He otro ”cuello de botella” opera: no existen nucleos estables con numero de nucleones 5 u 8. [el D tiene una energia de amarre de solo 2.2 MeV, asi que cuando la T >10 9 , hay suficiente energia para desintegrarlo por choques o fotones de la radiacion] La T exacta depende del cociente: fotones/bariones = η si este numero es 10 9 , entonces la T ~0.9 x 10 9 K, y estos eventos se suceden en algun instante entre los 3 y 4 min. Casi todos los neutrones son gastados para formar 4 He, con muy pocos de otros nucleos mas pesados: Litio, Berilio,Boro, etc,debido al efecto mencionado antes, la no-existencia de los nucleos estables con 5 u 8 nucleones. El cociente p/n es de ~87 % contra 13 %, y se ”congela” en este valor cuando todos los neutrones han sido usados. Debido a que el nucleo de 4 He tiene 2 neutrones y 2 protones, la proporcion de He al Hidrogeno H, (en terminos de peso) es de :~24 o 26 % de 4 He, y de 76 a 74 % de H. Si el cociente η es mas pequeño, entonces la sintesis de nucleos empieza un poco mas temprano, y un poco mas de 26 % de nucleos de 4 He, son formados. Los neutrones que no fueron incorporados en los nucleos, habrian decaido via la

60

interaccion nuclear-debil: n → p + e − + ν e 6a. Epoca Cuando t 35 min, cuando la T = 3 x10 8 K. Los e- y los e+ se han aniquilado,

excepto por un numero pequeño de e − que quedaron para neutralizar a los p + . Suponemos que la densidad de carga, en cualquier volumen significativo del Universo es cero. La T de los fotones es ~40% mayor que la T de los neutrinos, y asi permaneceran en la subsecuente historia del Universo. La densidad de la materia barionica es despreciable en comparacion con la de los fotones y neutrinos. Los procesos nucleares se han detenido, la proporcion del 4 He está entre un 20 y un 30% dependiendo del cociente η = n b /n γ , (numero de bariones/num.de fotones) Como los protones y los electrones tienen carga electrica, en su estado libre pueden dispersar fotones libremente,(dispersion de Compton). Como resultado, la ”trayectoria libre media” de fotones(distancia promedio de viaje de un foton entre dos interacciones) # p.60 ↓ − − − − − − − − − − − − − − − − − − λ mfp era pequeña comparada con la distancia que viajaria durante el tiempo caracteristico de expansion del Universo en ese periodo, si no fuera impedido. Esto es lo que se quiere expresar por: ”la materia y la radiacion estan en equilibrio” pues hay un libre intercambio de energia entre ambas. Asi, el Universo, durante el periodo en el cual protones y electrones eran libres (no habian formado atomos), era opaco a la

61

radiacion electromagnetica. [se puede calcular la opacidad en esta epoca, cuando se forman los atomos, los fotones ya no interactuan tanto con los atomos neutros, y aquellos viajan libremente por el Universo, el Universo se torna transparente] Epoca de la ReCombinacion Eventualmente la T disminuyo lo suficiente para que electrones y protones formaran atomos de hidrogeno en su estado cuantico base, estables.Ahora, como requiere de una energia de 13.6 eV para ionizar a un atomo completamente (por la ec. E = k T), la temperatura a la cual un atomo se ioniza, es de 13.6 / k = 1.576 x 10 5 K = 157,600 K. Pero aun en los estados excitados, en los cuales no esta ionizado, un atomo puede dispersar fotones. Asi solo es el estado base, que cesa de interactuar significativamente con fotones. La T a la cual los protones y electrones primigenios se amarran para formar atomos de Hidrogeno en su estado base fue alrededor de 3000 a 4000 K, lo que ocurrio luego de unos cientos de miles de años luego del instante inicial de la BB. Esta era se conoce como la de ”Recombinacion”. Luego de este periodo de tiempo el Universo se hizo transparente a la radiacion, o sea: la λ mfp de un foton era mucho mas grande que la distancia atravesada en un tiempo caracteristico de la expansion

62

del periodo. Esta es la razon por la cual nosotros vemos luz, que emiten las galaxias distantes a billones de años-luz, que no ha sido impedida de viajar, excepto por el corrimiento-al-rojo de su frecuencia. HISTORIA TERMICA DEL Universo Richard Tolman fue un pionero en este campo de la Cosmologia[1935] En este capitulo describimos los procesos fisicos que ocurrieron en el Universo primigenio, desarrollamos a la Termodinamica Estadistica basica necesaria para entender esos procesos. El Universo era dominado por la radiacion cuando el parametro que describe el corrimiento al rojo, z, era mayor que z eq 3.9x10 4 (Ω h 2 )

En esta fase, la temperatura de la radiacion era mayor que T eq 9.2(Ω h 2 ) eV 1.07x10 5 (Ω h 2 ) K, y se incrementa como

T ∝ (1+z). El contenido del Universo, en esas etapas primigenias, era de una forma diferente del contenido actual, [Las estructuras atomicas y las nucleares tienen energias de amarre del orden de decenas de eV y de MeV, respectivamente] Cuando la T del Universo era mayor que la correspondiente a esas energias,

63 tales estructuras no podian haber existido. Cuando la T correspondia a una energia [E = kT] mayor que la masa-energia de reposo de una particula cargada, entonces, la energia de un foton era lo suficientemente grande como para producir particulas y sus anti-particulas en grandes cantidades. Por ejemplo, cuando kT >> m e c 2 0.5MeV 5.8x10 9 K, habra un gran numero de

positrones en el Universo. La energia de esas particulas sera kT, haciendolas ultra-relativistas.[en lo que sigue tomamos unidades donde la k = 1] Asi el Universo primigenio, dependiendo de T, fue poblado por diferentes tipos de particulas elementales en tiempos distintos. Para investigar los procesos fisicos en el tiempo t, necesitamos conocer las funciones de distribucion estadistica de esas particulas f A (x, p, t) ≡ f A (p,t) A, etiqueta a las diferentes especies de particulas. Debido a la homogeneidad del Universo, el vector x no aparece. Estas especies interactuan frecuentemente con varias fuerzas, dispersandose e intercambiando energia y momentum. Si la tasa o velocidad de estas reacciones, Γ(t) es mucho mayor que la tasa de la expansion del Universo, H( t ) = 1 R dR dt

64 [H es el parametro de Hubble definido por la ec. v = H r, donde v es la velocidad de recesion de las galaxias, y r, la coordenada comoviente entre las mismas] entonces estas interacciones pueden producir (y mantener) equilibrio termodinamico entre las particulas interactuantes con alguna temperatura T(t) [o sea, los tiempos τ = 1/ Γ son mucho menores que el tiempo 1/ H] Todas estas interacciones tienen un rango corto, pero en un plasma, el proceso del apantallamiento de Debye reduce a este rango; haciendola efectivamente, de corto rango. Asi podemos suponer que el rol de esas interacciones esta limitado a dar un mecanismo para la termalizacion (llegar al estado de equilibrio) e ignorar sus efectos en decidir la forma de la funcion de distribucion. En ese caso las particulas pueden ser tratadas como un gas ideal de Bosones o de Fermiones, con las funciones de distribucion: f (p,t) d 3 p = gA {exp[(Ep − µ A )/kT A (t)] ± 1} −1 d 3 p (2π) 3 (1)

donde g A es el factor de la degeneracion de spin de la especie A µ A (T), el potencial quimico, T A (t), la temperatura de esta especie, al tiempo t E(p) = (p 2 + m 2 ) 1/2 (tomamos la convencion de unidades donde c = 1= Ò) En todo instante de tiempo, t, el Universo tambien contendra una distribucion

65 de ”cuerpo negro” de los fotones con una temperatura T γ (t). Si una especie se acopla con el foton directamente o indirectamente, y si la tasa de estas interacciones A-γ es suficientemente grande (Γ Aγ >> H) enntonces estas particulas tendran la misma T que los fotones: T A = T γ . Puesto que esto es el caso, se refiere a la T de los fotones por la expresion: ”la temperatura del Universo” Cualquier conjunto de especies A,B,C,....que interactuan entre ellas mismas con una tasa suficientemente alta, tendran tambien la misma temperatura. Conforme el Universo se desenvuelve, la T(t) cambia debido a la expansion R R
−1

en una escala temporal del orden de:

t H = H −1 (t) ≡

, (R = dR ) dt

la tasa a la cual la temperatura cambia, esta dada por: T’(t). La tasa de la interaccion (por cada particula) se expresa con la ec. Γ ≡ n <σ v > donde n es la densidad numerica de las particulas-blanco, v es la velocidad relativa, y σ es la seccion transversal de la interaccion, que depende de la energia, asi < σ v > denota un valor promedio sobre las energias. En tanto que Γ >> H, las interacciones pueden mantener el equilibrio. En este caso, la f se desarrollara adiabaticamente, manteniendo la forma de la

66 ecuacion (1), con la T correspondiente al valor instantaneo del tiempo t. De la funcion de distribucion (1) podemos calcular a n, a la presion, p y la densidad de masa-energia ρ. n = ∫ f(k) d 3 k =
g 2π 2 (E 2 −m 2)1/2 EdE exp[(E−µ)/T]±1 2 ∞ (E 2 −m )1/2 g E 2 dE 2π 2 m exp[(E−µ)/T]±1

∫m

( 2) (3)

ρ = ∫ E f(k) d 3 k =

p=∫

1 3

k 2 f(k) d 3 k = E

g 6π 2

∫m

(E 2 −m )3/2 exp[(E−µ)/T]±1

2

dE

(4)

(k denota el momentum) Para un conjunto de particulas relativistas, la presion p, correspondiente a una velocidad v, es: p = m(v 2 /3 1 − v 2 ) que es la misma ec. que la ec. p = (k 2 / 3E). Con mucha algebra se puede demostrar que la cantidad s, densidad de entropia, es tal que la cantidad (sR 3 ) sera conservada, que es la entropia total. Donde s = (ρ + p − nµ)/T Las expresiones se simplifican mucho en ciertos casos limite: (1) particulas ultrarelativistas, cuando T >> mc 2 (2) caso no-degenerado: T >> µ en estos, ρ
g 2π 2

∫0

E 3 dE exp(E/T)±1

= g B (π 2 /30) T 4

(Bosones)

(5)

= (7/8)g F (π 2 /30) T 4 (Fermiones)

(6)

67 Asi la densidad de energia total contribuida por todas las especies juntas es: ρ total = ∑ g i (π 2 /30)T 4 + (7/8) ∑ g i (π 2 /30)T 4 = i i
i=boson i=fermion

= g total (π 2 /30) T 4 donde g total = ∑ g B (T B /T) 4 + (7/8) ∑ g F (T F /T) 4 (8)

(7)

La presion debida a las especies relativistas es p (ρ/3) = g(π 2 /90) T 4 tal que la densidad de entropia de las mismas sera: (ρ + p) = 2π 2 q T 3 45

s

1 T

(9)

con la q identica a la g, excepto por la potencia 3 en los cocientes de T B / T El analisis anterior demuestra que la entropia, S = qT 3 R 3 se conserva durante la expansion. Tambien podemos calcular la densidad de las particulas relativistas de modo analogo n= (ς(3)/π 2 )g B T 3 (boson) (3/4)(ς(3)/π 2 )g F T 3 (fermion) (10)

En el caso limite opuesto, cuando la T << mc 2 , podemos hacer el mismo analisis y demostrar que [Padmanabhan, 1995] ρ n m y p = n T << ρ

y tambien que la densidad de energia (y numerica) de las particulas no-relativistas esta exponencialmente amortiguada por el factor exp(-m / T) con respecto a las

68 de las relativistas. Asi, para tiempos t < t equal , en la era del Universo cuando dominaba la radiacion, podemos ignorar la contribucion de las no-relativistas a la ρ. Y por la ecuacion de Friedmann, durante esa era, R(t) ∝ t , asi R R
2

= H 2 (t) =

1 4t 2

=

8πG 3

ρ=

8πG 3

g ( π )T 4 30
2

(11)

Es util expresar estas cantidades en terminos de la masa de Planck [Wheeler,1973] MP = Òc/G = 1.22x10 19 GeV/c 2

y pasar a unidades donde: Ò = 1, c = 1

H( T )

1.66 g

T2 MP
−2

(12)

t

P 0.3(1/ g ) M2 T

1seg

T 1 MeV

(1/ g )

(13)

El factor g cuenta el numero de grados de libertad de aquellas particulas que son aun relativistas a esta temperatura T. Cuando esta disminuye, mas y mas particulas se haran no-relativistas, y g y q disminuiran; asi g = g(T) y la q(T) son funciones que varian lentamente y disminuyen con la T. En los modelos aceptados de interacciones de particulas, g g g 100, para T 300 GeV; 10, para T (100 − 1)MeV y 3, para T < 0.1 MeV.

La variacion lenta de q(T) tiene una consecuencia importante. La expresion

69 para la entropia conservada en la epoca dominada por la radiacion es la eq.(9) Asi la T disminuye como 1/ R en tanto que q(t) es constante. Si el numero q cambia, entonces la T disminuira mas lentamente que 1/ R; la relacion correcta es q(T) T ∝ 1/ R

3

Puede demostrarse que las particulas se hacen no-relativistas cuando el Universo se ha expandido lo suficiente, lo que sucede cuando la temperatura cae debajo del valor T NR y la energia mc 2 , en este caso: el momentum k << mc mc 2

E = ( k 2 c 2 + m 2 c 4 ) 1/2

Fondo de Reliquias de Particulas Relativistas Dado el espectro de las masas y las interacciones (nuclear y debil, electromagnetica) de las particulas, el formalismo matematico desarrollado previamente puede usarse para hacer predicciones concretas. Para entender los procesos que suceden en el Universo primigenio, cuando la temperatura era T, es necesario conocer la fisica de tales interacciones a energias E distintas: (i) el entendimiento de tal fisica es razonablemente completo para energias menores de 1 GeV, y debemos disponernos a seguir la evolucion del T. y el analisis puede ser dividio en tres fases

70

Universo desde una temperatura de T ~1 GeV ~1.2 x 10 13 K, hacia menores T, con una exactitud razonable. (ii) Hay modelos teoricos que intentan describir a las interacciones en el rango de energias de 1 GeV hasta 10 16 GeV. Y son comparativamente mas especulativos, con sus incertidumbres que se incrementan con la energia. El rango (1 – 100) GeV es algo mejor entendido porque es accesible en los actuales aceleradores de particulas. Dado un modelo especifico de Fisica de Particulas, la evolucion del Universo en este rango de temperaturas, puede ser estudiada: desde: 10 16 GeV ~1.2 x 10 29 K, hasta: 1 GeV ~ 1.2 x 10 13 K, Como los modelos no son unicos, no pueden hacerse predicciones univocas. Pero con frecuencia es posible deducir algunas consecuencias de tales modelos que pueden ser comprobados al hacer observaciones cosmologicas. (iii) La Fisica, a energias arriba de los 10 16 GeV, es muy incierta, se supone que hay efectos cuanticos en la gravitacion, de los cuales se conoce poco pues no hay una Teoria Cuantica de la Gravitacion aceptada. Tales efectos seran significativos a energias E MP 1.2 x 10 19 GeV.

71

La base de los analisis previos, la Relatividad General Clasica, falla a esas energias. La incerteza en el conocimiento sobre las interacciones de particulas a altas energias nos previene de predecir una composicion material unica o historia evolutiva de nuestro Universo. Para hacer cualquier progreso, es necesario hacer suposiciones razonables acerca del contenido material en algun momento del tiempo y desarrollar las consecuencias. puesto que los procesos fisicos son,relativamente, bien entendidos a temperaturas T primero esta fase de la evolucion. Si la masa del electron m e 0.5 MeV = 6 x 10 9 K, esperamos una T 12 K, discutiremos

densidad numerica significativa (i.e. densidad comparable a la de fotones) de electrones y de positrones, ultra-relativistas a T >10 9 K. Las unicas otras especies de particulas que podrian ser relativistas a la temperatura T =10 12 es el neutrino (ν). Se sabe que hay 3 tipos (”sabores”) de neutrinos, asociados con: el electron, el muon, y el lepton pesado (τ) y que sus masas no se conocen con precision, pero sus cotas superiores experimentales son: 10 −3 eV, 5x10 −3 eV, y: 0.05 eV, respectivamente. [estas cotas son basadas en la deteccion de oscilaciones de las masas de los

72

neutrinos y en modelos teoricos, y son cantidades tentativas] Supondremos, por ahora, que las tres masas de reposo, son cero. Los neutrones (n) y los protones (p) contenidos en el Universo actual, deben haber existido cuando T = 10 12 , tambien, porque estas particulas no pudieron ser producidas cuando la T disminuyo a T < 10 12 K. El cociente entre la densidad numerica de bariones, n B y la densidad de fotones, n γ permanecio aproximadamente constante desde T hasta la epoca actual. Este cociente, actualmente, es (n B /n γ ) 0 (ρ c Ω B /m B n γ ) 0 (10 −8 —10 −10 ) 10 12 K

La pequeñez de este numero conservado nos muestra que podemos ignorar el efecto de la n B en la dinamica del Universo dominado por la radiacion. Y podria haber una pequeña fraccion de pares muon-antimuon y que se ignoran por simplicidad. Puesto que el numero de fotones no se conserva, su potencial quimico, µ, es cero. La reaccion e + e +  γ + γ mantiene el equilibrio entre los pares y los fotones a esta T. La conservacion del potencial quimico en esta reaccion implica que: µ e + µ e = 0, se puede demostrar que el exceso de e − sobre e + , es: gT 3 2 π 6π 2
µ T µ T 3

n- n

+

(para T >> mc 2 )

(14)

73

Cuando el Universo se enfria hasta una temperatura T << m e c 2 , los electrones y positrones se aniquilan en pares y solo este pequeño exceso sobrevive. La unica otra particula cargada que estara presente es el proton. Puesto que nuestro Universo parece ser electricamente neutro, [la cota a la densidad numerica neta de las cargas libres es: (n Q /s) 10 −27 ]

el exceso de electrones debe ser igual a la densidad numerica de protones n p . se puede demostrar que n− n nγ 1.33 (µ/ T ) 10 −8 << 1,

(15)

asi podemos poner µ

0 para ambos, e − y e + .

Similarmente, de la reaccion ν + ν  e − + e + , se sigue que la suma de sus potenciales quimicos es cero. Hay un exceso de neutrinos sobre antineutrinos, pero este numero no se conoce. Si es grande, entonces el Universo tendra un numero grande de leptones, L, (numero leptonico), que excede al numero barionico B. Puesto que el Universo no parece tener valores grandes de ningun numero cuantico, un valor grande de L requerira una eleccion especial de condiciones iniciales. Esto sugiere que L debe ser pequeño. En ese caso, µ ν = −µ ν Estos argumentos muestran que, a T =10 12 K, la densidad de energia del 0

74

Universo es contribuida por e, e + , ν, ν , γ. Puesto que las interacciones entre ellas mantienen el equilibrio, todas tienen la misma temperatura. Tomando los valores g B = g γ = 2, g e = g e = 2, g ν = g ν = 1 e incluyendo tres ”sabores” (flavors) de neutrinos, encontramos: g tot = g B + (7/8)g F = 2 + (7/8)[2+2+2x3] = 43/4 = 10.75 (16)

Los valores de g para particulas representan a los dos posibles estados de spin para los fermiones, masivos, de spin-1/2. de las formulas anteriores (21),(22) podemos encontrar la relacion precisa: Temperatura - tiempo, para esta epoca o fase de la evolucion: T2 MP
P 0.09 M2 T

H(T)

5.44

t

(17 )

Puesto que los neutrinos no tienen carga, no tienen acoplamiento directo con los fotones. Su interaccion con los bariones puede ser ignorada debido a la baja densidad de los bariones. Asi estos neutrinos son mantenidos en equilibrio por las reacciones como la ν + ν  e − + e + , ν + e  ν + e, etc. La seccion eficaz, σ(E) para estos procesos de I D, es del orden de (α 2 E 2 / m 4 ) donde α X 2.8x10 −2 esta relacionada con la constante de 0.6 por α = (g 2 /4π), y: m X 50 GeV es la

acoplamiento de norma g s

masa del boson vectorial normado, X, que es mediador de la I D.

75

Definiendo a la ”constante de acoplamiento Fermi” G F = (α/m 2 ) x 1.17x10 −5 (GeV) −2 = (293 GeV) −2 G2 E2 F GF T2.

y usando el hecho que E ~T, podemos escribir σ

Puesto que la densidad numerica de las particulas interactuantes es n (ς(3)g/π 2 ) T 3 1.3 T 3 y: < v > c = 1,

la tasa de las interacciones esta dada por: Γ =nσv 1.3 G 2 T 5 . F (18)

La tasa de expansion, de la (3.32) es: H ≅ 5.4(T 2 /M P ). Asi,
3

Γ H

0.24 T

3

MP G −2 F

T 1.4MeV

3

=

T 1.6x10 10 K

(19)

La tasa de interaccion de neutrinos llega a ser menor que la de expansion, cuando la T cae debajo de T D 1 MeV, a T’s mas bajas, los neutrinos son

completamente desacoplados del resto de la materia. Puesto que suponemos que no tienen masa, son relativistas en el tiempo del desacoplamiento. (esta conclusion sera cierta aunque tuvieran masa de reposo m ν << T D 1 MeV ), Su funcion de distribucion en tiempos posteriores es

dada por la distribucion de Bose-Einstein, con una T ν ∝ R −1 . El Universo actual deberia contener un fondo de reliquias de esos neutrinos. con una temperatura T ν = (4/11) 1/3 T γ = 1.9 K

76

semejante al fondo de la radiacion cosmica, CMB, con T = 2.73 K. En la era del desacoplamiento, los fotones, neutrinos y el resto de la materia tenian la misma T. En tanto que la T γ del foton disminuya como 1/ R, los neutrinos y los fotones continuaran teniendo la misma T aunque los primeros se hayan desacoplado. Sin embargo, la T del foton disminuira con una tasa poco mas pequeña si el factor g esta cambiando. En ese caso T γ sera mayor que T ν cuando el Universo se esta enfriando. Tal cambio en el valor de g ocurre cuando el Universo llega a una T m e . Cuando esto sucede, la energia promedio

de los fotones caera debajo de la requerida para crear pares e e . Asi la reaccion inversa e + e +  γ + γ sera suprimida severamente. La reaccion que aniquila pares continuara, resultando en la aniquilacion de pares. Es claro que este proceso cambia el valor de la g. Cuando T D > T m e , los

ν s se han desacoplado y su entropia se conserva, separadamente; pero los fotones (g = 2) estan en equilibrio con los e’s y los e + ’s (con g = 2). Esto da: g(γ, e,e + ) = 2 + (7/8)x4 = (11/2). Para T << m e , cuando la aniquilacion es completa, las unicas especies relativistas en este conjunto son el foton. La conservacion de la entropia, S = q(TR) 3 , aplicada a particulas que estan en equilibrio con la radiacion, muestra que la

77

cantidad q(T γ R) 3 = g(T γ R) 3 permanece constante durante la expansion. (a causa de que todas las particulas tienen la misma T, q = g). Y a causa de que g disminuye durante la aniquilacion, el valor de S luego de la aniquilacion, sera mayor que su valor anterior: S despues /S antes = ( g antes / g despues) = 11/4. Los ν s ,desacoplados, no participan en este proceso, y estan caracterizados por una T ν (t) que cae estrictamente como 1/ R y su entropia, (s ν R 3 ), es conservada separadamente. Sea T ν = K/ R; antes de la aniquilacion, (RT ν ) despues = (RT γ ) antes = K. Se puede demostrar que: (RT γ ) despues = (11/4) 1/3 (RT ν ) despues 1.4(RT ν ) despues

Asi la aniquilacion de pares aumenta la T de los fotones, comparada con la de los neutrinos, por un factor de 1.4

Para calcular la tasa de la expansion, R, en funcion del tiempo, necesitamos determinar la densidad de energia total que es dominada por la radiacion, los pares de particulas y otras componentes relativistas. Esta densidad puede ser π2 k 2 B ) 15Ò 3 c 3

escrita como: ρ = A B T 4 D , (A B = ν

donde:

D=

T Tν

4

3 + (7/8)N ν + 15 Ò 4 2 π (k B T)

∫ 

4d 3 k (2πÒ) 3 e /k B T + 1

78

El primer termino es la densidad de energia del foton, el 2o. es la contribucion de todas las especies de materia relativista interactuante debilmente, en funcion del numero efectivo (N ν )de familia de neutrinos existentes en esa epoca, y el 3er. termino es la densidad de energia en los pares e e . La evolucion de la T ν se calcula por:
4

Tν’ Tν

2

=

8 3

πG A B T 4 D = 0.047 ν

Tν 10 10 K

D (seg) −2

Puede verificarse facilmente que los fotones liberados por este proceso de aniquilacion, llegan a ser rapidamente termalizados por causa de choques con particulas cargadas.(detallaremos estos procesos en la seccion de des-acoplamiento). El analisis precedente esta basado en esta hipotesis. Despues de las aniquilaciones, el factor g no cambia. Ambas T γ y T ν caen como 1/ R y el cociente T ν / T γ = 0.71 se mantiene asi hasta hoy. El fondo de reliquias ν, hoy debe tener una distribucion de Fermi-Dirac con una T ν (4/11) 1/3 T γ 0.71x2.7 K = 1.9 K.

Asi las especies de particulas que permanecen relativistas hasta hoy, seran fotones con una T γ 2.73 K, y tres ”flavors” de neutrinos y antineutrinos

sin masa ( g F = 3 + 3 = 6) con una temperatura T ν .

79 Es facil demostrar que: g(ahora) = 2 + (7/8)x 6 x(4/11) 4/3 3.36 q(ahora) = 2 + (7/8)x 6 x(4/11) 3.91 Las densidades de energia y de entropia de esas particulas relevantes, en el Universo de nuestra epoca actual, son:
2 ρ R = π g T 4 = 8.09x10 −3 10 −4 (gm cm −3 ) 30 2 s = 2π q T 3 45

2.97x10 −3 cm −3

Esta ρ R corresponde a Ω R = 4.3x10 −5 h −2 . Note que ρ R = (g total /g γ )ρ γ 1.68ρ γ ; similarmente, Ω R = 1.68Ω γ .

La densidad de la materia, hoy, es: ρ NR = 1.88x10 −29 Ω h 2 gm/cm 3 El corrimiento-al-rojo z eq al cual la materia y la radiacion tienen iguales densidades de energia, es determinado por la relacion (1 + z eq ) = (ρ NR /ρ R ) Su valor correcto es: (1 + z eq ) = Ω NR ΩR = 2.3x10 4 (Ω NR h 2 )

Esto corresponde a la temperatura T eq = T 0 (1 + z eq ) = 5.5(Ω NR h 2 )eV y al tiempo: t eq
−1/2 (2/3)H −1 Ω NR (1 + z eq ) −3/2 = 5.84x10 10 (Ω NR h 2 ) −2 seg. 0

Se define al t eq al usar la ec. para R(t) que es valida en la fase del dominio de la materia , usando la forma mas precisa de R(t), dara: t eq (exacta) = 0.58 t eq = 3.41x10 10 (Ω NR h 2 ) −2 seg.

80

El tamaño del radio de Hubble cuando el tiempo, t eq es : d H (t eq ) c t eq 1.75x10 21 (Ω NR h 2 ) −2 cm

Esto corresponde hoy, a la escala de longitud: λ eq =d H (t eq )(1 + z eq ) 13Mpc(Ω NR h 2 ) −1 ,

La densidad de entropia, s, la usamos antes para definir a las cantidades conservadas N A = (n A /s) para esas especies de particulas que tienen n A ∝ R −3 . Conociendo el valor actual de la s, podemos calcular explicitamente este numero. Por ejemplo, la densidad barionica actual es: n B = 1.13x10 −5 (Ω B h 2 ) cm −3 , y corresponde al cociente ρcΩ B s mB

nB s

=

= 3.81x10 −9 (Ω B h 2 ).

Con frecuencia la densidad numerica de fotones n γ se usa mas que la s, para definir un cociente bariones/fotones, η ≡ n B , para nuestro Universo. nγ

a causa de que nγ =
2ς (3) π2

T3 = 0

45ς(3) s π4 q s nγ

0.142 s

422 cm −3 ,

este cociente es η= nB nγ = nB s 7 nsB = 2.67x10 −8 (Ω B h 2 )

Este valor es extremadamente pequeño,p.ej., el numero correspondiente en el interior de las estrellas, es: η ~100.

81 Como notamos antes, la densidad de materia dominante en el Universo no es contribuida por los bariones. Parece muy posible que la materia obscura no-barionica contribuya con una fraccion Ω DM bariones contribuyen con solo: Ω B 0.2 − 1, por el contrario los

0.02 h −2 . De esto, Ω = Ω B + Ω DM ≈ Ω DM t eq , sera

Cuando el Universo llego a ser dominado por la materia cuando t

dominado por la materia no-barionica y no por los bariones. La densidad de energia barionica dominara sobre la radiacion cuando ρ B = Ω B ρ c (1 + z) 3 sea mayor que ρ B = Ω R ρ c (1 + z) 4 , esto ocurre cuando el corrimiento z RB satisface la ec. (1 + z RB ) = Ω B = 2.3x10 4 (Ω B h 2 ) ΩR Para Ω B h 2 0.02, esto da: z RB 460.

Hemos empezado con una composicion particular del Universo cuando T =10 12 y dedujimos las consecuencias. No habia antiprotones ni antineutrones. habia un exceso de e’s sobre e + ’s, tal que luego de la aniquilacion de pares sobrevivio un exceso de e’s. Las mismas consideraciones se hacen para p’s y anti-p’s, a temperaturas mas altas que unos pocos de GeV’s, habia un grande numero de antiprotones, antineutrones, etc., pero debe haber habido un exceso pequeño de protones sobre sus antiparticulas. Cuando el Universo bajo su temperatura hasta: T ~ m proton ~ 1 GeV, los pares se aniquilaron dejando un

82 exceso pequeño de protones. Es claro que se han ”puesto a mano” un exceso de bariones en las condiciones iniciales, como para reproducir correctamente el Universo actual. Una teoria mas verdadera y fundamental deberia explicar como surge este exceso de bariones en las eras primigenias. Tal explicacion es posible en algunas de estas modelos de particulas-elementales, y contienen interacciones que pueden cambiar al ”numero barionico” [Sajarov, 1967] y asi producir un exceso de bariones, comenzando desde un estado cuantico simetrico barion-antibarion. La Sintesis de los Nucleos Ligeros Las energias de amarre de los primeros cuatro elementos ligeros, son: Deuteron, Tritio Helio-3 Helio-4 ———————————————————
2

H, 2.22

3

H 6.92

3

He 7.72

4

He son: (en MeV) 28.3

Cuando el Universo se enfria a temperaturas menores de las correspon-dientes a esas energias ( E = kT), se espera que esos nucleos se formen (pues no hay suficiente energia para desintegrarlos) Aunque estas consideraciones sugieren que estos nucleos se forman cuando la E del Universo esta en el rango (1–30) MeV la sintesis actual toma lugar a una T mucho menor, T n ≈ 0.1 MeV La razon para este retraso es la ”alta entropia” de nuestro Universo,

83

esto es: el valor grande del cociente

n γ /n b = η −1

Y su explicacion es: supongamos que las reacciones nucleares: fuertes y debiles son suficientemente rapidas para mantener el equilibrio termico (T.E.) entre las varias especies de particulas y nucleos. En T E, la densidad numerica de una especie A N Z con numero de masa atomica A y carga Z, sera: n A = g A (m A T/2π) 3/2 exp[−(m A − µ A )/T] (20)

donde µ A es el potencial quimico de la especie A La diferencia de masas entre el proton y el neutron Q ≡ m n - m p = 1.293 MeV se retiene el el exponencial pero se puede ignorar en el prefactor m 3/2 ; en este, A m n ≈ m p ≈ m b , un valor promedio, puesto que el µ es conservado en las reacciones que producen A N Z de Z protones y (A-Z) neutrones, µ A para cualquier especie puede expresarse en terminos de µ p y de µ n : µ A = Zµ p − (A − Z)µ n con un poco de algebra se puede demostrar que [Padmanabhan, 2002,p.231]: n A = g A A 3/2 2 −A (2π/m B T) 3(A−1)/2 n Z n A−Z exp(B A / T) p n definimos a la ”fraccion de masa” del nucleo A, por (21)

X A =A(n A /n B )

n B es la densidad de bariones en el Universo. Con algebra se demuestra que: X A = F(A)(T/m B ) 3(A−1)/2 η A−1 X p Z Xn A−Z exp[B A /T] (22)

84

donde

F(A) = g A A 5/2 [ς(3) A−1 π (1−A)/2  2 (3A−5)/2 ]

(23)

La ec.(22 ) muestra cómo la alta entropia del Universo, i.e. un valor pequeño de η retrasa la formacion de los nucleos. Para tener X A ~1, no es suficiente que el Universo se enfrie a una T B A ; es necesario que se enfrie aun mas, tal como

para compensar el valor pequeño del factor η A−1 . La T A a la cual la fraccion de masa de una especie A sera del orden uno,(X A ~1) esta dada por TA
B A /(A−1) (ln η −1 ) + 1.5 ln(m B /T)

(24)

Esta T sera mucho menor que B A ; para 2H. 3 He, y 4 He, y su valor es: {0.07, 0.11, 0.28 MeV}, respectivamente. Asi, aun cuando el T.E. es mantenido, la sintesis significativa de los nucleos puede ocurrir solo cuando T T A = 0.3 MeV , y no a T’s mayores. 1)

Si tal es el caso, entonces esperariamos una produccion significativa (X A de las especies nucleares A, a temperaturas T TA.

Pero sucede que la tasa de las reacciones no es suficientemente alta como para mantener el T E entre las especies. Se debe determinar las T’s a las cuales el T E puede mantenerse y rehacer los calculos para encontrar las fracciones de masa en no-equilibrio. se emplearon las densidades, n p y n n , en equilibrio, en el anterior analisis,

85

en T E la interconversion entre n’s y p’s es posible por los procesos de las interacciones debiles n + νe  p + e y el decaimiento: n + e+  p + ν n  p + e + ve

e

De la conservacion del potencial quimico en esas reacciones, se encuentra que (µ n − µ p ) = (µ e − µ ν ) 0 puesto que µ e 0, µ ν 0.

entonces el cociente (n /p) sera: nn np = X n = exp(−Q/T ) Xp (25)

Este cociente sera mantenido constante en tanto que las reacciones n-p sean suficientemente rapidas. Pero cuando la tasa de reacciones Γ sea menor que la tasa de expansion H, cuando la T tiene un valor T D , el (n/p) queda ”congelado” a tener el valor exp(-Q/ T D ). El unico proceso que puede continuar a cambiar este cociente, sera el decaimiento del neutron libre . Y éste continuara a disminuir este cociente hasta que todos los neutrones fueron usados en formar los nucleos atomicos. Luego de unos calculos laboriosos [Padmanabhan, 2002]se calcula la T D y las tasas Γ. Estas caen debajo de la tasa de expansion alrededor de: TD (0.8 − 0.7)MeV

86

Asi, el T E entre n’s y p’s existe solo para T Cuando T

TD

0.8 MeV

D

0.7 MeV, la hipotesis del T E ya no es valida, y el 1/6 el ”freeze-out” (1/7), X p (6/7).

cociente (n / p) = exp(-Q/ T D ) que implica las abundancias: X n

Puesto que T A < T D , para todos los nucleos ligeros, ninguno de estos existira en cantidades significativas a esta T D . Por ejemplo, el 2 H contribuye solo con una fraccion de masa X 2 10 −12 , a esta temperatura.

La unica manera de que los n’s sobrevivan es a traves del proceso de sintesis nuclear de los elementos ligeros Conforme la T cae mas aun hasta valer: T = T He 0.28 MeV, una

cantidad significativa de He podria haber sido producida si las tasas de las reacciones fueran suficientemente altas. Estas reacciones: D(D,n) 3 He D(D,p) 3 H D(D,γ) 4 He
3 3

He(D,p) 4 He H(D,n) 4 He

son todas basadas en el D, 3 He y 3 H y no suceden suficientemente rapido porque las fracciones por masa, X A , del D, 3 He, y 3 H son aun muy pequeñas: {10 −12 , 10 −19 y 5x10 −19 } cuando T 0.3MeV.

Las reacciones n + p  D + γ llevaran a un cociente equilibrio-abundancia del

87 D, dado por: npnn nD =
4 3

mpmn mD

3/2

(2πkT) 3/2 exp(−B/kT) (2πÒ) 3 n 2.58 T 10

= exp 25.82 − ln Ω B h 2 T 3/2 − 10

# la linea corta vertical en la figura 4.2 indica la temperatura 0.105x10 10 K en la cual la abundancia del D en equilibrio pasa a traves de la unidad para: Ω B h 2 = 0.013. De la ec.anterior vemos que la configuracion salta abruptamente de neutrones libres a deuterones, con la mayoria de la produccion del D ocurriendo en esta temperatura critica. La tasa de la reaccion previa, es: <σ v> ≈ 4.6x10 −20 cm 3 /seg, implicando que: n σ v t >> 1 alrededor de este instante, asi ”cocinando” a los mas de los neutrones libres, en deuterones. Estas abundancias llegan a ser casi la unidad solo cuando T 0.1 MeV; asi,

solo a esta T estas reacciones pueden ser lo suficientemente rapidas como para producir una abundancia de 4 He. Cuando la T llega a ser 0.1 MeV las

abundancias del D y del 3 H aumenta y estos elementos reaccionan posteriormente,para producir 4 He. Aqui se ha pasado el llamado ”cuello de botella del deuteron” La abundancia resultante del 4 He puede ser facilmente calculada suponiendo que todos los neutrones acaban formando al 4 He. Puesto que cada nucleo de 4 He tiene dos neutrones, se pueden formar (n n /2)

88

nucleos de 4 He (por unidad de volumen). Asi la fraccion de masa del 4 He,sera 4(n n /2) 2(n/p) Y= n +n = = 2 x c (donde x c es la abundancia de n’s al n p 1 + (n/p) tiempo de la produccion del D) (n = n n , p = n p ) (26)

Para Ω B h 2 = 0.013, x c ≈ 0.11, dando: Y ≈ 0.22. Aumentando la densidad barionica hasta valer 1, hara que Y ≈ 0.25. Un ajuste razonable al cociente n /p en el tiempo de la formacion del D, es dado por: nn np 0.613(Ω B h 2 ) 0.04 (N ν /3) 0.2

Un ajuste mas exacto para la dependencia de la abundancia del He de varios parametros, es dada por: Y = 0.226 + 0.025 logη 10 + 0.0075(g ∗ − 10.75) + 0.014[τ 1/2 (n) –10.3 min] donde η 10 mide el cociente barion/foton actual, por medio de la relacion: T0
2.73 K

Ω B h 2 = 3.65x10 −3

η 10

g ∗ es el numero efectivo de grados de libertad relativistas que contribuyen a la densidad de energia, y τ 1/2 es el promedio de vida del neutron: 886.7±1.9 seg. Los mejores ajustes, con errores tipicos, a las abundancias de: D, He3, y Li calculadas de la teoria, para el rango η = 10 −10 —10 −9 , son: η 5x10 −10
−1.6

Y2 ≡

D H

p

= 3.6x10 −5 ± 0.06

89

Y3 ≡

3

He H

= 1.2x10 −5 ± 0.06
p

η 5x10 −10 η 5x10 −10

−0.63

Y7 ≡

7

Li H

= 1.2x10 −11 ± 0.2[
p

−2.38

+ 21.7

η 5x10 −10

2.38

]

Cuantitativamente podemos entender estos resultados como sigue: El cociente (n/p) en la epoca del ”freeze-out” (la exclusion), t D , era (1/6); desde t D hasta el tiempo de la nucleosintesis, t NS , una cierta fraccion de n’s habria decaido, disminuyendo a este cociente. Puesto que el freeze-out ocurrio cuando T D T NS 1 MeV, t D 1 s y la sintesis del 4 He ocurrio cuando

0.1 MeV, t NS

3 minutos, el factor 0.8 MeV, asi, el valor de (n/p) al tiempo 0.25.

del decaimiento sera: exp(-t N /τ n ) de la NS, sera de: ~0.8 x (1/6)

(1/7), y esto da: Y

Cuando las reacciones que convierten el D y el 3 H en 4 He, proceden, la densidad numerica del D y del 3 H es agotada y las tasas de reacciones [que son proporcionales a: Γ ∝ X A (η n γ ) < σv >] se hacen pequeñas. Estas pronto se excluyen o cancelan (freeze-out) dejando una fraccion residual del D y del 3 H ( ~10 −5 a 10 −4 ) puesto que Γ ∝ η es claro que la fraccion de (D, 3 H) que queda sin reaccionar disminuira con la densidad η.

90 En contraste, la sintesis del 4 He [que no esta limitada por ninguna tasa] no depende de η y depende solo del cociente (n /p) cuando T 0.1 MeV. La produccion de elementos aun mas pesados -aun esos como 16 C,
16

O

que tienen energias de amarre mayores que la del He, esta grandemente suprimida en el Universo primigenio. Dos factores son responsables de esta supresion: (1) Reacciones directas entre dos nucleos de He o entre H y He conducirian a nucleos con masas atomicas de 5 y de 8, estas reacciones no conducen a ninguna sintesis posterior.[la interaccion de 3 nucleos:
4

He + 4 He + 4 He Î

12

C, es suprimida a causa de la baja densidad numerica

de los nucleos de He; es esta reaccion (”triple-α”) que ayuda a la sintesis posterior de elementos mas pesados, en el interior de las estrellas] Pero la no-existencia de nucleos estables con numero de masas 5 y 8 origina otro ”cuello de botella”, no existen isotopos estables con esas masas. (2) para que las reacciones procedan es necesario que los nucleos venzan a sus barreras electricas Coulombianas repulsivas. La probabilidad de atravezar las barreras Coulombianas (efecto Cuantico) esta gobernada por el factor F = exp[-2A 1/3 (Z 1 Z 2 ) 2/3 (T/ 1 MeV) −1/3 ] donde A −1 = A −1 + A −1 . Para nucleos pesados (con Z grande), este factor 1 2

91 suprime a la tasa de las reacciones. Cantidades pequeñas (alrededor de 10 −10 a 10 −9 , por masa)de 7 Li son producidas por las reacciones
4

He( 3 H, n) 7 Li

o por la

4

He( 3 He,γ) 7 Be

seguidas por un decaimiento de 7 Be en 7 Li. el primer proceso domina, si η η 3x10 −10 y el segundo, para

3x10 −10 . En el segundo caso, una cantidad pequeña (10 −11 ) de 7 Be

queda como un residuo. Dadas las diferentes tasas de las reacciones nucleares, las abundancias primordiales se calculan al integrar numericamente las ecuaciones diferenciales relevantes. El dato de entrada mas incierto en los calculos es la tasa del decaimiento del neutron, la vida-media del neutron τ ≡ τ n ln 2 = 10.5 ± 0.2 min se conoce solo hasta un 2% de exactitud. Todas las tasas de las I D,: Γ ∝ G 2 (1 + 3g 2 )T 5 son proporcionales a F A T 5 . Un aumento en τ disminuye a todas las Γs y ocasiona que el freeze-out τ [determinado por la ec. H(T D ) = Γ(T D )] ocurra a una mayor T.
5 Puesto que H ∝ T 2 , y: Γ ∝ T encontramos que T D ∝ τ 1/3 . τ

Cuando T D aumenta, el valor de (n /p) tambien aumenta en el tiempo del

92 freeze-out, resultando en un valor mas grande para el 4 He. Los cambios en las demas abundancias no son significativos porque estos cambios estan dentro de los errores observacionales actuales. Los dos parametros cosmologicos principales sobre los cuales dependen los resultados son: g, el numero de grados de libertad de spin (a una T y: η 1 MeV)

Un aumento en la g aumenta a la H(T) ∝ g 1/2 T 2 y lleva a una T

mas alta cuando sucede el ”freeze-out” T D ∝ g 1/6 , y a una mayor abundancia del 4 He. La dependencia en η es mas complicada. puesto que las fracciones

por masa: X A ∝ η A−1 , un valor mas grande de η permitira a las abundancias del D, 3 He, y 3 H aumentar en un tiempo anterior y asi conducir a una formacion mas temprana del 4 He. Puesto que el cociente (n /p) es mayor a tiempos anteriores, esto rsultara en mayor 4 He. Pero este cociente solo varia lentamente con el tiempo cuando T 0.1 MeV, y de aqui esta dependencia es suave.

La cantidad del D y 3 H residuales depende mas fuertemente, de η ; disminuye como η −k con k 1.3. Los canales dominantes para la produccion del 7 Li 3x10 −10 y para η 3x10 −10 .

son diferentes para η

Este hecho lleva a un minimo local en la abundancia del 7 Li alrededor de η 3x10 −10 , donde ni uno ni otro proceso es muy eficiente.

93 Los valores calculados y los medidos para varias abundancias se muestran en la # e indican, con certeza razonable, que (i) (D / H) 1x10 −5 (ii) [(D + 3 He)/H] (1 − 8)x10 −5 (iii) ( 7 Li / H) ~10 −10 (iv) 0.236 < ( 4 He / H) < 0.254. Estas medidas son consistentes con las predicciones teoricas si τ vale: 10.3 min τ 10.7 min, y η = (3 − 10)x10 −10 . (27)

Y puesto que η = 2.68x10 −8 Ω B h 2 , esto lleva a la importante conclusion: 0.011 ≤ Ω B h 2 ≤ 0.037 (28) h 1,

cuando es combinado con las cotas conocidas al factor h: 0.4 se restringe a la densidad barionica del Universo a valer: 0.011 ΩB 0.23

(29)

estas son las cotas mas conservativas a la Ω, hoy. Y muestra que, si no hubieran otras contribuciones a la densidad, por ser menor la densidad a la densidad critica, el Universo debe ser abierto. Pero aqui surge el problema de la materia obscura, que complica la situacion, pues debe agregarse su densidad a la total. Asi, las abundancias de los elementos dependen del cociente (n / p) en la epoca del ”freeze-out”. Si algun mecanismo fisico puede ser construido tal que distribuya a los n’s y p’s diferentemente en el espacio, o sea que no haya homogeneidad, entonces los resultados de la NS variaran de lugar en lugar.

94

Tales modelos cambiaran las cotas a la Ω B deducidas anteriormente. Sucede que,sin embargo, no es posible aun producir modelos viables en los cuales la Ω B =1. Puesto que la produccion del 4 He depende de g, el valor medido del 4 He restringe al numero (N ν ) de neutrinos ligeros (con m ν sido relativistas cuando la T 1 MeV). Las abundancias son predecidas mejor si se toma el valor N ν = 3, no tan consistentes, con N ν = 4, y si N ν > 4, no hay concordancia. Las cotas medidas en laboratorios, del numero total de particulas neutrinos que son menos masivas que (m z /2) es de N ν = 2.79 ± 0.63. Esto se determina al medir la anchura del decaimiento del Z 0 ; cada particula con masa menor que (m z /2) contribute con cerca de 180 MeV a este ancho. Esta cota es consistente con las observaciones cosmologicas. Debe señalarse que la determinacion observacional de las abundancias primordiales no es inmediata, y debemos cambiar a una cantidad de procesamiento de datos para llegar a los numeros finales. Sumarizaremos brevemente estos asuntos empezando con la del Deuterio, la cual es crucial en establecer las cotas 46 GeV y se acoplan al boson Z 0 , 1 MeV que habrian

95

a la fraccion de bariones. Hay dos ventajas al usar el D para medir la densidad barionica. La primera surge de la sensitividad exponencial de tal abundancia con la densidad barionica, permitiendonos, asi, determinar a η con una exactitud de ~5% si la abundancia del D se conoce con una exactitud de ~10%. Y el D puede ser destruido durante la evolucion estelar, pero no ser creado; de aqui que cualquier abundancia del D observada, es una cota mas pequeña a la abundancia primordial, asi permitiendonos poner una cota superior a la densidad barionica. Absorbedores Lyman-α de alto corrimiento, permiten,en principio,la determinacion directa de la abundancia del D en forma pura, primordial. En la practica, tenemos ahora cuatro de tales candidatos de medidas en las cuales los resultados no son conclusivos si no inconsistentes. Los errores sistematicos surgen de la reduccion de datos y del hecho que las lineas espectrales del D necesitan ser distinguidas de las lineas del hidrogeno que estan corridas debido a la velocidad. # El Desacoplamiento de la Materia y la Radiacion A temperaturas debajo de 0.1 MeV, los principales constituyentes del Universo seran el nucleo de Hidrogeno (un proton), Helio-4, electrones, fotones y neutrinos desacoplados. Si m e = 0.5 MeV los iones y electrones puden ser

96 considerados como no-relativistas. Estos interactuan entre si y con fotones por varios procesos electromagneticos: brehmstralung, dispersiones de Compton y de Thomson, y de Coulomb entre particulas cargadas, la re-combinacion: (p+e  H + γ) Decidir cuando esos procesos pueden mantener el T E, (termalizacion) entre constituyentes, debemos comparar las varias tasas de las interacciones, con la tasa-velocidad de la expansion. El promedio del tiempo libre para dispersion de Coulomb entre electrones, es: t ee (n e σ v) −1 ∝ n −1 (m / T) 1/2 (e 2 / T) −2 = n e m T
1/2

e2 T

−2

1 (30) π ln Λ

donde ln Λ se origina de choques distantes y vale ~30 [Lifshitz,1981] La densidad de electrones libres es n e , puesto que la recombinacion cambia a este numero, escribiremos n e = x e n B ,donde x e es la fraccion de las particulas cargadas que no se han combinado para formar atomos. Veremos mas adelante que x e es casi la unidad para T 1 eV y disminuye

rapido a un valor de ~10 −5 , cuando T ≈0.1 eV . Insertando valores, tenemos: t ee = 1.35 s(T/1 eV) −3/2 (x e Ω B h 2 ) −1 (31)

el cual es mucho mas pequeño que la escala de tiempo de la expansion H −1 (T) = 1.46x10 12 s(T/1eV) −2 (para t < t eq ) (32)

97 H −1 (T) = 1.13 x10 12 s(Ω h 2 ) −1/2 (T/ 1eV) −3/2 (para t > t eq ) en todo tiempo. (Aun cuando x e ha caido a un valor final de 10 −5 , t ee << H −1 ). Un calculo similar mostrara que los iones y los electrones tambien interactuan con una tasa suficientemente rapida. Asi estas dispersiones pueden mantener facilmente la distribucion termica de la materia (termalizacion). La igualdad de las temperaturas entre la materia y la radiacion tiene que ser mantenida por la interaccion entre fotones y electrones. La forma mas simple de la interaccion entre estos, es la dispersion de Thomson no-relativista, a baja energia, con el tiempo-libre-promedio de 1 t t hom = n e σ c = 6.14x10 7 seg(T/1eV) −3 (x e Ω B h −2 ) −1 T donde σ T = 8π 3 e2 mc
2

(33)

es la seccion de dispersion de Thomson.

Pero este proceso, no puede ayudar en la termalizacion, porque no hay intercambio de energia entre foton y electron en el limite de la dispersion de Thomson. La dispersion con tal intercambio es llamada: dispersion de Compton En adicion a esta, el ”bremsstrahlung” (radiacion por frenado) y su proceso inverso:(la absorcion libre-libre) puede tambien a ayudar a mantener el T E entre los fotones y la materia. Estos son los procesos para ser estudiados.

98

Veremos que la dispersion de Thomson es el mecanismo dominante a altas T’s. La escala de tiempo de este proceso es calculada como sigue: La trayectoria-libre-promedio de un foton entre dos colisiones es: λ γ = (σ T n e ) −1 Asi el foton, al viajar una distancia , ejecuta un camino aleatorio, y sufrira de N colisiones, donde: N 1/2 λ γ = . El cambio fraccional de la frecuencia en cada dispersion de Thomson, es: (δν/ν) (v /c) 2 (T/m).

Tratando esto como otro camino aleatorio en espacio de frecuencias, podemos determinar el cambio neto en la frecuencia luego de N colisiones, a ser: (δν/ν) N 1/2 (T /m) = ( /λ γ )(T /m).

El intercambio de energia por dispersion de Compton puede ser considerado efectivo cuando (δν/ν) 1, lo cual da la escala temporal: λγ
m T

tc

= n e1 T σ

m T

(34)

note que t c es mayor que la escala temporal de la dispersion Thomson, por el factor (m / T). Este factor es mucho mayor que 1, en el rango de temperaturas en el que estamos interesados. Substituyendo numeros, tenemos: tc λγ
m T

= 3.0x10 13 s(Ω B h 2 x e ) −1 (T /1eV) −4

(35)

comparando con H −1 , encontramos que:

99
−2

tc = H −1

T −1/2 4.54 x e (Ω B h 2 ) −1/2 eV

(36)

Asi este proceso es importante en mantener el T E entre materia y radiacion para T 5 eV, correspondiendo a un corrimiento z > 1.7 x 10 4 .

Los fotones son fuertemente influenciados por las particulas cargadas, hasta este valor del corrimiento al rojo. # para comparar, consideremos la escala de tiempo de la radiacion de frenado inversa, (llamada ”absorcion libre-libre” pues el electron absorbe un foton, inversamente a la radiacion por frenado). Para un plasma con temperatura T, la escala de tiempo para este proceso de absorcion, t ff (ω), esta dado por: (37) y para fotones con frecuencia ω T , tenemos (38) #: Asi, t ff deja de ser efectiva a una muy alta T (39) 10 4 eV.

Es de notar que la dispersion de Compton no cambia el numero de fotones, asi este proceso solo, nunca puede conducir a un espectro de Planck, si el sistema originalmente tenia el numero incorrecto de fotones para una energia total,dada. Y puesto que la radiacion por frenado y su inverso, pueden cambiar el numero de fotones, ellos pueden llevar a una verdadera termalizacion. En este contexto particular, el sistema tiene el numero correcto de fotones, a causa de las condiciones iniciales.

100 El analisis anterior muestra que hay varios procesos que pueden mantener a la radiacion y a la materia fuertemente acopladas hasta una temperatura de cerca de unos pocos de electron-volts, con tal que exista un numero suficiente de particulas cargadas libres (i.e.: x e ≈1). Un agotamiento de estas, ocurre por el proceso de (re)combinacion, en el cual los electrones y los iones se combinan para formar sistemas atomicos neutros. Por sencillez consideremos solo la formacion del atomo de Hidrogeno neutro (H). Su energia de amarre es de 13.6 eV. Cuando el Universo se enfria a temperaturas por debajo de este valor, esta formacion de estructuras es favorecida energeticamente. Pero, como en el caso de la NS, la alta entropia retrasa este proceso hasta que la temperatura cae a un valor mucho mas pequeño, T atom 0.29 eV.

Debajo de esta T, los mas de los p’s y e’s forman atomos neutros, dejando solo una pequeña fraccion (~10 −5 ) de e’s y p’s libres. La desaparicion de particulas cargadas libres reduce la seccion de dispersion entre los fotones y las particulas, asi aumentando la trayectoria-libre-promedio de los fotones (λ γ ). Cuando λ γ cH −1 , los fotones 0.26 eV.

se desacoplan del resto de la materia; esto sucede cuando T = T dec

El Universo se hace transparente y es el origen de la radiacion de fondo (microondas) La Temperatura, T atom , a la cual los atomos de H son formados, puede ser calculada

101 por metodos similares a los empleados anteriormente, si hacemos las hipotesis simplificativas: (i) el sistema esta en T E, y (ii) el proceso de recombinacion procede a traves del e y el p combinandose para formar un atomo de H en el estado base. (ninguna de estas hipotesis es completamente correcta, discutiremos las modificaciones requeridas en un escenario mas realista, mas adelante). En T E, las densidades numericas de protones (n p ), electrones (n e ) y atomos de hidrogeno (n H ) estan dadas por la formula usual, de Maxwell-Boltzman: ni = gi miT 2π
3/2

exp[ 1 (µ i − m i )] T

(37)

donde i = {e − , p, H}. El equilibrio es mantenido por la reaccion: p + e  H + γ El balance del potencial quimico en esta reaccion implica que µ p + µ e = µ H . usando esta relacion y expresando a µ p y a µ e en terminos de n p y n e , n H , se tiene gH meT g p g e n p n e 2π
−3/2

la ec. de Saha:

nH =

exp

B T

(38)

donde B = m p + m e – m H = 13.6 eV es la energia de amarre, y aproximamos: m p ≈ m H en el prefactor, m −3/2 . Introduciendo la ”ionizacion fraccional”, x i , para cada una de las especies de particulas y usando los hechos: n p = n e y: n p + n H = n B , se sigue que: x p = x e y: x H = (n H / n B )= 1 – x e . la ec. (38) puede ser escrita en funcion de x e solo: 1 − x e = 4 2 ς(3) η T me π x2 e
3/2 3/2

exp(B/T)

T 3.84η m e

exp(B/T)

(39)

102

donde η = 2.68x10 −8 (Ω B h 2 ) es el cociente (bariones/fotones). Podemos definir T atom como la temperatura a la cual el 90% de los e’s se han combinado con p’s: i.e. cuando x e =0.1. Esto lleva a la condicion (Ω B h 2 ) −1 τ −3/2 exp(−13.6τ −1 ) = 3.13x10 −18 (40)

donde τ = (T/1eV).Para un valor dado de (Ω B h 2 ) esta ec.puede ser resuelta por iteracion. Tomando logaritmos e iterando una vez tenemos τ −1 3.084 − 0.0735 ln(Ω B h 2 ) (41)

con el correspondiente corrimiento al rojo (1 + z) = (T/ To) dado por (1 + z) = 1367[1–0.024 ln(Ω B h 2 )] −1 para Ω B h 2 = {1, 0.1, 0.01} tenemos: T atom {0.324 eV, 0.307, 0.292 eV} respectivamente. Estos valores corresponden a un corrimiento de: z ={1367, 1296 y 1232} Para el beneficio de definitividad, los valores promedio: (1 + z) atom ≡ 1300; T atom = To(1+z) atom = 0.308 eV (43) (42)

seran adoptados en una discusion futura, como la era de la formacion de los atomos. Puesto que el analisis previo esta basado en densidades en equilibrio, es importante checar que la tasa de las reacciones p + e  H + γ es lo suficientemente rapida como para mantener el equilibrio.

103

La seccion transversal promediada termicamente para el proceso de recombinacion esta dada por <σv> 4.7x10 −24 (T / 1eV) −1/2 (44)

la seccion transversal para la interaccion, es proporcional al cuadrado de la longitud de onda, de Broglie, λ 2 ∝ v −2 ; de aqui, σ v tiene una dependencia v −1 ∝ T −1/2 . La tasa de reacciones, sera asi: (45)

Γ = n p < σ v > = (x e η n γ ) < σ v > = 2.374 x 10 −10 cm −1 τ 7/4 e −(6.8/τ) (Ω B h 2 ) 1/2 En obtener esta expresion, hemos aproximado la ec. (39) por la
1/2

xe ≈

π 4 2 ς(3)

T η −1/2 m e

−3/4

exp(−6.8/τ)

(46)

la cual es valida para x e <<1. Esta Γ tiene que ser comparada con la tasa de expansion, H, del Universo. Tomando al Universo a ser dominado por la materia a esta T, tenemos: H = 2.945 x10 −23 cm −1 (Ω B h 2 ) 1/2 τ 3/2 igualando las dos ecs., tenemos: τ −1/4 e −(6.8/τ) = 8.06x10 12 (Ω B h 2 ) 1/2 (48) (47)

Esta ec. puede ser resuelta tambien al tomar logaritmos e iterar la solucion. encontramos que:

104

τ −1 Para Ω

4.136 − 0.074 ln(Ω/Ω B ); (1 + z) = 977[1 − 0.017 ln(Ω/Ω B )] −1 (49) Ω B , esto da T D 0.24 eV. El hecho que T D < T atom justifica la

hipotesis del T E usada en el calculo previo. Hay, sin embargo, otras dificultades con esta hipotesis, las cuales discutiremos luego. Cuando la tasa de las reacciones cae debajo de la tasa de expansion, Γ < H, la formacion de los atomos neutros cesa, Los electrones y protones restantes tienen una probabilidad muy pequeña de combinarse unos con otros. La fraccion residual puede ser calculada como la fraccion presente cuando T = T D , i.e.: x e (T D ). Combinando las ecs. (46) y la (48), se tiene: TD 1eV
−1

x e (T D ) para T D

7.382 x 10 −6

Ω 1/2 ΩBh

(50)

0.24 eV, esto da: 3x10 −5 Ω 1/2 ΩBh

x e (T D )

(51)

asi una pequeña fraccion de e’s y de p’s ( ~10 −5 ) permaneceran libres en el Universo. La formacion de los atomos afecta a los fotones, los cuales estaban en T E con el resto de la materia debido a los varios procesos de dispersion descritos anteriormente. Es facil de verificar que las escalas temporales de la dispersion de Compton y de la absorcion de fotones (libre-libre) se hacen mucho mas grandes que la escala temporal de la expansion cuando x e cae a

105

su valor residual. El unico proceso de dispersion que es aun poco operacional es la dispersion de Thomson; este proceso meramente cambia la direccion del foton, sin algun cambio de energia. Su unico efecto es hacer que el foton ejecute un camino aleatorio. Cuando la densidad numerica de las particulas cargadas disminuye, aun esta tasa de interacciones, Γ, de los fotones, disminuye y, eventualmente, para alguna T = T dec , llega a ser menor que la tasa de expansion. Para T < T dec , los fotones se desacoplan del resto de la materia. La tasa de la dispersion de Thomson esta dada por: Γ = σ ne = σ xe nB = σ xe η nγ = 3.36x10 −11 (Ω B h 2 ) 1/2 τ 9/4 exp(−6.8/τ) cm −1 comparando esta ec. con la tasa de expansion, H H = 2.945 x 10 −23 (Ω h 2 ) 1/2 τ 3/2 tenemos la condicion τ −3/4 e 6.8/τ = 1.14x10 12 (Ω B /Ω) 1/2 donde τ = (T dec /1eV). τ −1 (54) (53) (52)

Resolviendo esta con una iteracion, nos da: (55)

3.927 + 0.0735 ln(Ω B /Ω)

la cual corresponde a los parametros

106

T dec Para T

0.26 eV;

(1 + z dec )

1100

(56)

0.2 eV, la materia neutral y los fotones se desenvuelven como

sistemas no-acoplados. El parametro T que caracteriza el espectro de Planck continua a disminuir como R −1 a causa del corrimiento al rojo de los fotones. La materia neutral se comporta como una mezcla gaseosa de H y de He. Debe ser subrayado que tienen lugar tres eventos distintos en el Universo cuando la T (0.3 − 0.2) eV :

(1) los mas de los p’s y de e’s se combina para formar atomos de H (2) el proceso de recombinacion se detiene, dejando a una pequeña fraccion de e’s y p’s libres, cuando la tasa de las interacciones para: p + e  H + γ cae por debajo de la tasa de expansion. (3) la trayectoria-libre-promedio del foton se hace mayor que c / H, desacoplando a la radiacion de la materia. Esto eventos ocurren casi en la misma epoca porque η ΩB 10 −8 y Ωh 2 1

1. Para un conjunto diferente de valores de estos parametros, estos

eventos podrian ocurrir en epocas diferentes. Despues del desacoplamiento, la T de los atomos neutros disminuye mas rapido que la de la radiacion. La disminucion de esta T, esta gobernada por la ec. dT m + 2 R T = 4π 2 σ x T 4 (T – T ) m R m 45 T e m dt donde T es la temperatura de la radiacion. El termino 2(R’/R)T m (57)

107

describe el enfriamiento debido a la expansion mientras que el termino en el lado derecho da cuenta de la transferencia de energia de la radiacion a la materia. Este proceso esta ahora gobernado por el tiempo de relajacion para la materia, el cual es dado por t materia 1 σT x e n γ m T (58)

A altas temperaturas (x e

1), t mater

t c (n e / n γ ) << t c ;

entonces: T m ≈ T hasta un alto grado de exactitud. Cuando x e se hace pequeño, t mat aumenta y la transferencia de energia de la radiacion a la materia llega a ser menos y menos efectiva. El termino del enfriamiento adiabatico hace que T m caiga mas rapido que la T rad . El tiempo de relajacion t mat llega a ser del orden del tiempo de expansion cuando T 0.27 eV (z 1150) y (t 10 13 s ~10 6 años)

A temperaturas mas bajas la T mat cae un poco debajo de Tm ∝ R −2 . La fraccion pequeña de materia ionizada ( n e np 10 −5 n B ),sin embargo,

continua a ser afectada por los fotones. La trayectoria-libre-promedio, 1 σT n γ que gobierna este proceso es mucho menor que la del foton , porque n γ >>n e . λe = La escala de tiempo correspondiente t electron = (n e / n γ ) t c ,sera

108 t electron = 2.15 x 10 6 s (T / 1 eV) −4 la que conduce al cociente t elec = (Ω h 2 ) 1/2 (T / 60 K) −5/2 (60) B H −1 Asi los e’s libres estan amarrados al campo de radiacion hasta un z ~20. (En otras palabras: el pequeño numero de e’s tiene muchas colisiones con un numero pequeño de fotones, aunque los mas de estos no son afectados) Este proceso es, asi, capaz de mantener la temperatura de los e’s libres al mismo valor de T en el espectro de fotones hasta un z ≈ 20. Por supuesto esta interaccion tiene muy poco efecto sobre los fotones, debido al numero pequeño de particulas cargadas presente. Discutiremos ahora las varias aproximaciones que se han hecho en los calculos previos. Para empezar, note que hemos supuesto un proceso de recombinacion que produce directamente un atomo de H en su estado base. Este emitira un foton con una energia de 13.6 eV en cada recombinacion. Si n γ (B) es la densidad de fotones en la radiacion de fondo, con energia B=13.6 entonces, n γ (B) n 16π T 3 exp(−B/T) n 3x10 7 exp(−13.6/ τ) (Ω B h 2 ) (59)

(61)

Este cociente vale uno cuando T ~0.8 eV (cuando z ≈ 3300) y disminuye rapido a temperaturas mas bajas. Asi, a estas temperaturas, la adicion de fotones

109

con 13.6 eV debida a la recombinacion, aumenta significantemente la disponibilidad de fotones ionizantes. Estos fotones energeticos tienen una alta probabilidad de ionizar a los atomos neutros formados un poco tiempo antes. (Esto es, la reaccion inversa H + γ Î p + e, es incrementada) De aqui que este proceso no es muy efectivo en producir un numero neto de atomos neutros. El proceso dominante que opera realmente, es uno en el cual la recombinacion ##procede a traves de un estado excitado: (e + p Î H* + γ; H* ÎH + γ 2 ) Esto producira dos fotones cada uno, de los cuales tiene menos energia que el potencial de ionizacion del atomo de H. Los niveles 2P y 2S proveen la ruta mas rapida para la recombinacion; el decaimiento del 2P produce un solo foton, mientras que el del 2S es atraves de dos fotones. Puesto que el proceso inverso no ocurre a la misma velocidad, esta es una recombinacion de no-equilibrio. A causa de la complicacion anterior, la recombinacion procede a una tasa mas lenta comparada con la predicha por la ec. de Saha. La ionizacion fraccional actual es mayor que el valor predecido por la ec.de Saha a temperaturas T 1300 K. por ejemplo, en z = 1300, estos valores difieren 900, difieren por un factor de 200.

por un factor de 3; en: z

110

Los valores de T atom , T dec etc., sin embargo no cambian significativamente. # p.256 y 117

Los fotones emitidos durante la recombinacion no pueden ser termalizados efectivamente, y asi, distorsionan el espectro de cuerpo negro, de Planck. Las distorsiones estan en la parte de altas frecuencias ( ν / T > 30) del espectro, que corresponde a: ν 1.5x10 12 Herz ( λ 0.02 cm) actualmente.

(El espectro de Planck tiene solamente 10 −10 de todos los fotones, en el rango ν / T >30). Desafortunadamente, los nucleos galacticos y el polvo emiten muy intensamente en la region λ < 3 x 10 −2 cm, completamente apantallando a esta señal primordial. Los fotones que se desacoplan de la materia en esta epoca (z ≈ 10 3 ) propaganse libremente y estan presentes cuando z = 0 como radiacion termica de fondo, llamada usualmente: radiacion de microondas, del fondo cosmico, (CMBR) Siendo una reliquia de una epoca en la cual el Universo era 1000 veces mas pequeño esta radiacion contiene informacion muy valiosa acerca de las condiciones fisicas que prevalecian en aquella epoca. # Universo muy primigenio y campos cosmologicos escalares ————————————————————————————– COSMOLOGIA La expansion, observada, del Universo es un resultado de cualquier modelo

111

cosmologico homogeneo e isotropico basado en la relatividad general.(EGR) Pero,´por si misma, la expansion no nos da sufiuciente evidencia de lo que generalmente es referido como: el modelo cosmologico de la gran explosion. La GR en principio es capaz de describir la cosmologia de cualquiera dada distribucion de materia, es muy afortunado que nuestro Universo aparece ser homogeneo e isotropico en escalas grandes de distancias. Juntas, estas propiedades nos permiten extender el Principio Copernicano al Principio Cosmologico que enuncia que todas las posiciones espaciales en el Universo son equivalentes. La formulacion del modelo BB empezo en los 1940s con el trabajo de Gamow y sus colaboradores Alpher y Herman, Con objeto de explicar el origen cosmo-logico de las abundancias de los elementos, propusieron que el Universo primigenio era muy denso y muy caliente, y se expandio y se enfrio hasta su estado actual. [ver la seccion de historia de la nucleosintesis al final de este trabajo] En 1948 ellos predijeron una consecuencia directa de este modelo: la presencia de una radiacion de fondo, reliquia, con una temperatura de 5 K. La cual fue observada en 1964 como la radiacion, en la franja de microondas, con una T ~3 K Y fue esto lo que señalo al modelo BB como la teoria perfecta para describir al

112

Universo. El Universo de Robertson-Walker Las propiedades observadas del Universo permiten describir su geometria y evolucion en funcion de dos parametros que dan cuenta de su curvatura espacial y su expansion estas funciones aparecen en la expresion mas general de una metrica espacio-temporal de un espacio de 4 dimensiones, la cual tiene un subespacio maximamente simetrico es la metrica Robertson-Walker:
2 2

d s =d t −R (t)
2 2 2

dr

1−kr

+ r 2 (d θ 2 + sin 2 θ d φ2 )

(1)

al re-escalar la coordenada radial, podemos elegir a la constante de curvatura, k, a tomar solo los valores {+1,-1, 0} correspondiendo a unas geometrias cerrada, abierta o plana, en este caso, es conveniente r-expresar a la metrica como: d s 2 =d t 2 −R 2 (t) d χ 2 + S 2 (χ)(d θ 2 + sin 2 θ d φ2 ) k donde la funcion S k (χ) es: {sinχ, χ, sinhχ} para k ={+1, 0, -1}. La coordenada r, y el ”angulo” χ no tienen unidades; estas son llevadas por la R(t) que es el factor de escala cosmologico que determina a las distancias propias en terminos de las coordenadas co-movientes: r, θ, φ. Una alternativa es definir un factor de escala sin unidades, a(t) = R(t)/ R 0

113 con: R 0 ≡ R(t 0 ), es R en nuestra epoca actual.el corrimiento al rojo (redshift) El corrimiento cosmologico es una consecuenca directa de la expansion Hubble, determinada por el factor de escala R(t). Un observador local que detecta luz de un emisor lejano, observa un corrimiento en la frecuencia ν. Se define al corrimiento como: − z ≡ νe νoνo v 12 c (3)

ν e es la frecuencia de la luz emitida, ν o es la observada, y v 12 es la velocidad relativa entre el objeto emisor y el observador. La definicion de z es valida en todas las escalas de distancias, que relaciona al corrimiento con la velocidad relativa, en esta forma simple solo es cierta en escalas pequeñas (menores que las escalas cosmologicas) tal que la velocidad de la expansion no es relativista (seria relativista, a muy alta velocidad, v c). Hay una generalizacion de esta

relacion, que incluye terminos de 2o.orden [Adler, Bazin, Schiffer, 1965, pag.351] Para señales de luz, podemos usar la metrica R-W, y si la trayectoria espacio-temporal de la luz, satisface: d s 2 = 0, escribimos: v 12 = R’δr = R’ δt = δR = R 2 − R 1 c R R R1 donde δr y δt son la coordenada radial y el intervalo temporal entre el emisor y el observador. Asi, obtenemos una simple relacion entre el corrimiento y el factor

114

νe de escala: 1 + z = ν o = R 2 R1

(5)

y este resultado no depende de la aproximacion no-relativista. Las ecuaciones de movimiento de Friedman-Lemaitre Las ecs. cosmologicas del movimiento son derivadas de las ecs.del campo gravitacional, de Einstein R αβ − 1 g αβ R = 8πG N T αβ + Λg αβ 2 (6)

es comun suponer que el tensor de energia-momentum es para un fluido perfecto: T αβ = −pg αβ + (p + )u α u β donde g αβ es el tenor metrico descrito por la ec. (1) p, es la presion isotopica y ρ, la densidad de la energia, y u =(1,0,0,0) es el 4-vector velocida del fluido isotropico en coordenadas co-movientes. Con la fuente que es un fluido perfecto, las ecs. de Einstein llevan a las ecs. de Friedmann-Lemaitre: (con la constante cosmologica Λ) H(t) es el parametro de Hubble R’ R
2

H2 ≡

=

8π G N ρ − k + Λ 3 3 R2

(7)

R” = Λ − 4π G N (ρ + 3p) R 3 3

(8)

La conservacion de la energia expresada por medio de la ecuacion

115

T αβ ≡ ∇ α T αβ = 0 ;α ρ = −3H(p + ρ)

conduce a una tercera ecuacion: (9)

[que puede ser derivada de las ecs. (7) y (8).]

esta ec.(9), tambien puede ser derivada de la 1a. ley termodinamica. La ec. (7) tiene una analogia mecanica simple, si despreciamos a la Λ, al interpretar el termino -k/ R 2 como una ”energia total”, observamos que la evolucion del Universo es gobernada por una competencia entre la energia potencial: 8πGρ/3 y el termino de energia cinetica: (R’/ R) 2 . Para el caso con Λ = 0, es claro que el Universo debe estar expandiendose o contrayendose (excepto en el punto de retorno anterior al colapso en un Universo cerrado). El destino final esta determinado por la constante de curvatura, k, para k = +1, el Universo colapsara enun tiempo finito, para k = {0, -1}, el Universo se expandera indefinidamente. Estas simples conclusiones pueden ser alteradas cuando Λ ≠ 0, o mas generalmente, cuando (3p + ρ). Definicion de los parametros cosmologicos Las ecs. de Friedmann se pueden usar para definir una densidad critica, tal que

116 k = 0 cuando Λ = 0,
2 ρ c = 3H = 1.88x10 −26 h 2 kg/m 3 = 1.05x10 −5 h 2 GeV/cm 3 (10) 8πG N

= 1.88x 10 −29 h 2 g/cm 3 el parametro de Hubble es definido por: H ≡ 100 h km/segMpc Í H −1 = 9.78 h −1 Giga-años (Gyr) (tiempo de Hubble) [esto quiere decir que una galaxia añade 100 km/s a su velocidad de recesion por cada Megaparsec (Mpc) de su distancia] el factor h, llamado de ”ignorancia” es debido a que no se ha medido a H con la maxima exactitud deseada. El parametro de densidad cosmologico, Ω, es definido como el cociente: Ω = ρ/ρ c El parametro de desaceleracion: q = – RR” R’ 2 que caracteriza a la gradual disminucion de la expansion. # Cosmologia del Big Bang Podemos re-escribir la ec. de Hubble como: k /R 2 = H 2 (Ω − 1) y observar que cuando Ω > 1, k = + 1 (Universo cerrado) cuando Ω < 1, k = – 1 (Universo abierto) cuando Ω = 1, k = 0 (Universo espacialmente plano). (12) (11)

117

Es necesario, a veces, distinguir a las diferentes contribuciones a la densidad. Es conveniente definir a los parametros de la densidad, actuales, para la materia sin presion (Ω m ) y para las particulas relativistas (Ω r ), mas la cantidad Ω Λ = Λ/3 H 2 . En modelos mas generales, esta densidad de energia del vacio es variable, (Ω v ). Asi, es esta suma de densidades la que determina el signo de la curvatura. # Soluciones del Modelo estandar Mucha de la historia del Universo en el model estandar SBB, puede ser descrita facilmente al suponer que: o la materia o la radiacion domina la densidad total de energia. Durante la epoca de la inflacion o tal vez aun hoy, si estamos viviendo en un Universo que se acelera, dominacion por una constante cosmologica o por una forma de energia obscura debe ser considerada. En lo que sigue, delinearemos las soluciones a la ec. de Hubble cuando una sola componente domina a la densidad de energia. Cada componente es distinguida por un parametro de la ecuacion de # estado w = p/ρ. Soluciones para una ecuacion de estado general La ec. (9) puede reescribirse como: ρ = −3(1 + w)ρ R’/ R y es integrada facilmente, a dar: ρ ∝ R −3(1+ w)

118

Note que en timpos primigenios, cuando R es pequeña, el termino de curvatura puede ser despreciado, en tanto que w > – 1/3. El dominio de la curvatura ocurre en tiempos mas posteriores (si un termino de la constante cosmologica no domina mas pronto). Para w ≠ −1, puede uno insertar este resultado en la ec. de Hubble y si desprecia los terminos de curvatura y de la constante Λ, es integrada facilmente, y se obtiene: R(t) ∝ t 2/3(1+ w) Un Universo dominado por la Radiacion En el Universo primigenio caliente y denso, es apropiado suponer una ec. de estado correspondiente a un gas de radiacion (o de particulas relativistas) para el cual w = 1/3. En este caso se tiene la dependencia ρ ∝ R −4 . substituimos a w en la (13)

ecuacion general R(t)∝ t 2/3(1+ w) , y tenemos: R(t) = t 1/2 H= 1 2t (14)

Un Universo dominado por la Materia Las funciones que describen a las densidades disminuyen con el tiempo. Conforme el Universo va evolucionando y expandiendose, y la densidad de radiacion es mayor que la de materia, pero a partir de cierto instante, las curvas se cruzan y empieza a ser mayor la densidad de la materia. Un gas sin presion (w = 0) conduce a la funcion

119 ρ ∝ R −1 . y: R(t)∝ t 2/3 H= 2 (15) 3t # Un Universo dominado por la energia del vacio —————————————————-

COSMOLOGIA ESTANDAR La mecanica celeste del sistema solar confirma con magnifica precision a la teoria de la relatividad general. La existencia de las ondas gravitacionales esta confirmada indirectamente. Y la mecanica cuantica relativista predice que deben existir los propagadores de la fuerza gravitacional: los gravitones, bosones sin masa con s=2. Hasta energias del orden de m p 10 19 GeV, la teoria esta bien esta-

blecida, con la posible incerteza sobre la existencia del termino Λ, cosmologico, que Einstein tuvo que rechazar.[weinberg, 19xx] Observaciones de un Pulsar, hechas en 1979 dan evidencia a favor de tales ondas. Otra confirmacion de la teoria de la relatividad, se sigue de checar el principio de equivalencia, (la igualdad de las masas: inercial y gravitacional), la exactitud es impresionante: es de 10 −12 . Esto significa que la ec. E = ∆m c 2 es valida, no solo para las fuerzas nucleares y electromagneticas, sino tambien para la fuerza nuclear-debil. Mediciones del campo magnetico de la Tierra y de Jupiter y de galaxias, no muestra desviaciones de la electrodinamica de Faraday-Maxwell. Esto quiere decir que la masa del foton es cero o extremadamente

120

pequeña, mucho menor que la cota obtenida en los experimentos. Una era nueva en la interrelacion entre la Fisica y la Astronomia empezo en ~1961, debido al desarrollo de la Cosmologia moderna y debido a las confirmaciones experimentales del modelo del Universo caliente, bautizado como: Cosmologia de la gran explosion. La interfase entre la Fisica de Particulas Elemetales y la Cosmologia ha emergido como una area de investigacion muy activa. Las teorias de la GranUnificacion,GUT, nos dan el prospecto estimulante de calcular el contenido de materia del Universo, de primeros principios. Antes de esto,los fisicos de particulas no eran familiares con la Cosmologia pero la situacion cambio mucho al darse cuenta de que estas teorias GUT pueden resolver algunos problemas importantes de la Cosmologia. [Para un curso detallado, hay varios libros de texto: Weinberg, Peebles, Padmanabhan, Turner, Carroll, Peacok] En esta seccion no damos un tratamiento muy detallado, sino discutiremos la esencia de la Fisica evitando calculos detallados, en lo posible, para esto, se dan unos datos de entrada, observacionales, y unos pocos relevantes hechos cosmologicos:

121

(1) el Universo esta expandiendose con una cierta velocidad, o tasa, de H 0 ~100 km /segMpc [Mpc = megaparsec = 10 6 parsec = 3.08x10 24 cm] La ley de Hubble es: u = H 0 r [ u es la velocidad de recesion de las galaxias, r, la distancia entre ellas] La actual edad del Universo, τ es, burdamente, del mismo orden de magnitud como 1/ Ho ~10 10 años. Dada la teoria de Einstein, la relacion entre τ y el parametro de Hubble: Ho, puede hacerse mas precisa. Actualmente, luego de 50 años de arduas investigaciones, Ho no se conoce con precision maxima. En los trabajos de Astrofisica, este parametro es escrito como Ho = 100 h 2 , donde,h, es el ”factor de ignorancia” tiene su valor en el intervalo 1/2 h 1, y la tasa de expansion depende del tiempo, t.

En escalas de distancia grandes, el Universo es homogeneo e isotropico, La mayor distancia de que tenemos informacion es de ~c/H 5000 Mpc

en tal escala, desviaciones de la uniformidad e isotropia son menores que 10 −4 . La teoria del Universo en expansion conecta a la edad del Universo

t o con la tasa actual de expansion H o y con la densidad promedio, ρ.

122

A menor densidad, es menor la velocidad de expansion. Para ρ Î 0, la edad, t o = R/u = 1/H. Con la densidad que se incremente, la desaceleracion gravitacional llega a ser importante. Esto significa que en el pasado, la expansion fue mas rapida, tal que la edad es menor: t o =f(Ω)/H = f(Ω)x18x10 9 años, donde Ω = ρ/ρ c , y la funcion f es: f < 1. la densidad critica, predicha por la relatividad general, es
2 ρ c = 3H = 6x10 −30 gramos/cm 3 8πG

[cuando ρ > 1, el Universo es cerrado, para ρ < 1, el Universo es abierto] Una cota superior para la densidad de la materia, compatible con los valores actuales de H y de t o es aproximadamente, ρ max un valor mas probable es: ρ 10 −29 g/cm 3 .

2x10 −30 . Hay algunos datos indirectos

en favor de este resultado. La densidad promedio de la materia contenida en las estrellas, relativa al volumen completo entre las galaxias y los clusters es de ~5 x 10 −31 . la cota superior a la ρ, parece ser confiable, puede ser usada para restringir a la densidad de energia total de las formas de materia que no son observables

123

directamente. Esta idea fue aplicada a la Fisica de Particulas, por Zeldovich y Smorodinsky en 1961.Ellos encontraron una cota a la densidad de neutrinos y de gravitones que no pueden ser detectados directamente. (2) el descubrimiento y la medicion de la radiacion cosmica de fondo (CMB) ha establecido que el Universo esta lleno con fotones que tienen una distribucion de ”cuerpo negro” correspondiente a una temperatura T 0, de entre 2.7 K y 2.9 K. Asi, podemos calcular que existen cerca de 400 fotones por cada cm 3 .[usando ecuaciones de la Fisica estadistica Cuantica calculando la energia total, a esa T, y dividiendo entre la energia de un solo foton: E = h ν.] Esta radiacion tiene una desviacion de la isotropia muy pequeña: es del orden de 3 x 10 −4 (en unidades relativas ∆T/ T)

A causa de la casi nula interaccion de los fotones de la CMB con la materia en el Universo, su espectro y distribucion espacial, da informacion sobre el remoto pasado del Universo. La expansion junto con la CMB conduce a la conclusion que en el pasado la temperatura es mas alta. El espectro de la CMB concuerda con la prediccion del Universo caliente (hot big bang) formulada por Gamow por vez

124

primera. Extrapolando la temperatura hasta etapas primigenias se obtiene: T 10 10 K 1 MeV en un tiempo del orden de 1 seg. luego del ”principio”

T ~10 MeV para t = 0.01 seg. y asi sucesivamente, aproximadamente: T(MeV) (t seg) −1/2 .

Para una T > 0.1 MeV, habrian electrones y positrones en equilibrio termico con la radiacion. Cuando la temperatura se eleva, el equilibrio termico (T E) se establece mas rapido que la tasa de la variacion de la temperatura. (Puede haber una violacion del equilibrio, si la tasa de las interacciones cae cuando la T se eleva). Asi para una T grande existe T E, y todas las particulas con mc 2 T contribuyen al plasma en casi iguales cantidades, con la posible

excepcion de los gravitones. (3) La densidad numerica de los nucleones en el Universo se conoce con menor precision, es un problema muy dificil en Astronomia. La masa gravitacional se infiere al analizar las rotaciones de galaxias o de clusters de galaxias y aplicar el teorema del Virial. asi, se construye un cociente: masa / luz. La densidad de masa de las regiones muy lejanas se calcula al multiplicar este cociente por la luminosidad observada de esa region.

125

Los astrofisicos definen el cociente Ω N ≡

ρN ρc

8πGρ N 3 Ho 2

entre la densidad de nucleones y la densidad critica, predicha por la Relatividad General, que hace que el Universo sea cerrado. Puesto que Ho es incierta, el dato usualmente se da como la combinacion Ω N h 2 . Los fisicos de particulas usan el cociente η = n b / n γ , : o la densidad de bariones entre la densidad de fotones. Y la traduccion es: η ~ 3 x 10 −8 Ω N h 2 o El valor actual esta en el intervalo η ~ (0.3—10) x 10 −10 Este numero puede ser obtenido de la T de la CMB: 2.73 K, y de la densidad de la materia: 5 x 10 −30 — 10 −31 g/cm 3 En el framework de las teorias con numero barionico y la entropia, estrictamente conservadas, η es una constante definida por las condiciones iniciales (i.e.: para una expansion adiabatica). Han habido intentos para calcular este numero, teoricamente. Uno de estos es el marco de ideas conocido como Principio Antropico [ Barrow y Tipler, 1988] en el cual se intenta explicar la aparicion de la Vida y de la especie Humana #en terminos de que los valores de las constantes de la naturaleza, p.ej. como la carga electrica del electron y del proton, estan ajustadas tan finamente, que

126

si no tuvieran los valores que tienen, la vida no se hubiera desarrollado, y que las estrellas no existirian, no tendrian las propiedades que tienen actualmente. Un ejemplo de este Principio es: la postulacion de un nivel de energia nuclear de resonancia del nucleo de Carbono, que propuso Fred Hoyle, para explicar la nucleosintesis, este nivel es necesario para la produccion del carbono en las estrellas, y fue hallado en experimentos de Fisica Nuclear [Seeger,1963] Para temperaturas muy por abajo de 10 15 GeV, el numero barionico se conserva, con mucha precision, asi que η es esencialmente una constante puesto que ambas densidades n b y n γ disminuyen como R −3 , cuando el Universo se expande. Puesto que m N / T γ actualmente es de ~10 13 K aun con tan pequeño η, la densidad de energia de la matera, ρ N domina a la densidad de energia de la radiacion ρ γ . Sin embargo, la radiacion domino cuando la T γ dom ηm N ~0.1 eV ~1000 K.

(4) la CMB es notablemente isotropica. Las observaciones sugieren que la fluctuacion ∆T satisface: ∆T o To 10 −4 .

(una anisotropia dipolar de 10 −3 se observa pero se cree es debida al movimiento de la Tierra a traves del fondo de la radiacion, y tambien han observado desviaciones cuadrupolares de la isotropia)

127

En una era del Universo cuando dominaba la radiacion, la evolucion del Universo era regida por la ecuacion de Friedman. Se puede demostrar, usando las ecs. de Einstein, que el factor de escala de Robertson, R(t), y la temperatura T(t), que aparece en la metrica del espacio-tiempo, d s 2 = ∑ g αβ dx α dx β dr
2 2

ds 2 = d t 2 − R 2 (t)

1−kr

+ r2d Ω2

(1)

donde k es el parametro, de Gauss, de la curvatura, y vale: {1, 0. -1} Se refiere a R, como el ”radio o tamaño” del Universo sustituyendo en las ecs. de Einstein, G αβ = a T αβ se llega a la ec. de Friedman: R’ 2 = 8π Gρ − k , 3 R2 R2

(2)

donde ρ es la densidad de masa-energia, y R’ = dR dt y se ha ignorado el termino con la constante cosmologica, Λ. La conservacion de la energia implica la ec.que relaciona la densidad, ρ d (ρR 3 ) = −3 pR 2 dR (3)

con la presion p:

la ec.(2) es adecuada para describir al Universo primigenio

128

sustituyendo las aproximaciones: n = N/V ~g T 3 , ρ ~ g T 4 obtenidas luego de hacer integrales de fisica estadistica: y con g , el factor del numero de grados de libertad, dR/dt R
2

~G

N4 g

1/3

1 R4

k R2

(4)

o equivalentemente, por:

dT/dt T

2

~ g G T4 − k

g N

2/3

T2

(5)

cuando el Universo se enfria debajo de la T γ , la evolucion esta dom governada por:

dR/dt R

2

~ (G m N N η)

1 R3

k R2

ignorando el termino que tiene la curvatura, k, integramos la ec. para obtener el ”reloj de temperaturas” MP T2
2

t~

1 g

~ (2.4 x 10 −6 seg)

1 g

1GeV T

(6)

que nos da la temperatura a cada instante en la evolucion. Sin embargo, en los trabajos de astrofisica se dice que ciertos eventos en la vida del Universo, como habiendo ocurrido en ciertos ”redshifts” , z.

129 El parametro del corrimiento al rojo, z, esta relacionado a R(t), en la cosmologia de Friedman-Robertson-Walker, por R(t o ) R(t)

1+z=

R(t o ) denota la actual escala del tamaño. El parametro z, es medible, en contraste, R(t), es un concepto teorico. Sigamos a la evolucion del Universo en una temperatura T de, digamos, unos pocos de MeV’s, puesto que la Cosmologia ”tradicional” establecida por Gamow[1948] cubre los eventos a partir de esta T. En este instante, el Universo contiene protones, p, neutrones,n, electrones, e, positrones, e + , fotones, γ, y varias especies de neutrinos, ν. Los bariones por supuesto, no son relativistas [E < mc 2 ], y las demas particulas si lo son. ηm n ~ 10 −8 , los bariones contribuyen con una fraccion T

Puesto que:

depreciable a la densidad ρ. Estas particulas se mantienen en equilibrio termico una con otra, por varias interacciones, electromagneticas y debiles y mientras, el Universo esta expandiendose. Y la condicion para este equilibrio, basico, es que las reacciones relevantes deben ser mas rapidas que la tasa de expansion. Inspeccionando las ecs.anteriores, vemos que esta tasa de expansion es:

130

1 t

2 ~ T MP

(7)

disminuye con la temperatura. Pero como veremos, la tasa de las interacciones debiles disminuye aun mas rapido, tal que en algun tiempo los neutrinos se salen del equilibrio termico. La tasa de reaccion por neutrino esta dada por: n<vσ > .

Aqui, n ~T 3 , es la densidad numerica de electrones y de neutrinos. La seccion transversal, promediada termicamente, < v σ >, puede ser calculada aproximadamente empleando el analisis dimensional. La amplitud es proporcional a la constante de acoplamiento,de Fermi: G F ~ α/M 2 ~10 −5 m −2 W N La seccion transversal, σ, tiene dimensiones de 1/M 2 y asi: < v σ > ~ G2 T2 F puesto que la T es la unica variable relevante de dimension M, disponible. Asi, la tasa de reacciones que incluyen a neutrinos es n < v σ > ~ G2 T5 F ( 8)

asi, a altas T’s, los procesos con interacciones debiles son suficientemente rapidos. Pero, cuando la T disminuye hacia una T de desacoplamiento, T dec , los neutrinos se ”desacoplan”, pierden contacto termico con los electrones.

131

comparando las ecs. (7) y (8), se ve que:
1/3

T dec ~

1 MPG2 F

~〈 m N 10 10 〉 1/3 m N ~1 MeV MP

(9)

El valor preciso es de ~3.5 para el ν e , y de ~6 MeV para el ν µ y el ν τ Esto sucedio, aproximadamente, un segundo luego del inicio del Universo. Despues de este tiempo, la T ν del gas de neutrinos, disminuye como 1/ R cuando el Universo se expande. Las mucho mas fuertes interacciones nucleares fuertes y la electromagnetica continuan manteniendo a las particulas en equilibrio. Otra vez, por analisis dimensional, podemos calcular las secciones tipicas electromagneticas a ser: < v σ> ~α 2 /T 2 . asi la tasa de la reaccion: α 2 T es mucho mayor que la tasa de expansion, ec. (7), para T << α 2 M P La tasa de reacciones, por nucleon, es: ~T 3 (α 2 / M 2 ) N la cual es mayor que la tasa de expansion, en tanto que T > m 2 /(α 2 M P ) N sea una del orden de una temperatura baja. Asi los nucleones son mantenidos en equilibrio estadistico cinetico. la energia cinetica promedio, por nucleon, es (3/2)T. y debemos ser cuidadosos de distinguir entre el equilibrio cinetico y el

132 equilibrio quimico. Las reacciones como: γ + γ Î p + p habiendo sido suprimidas anteriormente debido al factor de Boltzman pues solo fotones muy energeticos de la ”cola final” de la distribucion -son poquisimos fotones- pueden producir un anti-nucleon. [el equilibrio cinetico se refiere a que a cada reaccion existe su inversa, y el quimico, se refiere a la igualdad de los potenciales quimicos] Asi, esencialmente no hay anti-nucleones ahi rondando. Para T > m e ~ 0.5 MeV ~5 x 10 9 K, el numero de electrones, de positrones y de fotones son comparables, los cocientes exactos son dados facilmente al insertar los ”factores-g”, apropiados. Puesto que el Universo es electricamente neutro, n(e − ) −n(e + ) = n protones y asi hay un poco de exceso (10 −10 ) de electrones sobre positrones. Cuando la T cae debajo de m e c 2 , el proceso γ + γ Î e + + e − es suprimido severamente debido al factor de Boltzman: exp(-m/ T), puesto que solo fotones muy energeticos en la ”cola final” de la distribucion de Bose pueden participar. Asi los positrones y electrones se aniquilan rapidamente via la reaccion e + + e − Î γ + γ y no son repuestos , dejando un pequeño numero de electrones

133 n(e) ~n(p) ~(10 −10 ) n(γ) Y la aniquilacion de los pares e − e + calienta a los fotones relativo a los neutrinos, o sea: T γ > T ν . La cantidad del calentamiento puede ser calculada exactamente al requerir la conservacion de la entropia. Asi, luego de la aniquilacion, encontramos, refiriendonos a la ec. g = ∑ g bosones + (7/8) ∑ g fermiones T> γ = T< γ Tγ Tν =
>

g< g>

1/3

=

3

11 4

~1.4

(el simbolo <, se refiere a: antes de la aniquilacion y el >, a despues)

o sea: T γ ~ 1.4 T ν , los fotones tienen mayor temperatura que los neutrinos. este cociente ha permanecido constante desde entonces. Lo malo es que no hay manera de medir la temperatura del fondo de neutrinos del Universo. EL PROBLEMA DEL HORIZONTE Nosotros no vemos mas lejos que la distancia que ha viajado la luz, desde el nacimiento del Universo, esto es: cerca de 10 28 cm. Esto puede ser tomado como el tamaño efectivo u ”horizonte” del Universo. Asi, hay aproximadamente 10 87 fotones dentro del horizonte. Un concepto importante es la distancia que ha viajado un foton desde el inicio se la llama: el tamaño del horizonte, y determina en cualquier tiempo dado, el

134

tamaño de las regiones causalmente relacionadas. Esta dada por: d H ~c t ~g −1/2 M P / T 2 en contraste, el tamaño de la escala del Universo, R(t) crece como t [esto se obtiene al integrar la ec.(4)]. Asi, en tiempos primigenios, el tamaño de los dominios causalmente conectados es mucho mas pequeño que el tamaño efectivo del Universo. Es una incognita saber como la homogeneidad y la isotropia del Universo, llego a ser. Esto se conoce como el problema del horizonte, el Universo se expandio demasiado rapido luego del inicio, t = 0. Incidentalmente, esto también explica porque los efectos de la relatividad general no son importantes en el Universo primigenio: cuando R es pequeño, el t rmino de la curvatura, k / R 2 , es despreciable. Los dominios donde hay causalidad son pequeños comparados con el radio de curvatura. Diferentes regiones del cielo son observadas y tienen la misma temperatura -con un alto grado de exactitud- Sin embargo estas regiones diferentes no estaban causalmente relacionadas cuando los fotones se desconectaron de la materia. Similarmente, la abundancia del 4 He no parece variar sobre las regiones en las que se observa. Pero la NucleoSintesis se realizaba en las regiones causalmente desconectadas. Asi este problema del horizonte

135

representaba un enigma notable en la Cosmologia, pero fue resuelto cuando se propuso el Modelo Inflacionario [Guth,1981; Linde,1982] El problema de la longevidad: el Universo es muy antiguo. El Universo esta descrito, supuestamente, por una teoria en la cual la unica escala de tiempo caracteristica es la escala del tiempo de Planck, T P . = 10 −43 segundos el Universo ha vivido 10 60 unidades del T P . Equivalente, es el problema de la ”heladez”: el Universo es muy frio. ¿Porque la Temperatura actual no es del orden de la temperatura de Planck, 10 32 K ? Tambien se tiene el problema de la ”vastedad”, y el problema de la ”planidad”: el Universo es muy plano. Este es el enunciado de que el termino de curvatura es despreciable comparado con los otros dos terminos, en el tiempo de Planck. En lenguaje Newtoniano, podemos preguntar: ¿quien ajusto, en la epoca de Planck, las energias cinetica y potencial a ser aproximadamente iguales y con signo opuesto?, piense en una analogia: tiramos una pelota hacia arriba, si la energia cinetica es pequeña, la pelota pronto retornara a la superficie, si es grande, rapidamente escapara. Estas energias deben ser ajustadas finamente para cancelarse mutuamente si la pelota viajara varios años-luz, antes de regresar.

136

El problema de la Constante Cosmologica: La Fisica de Particulas incluye varias rupturas de simetrias: desde el rompimiento de la Gran Unificacion, hasta el de la Simetria Chiral, cada una de estas rupturas genera una constante cosmologica muy grande, lo que se contradice con las observaciones. El problema es muy fascinante porque yace en la interfase entre entre la gravedad y las otras tres fuerzas de la naturaleza. Y su solucion arrojara ”luz” sobre el problema de ¿como la fuerza gravitacional esta conectada con las otras fuerzas? este es el problema de cuantificar a la gravitacion: la Gravedad Cuantica.

LA GENESIS DE LA MATERIA Hay dos hechos notables acerca del Universo: no es vacio, pero esta casi vacio. la imagen popular del Universo es que es una vasta vacuidad punteada aca y alla por unas pocas galaxias. Con el descubrimiento de la CMB, esta vacuidad esta cuantificada por el cociente η ≡ n B ~ 10 −10 nγ o sea, comparado con el numero de fotones, o de radiacion, el numero de nucleones es pequeñisimo. El Universo esta casi vacio, esta solamente un poco ”contaminado” con la materia. Pero para los partidarios de la Cosmologia simetrica, (que hay una cantidad

137 igual de materia como de la anti-materia), el valor observado de η les parece, mas bien, grande. El problema con esta rama de la cosmologia, es que no se ha encontrado un mecanismo plausible que explique la separacion de ambos tipos de materia. El descubrimiento de la violacion de la simetria CP, en 1964 (simetria de carga-paridad) demostro que las leyes de la fisica no son exactamente simetricas entre la materia y la anti-materia, y abrio la puerta a un posible entendimiento de esta a-simetria en el Universo. Sin embargo, si el numero barionico, B, se conserva absolutamente, como se creia generalmente, entonces la contaminacion de bariones observada tenia que ser puesta al ”principio” . El cociente η representa una condicion inicial, y su pequeñez no puede ser explicada a partir de primeros principios. Con el arribo de la teoria de la Gran Unificacion, la no-conservacion de los bariones ya no era considerada como una especulacion sin fundamento. grupos de investigadores reconocieron que la GUT permite calcular a la η, en funcion de otros parametros fundamentales, tales como la medicion de la violacion de la simetria CP. Asi se tiene una Cosmologia ”esteticamente atractiva” en la cual el Universo empezo vacio y gradualmente desarrollo una preponderancia de la materia sobre la anti-materia.

138 Y esta teoria GUT tambien predice que la amplitud de la no-conservacion llega a ser sustancial a temperaturas mayores que la temperatura asociada con la de la escala de la unificacion. Esto es esencial porque las observaciones han establecido que el tiempo de vida del proton es mayor que 10 20 veces que la edad actual del Universo. Para que el Universo desarrolle tal asimetria, se deben satisfacer tres condiciones: (1) las leyes de la fisica deben ser asimetricas (2) los procesos fisicos relevantes se desviaron del equilibrio, tal que hay una flecha del tiempo. (3) los numeros barionicos no se conservan El Universo en expansion nos da un ejemplo de los procesos fisicos que salen del equilibrio, como hemos visto en otra seccion, Los investigadores concluyeron que los procesos que incluyen a una particula masiva (Mc 2 > k T ) son necesarios para generar una asimetria barionica. Un posible escenario incluye el decaimiento de una particula muy masiva: X, la cual seria un boson de norma o un boson de Higgs en una teoria GUT. Es excitante el hecho que un dia estaremos dispuestos a calcular cuanta materia X, debe contener el Universo. Cuando Gamow propuso la nucleosintesis primordial

139 escribio que ”estaba permitiendo a su imaginacion volar mas alla de todo limite” y remarco que las abundancias de los elementos quimicos representan al ”el documento arqueologico mas antiguo” conocido. Y solo 3 decadas despues los astrofisicos extendieron la Cosmologia de Gamow hasta temperaturas de 19 ordenes de magnitud mas grandes que las que tuvo Gamow en su mente: Entonces, la materia es el fosil fundamental ——————————————————————————La influencia entre la Cosmologia y la Fisica de Particulas LAS NUEVAS PARTICULAS En los años 70’s resurgio el interes en la posibilidad de que los neutrinos tengan masa. Se dieron argumentos simples para la contribucion de ellos en la densidad total del Universo, [Dolgov, Zeldovich, 1981] esto conduce a una restriccion a sus masas. Las explosiones de supernovas liberan una gran fraccion de su energia en neutrinos, los cuales, si decaen en fotones cerca de la supernova, incrementan su luminosidad. Solo vidas-medias cortas son permitidas para neutrinos con masas hasta de cerca de 10 MeV. SUPER-INOS Las teorias supersimetricas de las particulas predicen parejas fermionicas para todos los bosones, y viceversa. El foton tiene su fotino, el graviton, su gravitino

140

AXIONES Esta particula es una hipotetica que aparece en una clase de teorias inventadas para explicar porque la interaccion fuerte conserva las simetrias P y C En estas teorias la conservacion de P y CP es una consecuencia de la relajacion de un nuevo campo alrededor del minimo de un potencial; el Axion es una oscilacion de este campo alrededor del minimo. Puesto que las estrellas son enormes reactores nucleares, tambien emiten axiones Si estos no se llevan demasiada energia de las gigantes rojas de modo que los modelos de la evolucion estelar serian desafiados, entonces los axiones deben ser mas ligeros que: ~0.01 eV. Aunque el axion debe ser ligero, es producido en grandes cantidades, (mas de lo que sugeririan los argumentos de equilibrio termico) y asi tener importantes implicaciones cosmologicas. Y todas estas nuevas particulas son candidatas para ser la Materia obscura. MONOPOLOS MAGNETICOS Es muy conocido que Dirac especulo con la existencia de tales monopolos y no tenia una razon de peso para su existencia, lo hizo guiado por principios de simetria y estetica, pero en las teorias G U T, la existencia de tales particulas es predicha, cuando el Universo estaba en su fase muy primigenia (t ~10 −35 s), y la temperatura era del orden de: 10 15 GeV; la masa del monopolo es algo mayor que 10 16 GeV. Y los modelos teoricos predicen una enorme densidad de tales

141

monopolos, que dominarian en el Universo, ahora, tantos como 12 ordenes de magnitud. El modelo inflacionario de Guth resolvio este problema, y esto fue el primer motivo para ser aceptado. BARYOGENESIS La teoria de la Gran Unificacion (GUT) ha provisto con una solucion a uno de los problemas cosmologicos mas dificiles, porque el Universo contiene materia pero no antimateria. Los ingredientes esenciales fueron notados por Sajarov cuando la unificacion era aun una especulacion teorica lejana, pero ahora son posibles unos calculos mas o menos cuantitativos del cociente η. El cociente depende de un parametro que controla a la magnitud de la violacion de la simetria C P en la G U T, pero este parametro no esta determinado teorica mente asi que puede decirse que ninguno de esos calculos predicen el numero de bariones del Universo. TRANSICIONES DE FASE En la cosmologia estandar, la temperatura disminuye en proporcion inversa al factor de escala, R, manteniendo un cociente bariones/fotones constante. Pero hay cierto momentos en la evolucion del Universo cuando el estado de la materia puecambiar abruptamente, y tales transiciones pueden tener efectos significativos tales como desviarse de una evolucion adiabatica o producir no-uniformidades

142 en la densidad. Y pueden asociarse con procesos fisicos conocidos como: La transicion de quarks libres a quarks confinados, La ruptura de la simetria de las teorias unificadas, o con efectos cuantico-gravitacionales. DEFECTOS TOPOLOGICOS En la teoria de la gran unificacion, o la teoria de Salam-Weinberg-Glashow, cuando es rota una simetria, el nuevo vacio tiene una simetria propia, hay un grupo de transformaciones del campo cuantico, simetrias que dejan invariante al estado cuantico del vacio. Esto implica que puede haber estados estables del vacio en los cuales estos campos varian de region en region. Un defecto topologico ocurre cuando tal campo no puede ser conectado sobre el espacio entero, sin la introduccion de singularidades. Tales defectos son: muros, monopolos magneticos, cuerdas cosmicas. Y los muros son desastrosos en Cosmologia, pero las cuerdas cosmicas son mas interesantes. RUPTURA DE LA SIMETRIA (SBS siglas en Ingles) Aun si la SBS no crea defectos topologicos, la transicion de fase asociada puede ser del 1er. orden, conduciendo a una excesiva creacion de la entropia (medida por el cociente bariones/ fotones) a traves de la liberacion del calor latente. La cosmologia de la transicion de Weinberg-Salam, puede usarse para restringir algunos parametros de la teoria, como la masa del boson-Higgs. Una transicion de fase del 1er. orden del SBS de una simetria G U T. o tal vez

143

de una Supersimetria, da lugar al llamado Universo Inflacionario. EL CONFINAMIENTO DE LOS QUARKS A muy altas temperaturas y densidades, los quarks se comportan como particulas libres y consituyen un gas, pero cuando el Universo evoluciona, estas se confinan en parejas, eventualmente, o en ternas, para formar mesones o hadrones (protones,neutrones). No es conocida a que temperatura sucede esto, porque la transicion es resultado de interacciones fuertes no-perturbativas. Universo INFLACIONARIO Como fue concebido originalmente, este modelo incluia un SBS de 1er. orden, y causaba un periodo de una expansion exponencial. Su mayor logro fue que prometia explicar: como el Universo podria ser homogeneo sobre una region no conectada causalmente, y asi, tan cerca de una densidad critica en tiempos posteriores. Estos modelos ahora son mas sofisticados y variados y el termino inflacion se usa para decribir a una variedad de teorias que producen el mismo final cosmologico; tambien son incluidas: la Gran Unificacion, las transiciones de fase o la gravedad cuantica. [Guth, Steinhardt, 1984] Resuelve problemas cosmologicos: la expansion exponencial incrementa mucho la escala causal del Universo y asi que lo empujaria hasta ser plano.

144

Pero tenia sus fallas: se formarian pequeñas burbujas que constituirian un inhomogeneo estado final. Pero Linde, Steinhardt y Albrecht, lo refinaron, en donde con una cuidadosa eleccion teorica permitiria a una sola burbuja inflarse lo suficiente como para acompasar a todo el Universo actual. RECALENTAMIENTO En todos los modelos inflacionarios, la temperatura T, disminuye exponencialmente al traves de un periodo de superenfriamiento. Cuando la retrasada transicion ocurre, el Universo debe recalentarse hasta una T lo suficientemente grande para que la nucleosintesis tenga lugar. Este requerimiento pone un numero de constricciones a la teoria subyaciente. FLUCTUACIONES Pero luego,se vio claro que el nuevo modelo inflacionario sufria de un problema serio. Con la unica burbuja, hay fluctuaciones en el campo que llevan a fluctuaciones en la densidad. Aunque el espectro de esas inhomogeneidades tienen una buena forma como para formar a las galaxias, su magnitud es demasiado grande. Remediar este problema necesita de una re-construccion mas cuidadosa de la teoria original. Las teorias de la SuperSimetria y de la Gravedad Cuantica proveen los

145 medios para ser los modelos competitivos. La Gravedad Cuantica ¿que sucede proximo al inicio en la evolucion del Universo?, cuando el tiempo t es igual al tiempo de Planck, t = t P , es necesario conocer la gravedad cuantica, o sea, cuantificar a la teoria clasica de la gravedad de Einstein-Friedman, de modo analogo como: cuantificar a la teoria clasica del electromagnetismo de Maxwell-Faraday llevo a establecer la Electrodinamica Cuantica, de Feynman, Schwinger y Tomonaga. Ignorar a la gravedad cuantica es ignorar como empezo el Universo y como emergio del estado cercano a la singularidad hasta la era de la evolucion actual, entendida empleando la gravedad clasica. Intentos para estudiar la llamada era de Planck han sido muy limitados aunque han desarrollado ideas interesantes,[Wheeler, B.de Witt, 1983] Creacion de Particulas El intento de usar la teoria cuantica convencional en el espacio-tiempo curvado constituye el acercamiento semiclasico a la gravedad cuantica, en el cual la espectacion es retener a la descripcion clasica del espaciotiempo por un ”manyfold” suave, pero introducir correcciones a las ecs. de Einstein, usualmente en la forma de terminos adicionales en el tensor de energia-esfuerzos, que surgen de una descripcion cuantica de las inter-

146

acciones. Para los cosmologos una idea es que los campos gravitacionales pueden crear particulas (similar al modo como campos magneticos pueden crear parejas de electrones), pero calculos hechos en 1988, demuestran que esos efectos semiclasicos no pueden remover completamente las anisotropias anulando la idea de que los Universos de Robertson-Walker pudieron emerger de cualesquiera condiciones iniciales. Hoyos Negros Primordiales Otro fenomeno establecido en la gravedad cuantica semiclasica, es la evaporacion de Hoyos Negros (H N) debido la emision de un espectro termico de particulas, efecto descubierto por Stephen Hawking. La T de un H N es inversamente proporcional a su masa; para un H N de origen astrofisico, la evaporacion es despreciable. Sin embargo, grandes fluctuaciones de la densidad en el Universo primigenio, pueden colapsar para formar H N primordiales, de muy poca masa, y tal objeto con una masa inicial menor que 10 15 gr se evaporara durante el tiempo de vida del Universo. La emision de particulas energeticas conduce a restricciones sobre la densidad permitible y el espectro de masas de los H N primordiales, pero tambien hay modelos en los cuales la evaporacion de los H N extrema-

147 damente pequeños es una fuente de particulas cuyo decaimiento crea a un numero de bariones universal. Cosmologia SemiClasica Un proposito mas ambicioso ha sido aplicar las ideas de la gravedad semiclasica a la Cosmologia com un todo. Hacer correciones cuanticas a las ecs. de Einstein hacen posible una fase de De-Sitter cercana al t P , llegando a un modelo de ”inflacion primordial” En una vena distinta, Vilenkin ha aplicado el analisis semiclasico de las transiciones de fase y la formacion de burbujas en un intento para demostrar que el Universo pudo empezar como un evento de tunelamiento cuantico a partir del llamado ”vacio cuantico”: un estado cuantico sin particulas. Dimensiones Extras Para unificar a la gravitacion y el electromagnetismo, Kaluza y Klein propusieron una 5a dimension del espacio que no es visible a nuestros ojos pues es extremadamente pequeña, La manifestacion observable a baja energia de esta dimension extra, es el electromagnetismo, al cual se interpreta como una gravitacion en la 5a.dimension Tales teorias generalizadas a mas de una dimension extra, recientemente han tenido un re-avivamiento, porque las teorias de la SuperGravedad y de las Supercuerdas, tienen una

148 ”predileccion” por mas de cuatro dimensiones, hasta por 26 dimensiones!. otra teoria relacionada con la Gravedad Cuantica es la: Teoria de las Supercuerdas En esta teoria, a las ”particulas” se las considera como minusculas cuerdas de tamaño de la longitud de Planck, L P , en lugar de considerarlas como puntuales, de tamaño cero, y esta siendo objeto de detalladas investigaciones. Su atractivo es que carecen de infinitos, o sea, ciertas integrales basicas, tienen valores finitos; todas las interacciones deben ser calculables sin ejecutar el proceso matematico de la Renormalizacion ———————————————————— GLOSARIO Termalizacion. Una transicion (atomica o molecular) esta termalizada cuando el factor de Boltzman para los dos niveles atomicos, toma el valor que tendria en equilibrio termodinamico. Cuando se tiene que el tiempo libre promedio es mayor que el tiempo de la expansion -tasa- las particulas no necesitan estar distribuidas con una distribucion de Boltzmann y que los efectos disipativos pueden ser significativos. p.ej. cuando la T = 10 19 – 10 15 GeV, ningunas interacciones de particulas conocidas pueden haber estado en equilibrio. Para suficientemente altas ρ y T, los intercambios entre diferentes especies nucleares son tan rapidos, que el equilibrio estadistico se establece entre núcleos las abundancias relativas de los diferentes elementos pueden calcularse en funcion

149

de ρ y T usando las ecs. de la fisica estadistica Veremos que tal equilibrio termico (T E) sera en un tiempo de menos de 100 seg. Cuando ρ = 10 7 , y la T = 10 9 K El equilibrio estadistico consiste en que las reacciones proceden en uno u otro sentido. estas reacciones nucleares deben ser suficientemente rapidas para que las ecuaciones estadisticas sean aplicables. el T E require de un balance detallado entre las reacciones y sus inversas que involucran la absorción de un foton-gamma. Este sera el caso si hay equilibrio termodinamico entre la materia y la radiacion: las temperaturas deben ser iguales. Hoyle, MNRAS, 1946: para una densidad y temperatura suficientemente altas, los intercambios entre las diferentes especies nucleares son tan rapidos, que el equilibrio estadistico se establece entre núcleos, [mas rapidos que la tasa de la expansion del Universo, dada por el parametro de Hubble, H] Las abundancias relativas de los diferentes elementos pueden calcularse en funcion de ρ y de T, usando las ecs. de la fisica estadistica. Veremos que el T E sera en un tiempo de menos de 100 seg. cuando ρ = 10 7 g/cm 3 , y la temperatura, T = 10 9 K El equilibrio estadistico consiste en que las reacciones proceden en uno u otro sentido, esto implica que las reacciones nucleares deben ser

150 suficientemente rapidas,como para que las ecs. estadisticas sean aplicables. Hay relaciones entre ρ, T, σ , v, n; Γ= n < σ v > el equilibrio estadistico require de un balance detallado entre las reacciones y sus inversas, que involucren la absorción de un foton-gamma Este sera el caso si hay equilibrio termodinamico entre la materia y la radiacion: esto es: temperaturas iguales. En Termodinamica se conoce cuando un sistema llega al estado de equilibrio termico, en este, las propiedades del sistema no varian de lugar en lugar, y no varian con el tiempo, pero particulas individuales estan en movimiento y sus propiedades estan cambiando. Por ejempo, los electrones son removidos y luego reunidos a los atomos, pero existe un estado estadisticamente estacionario en el cual cualquier proceso y su inverso ocurren con igual frecuencia. Asi en el ejemplo, el numero de atomos ionizados, por unidad de tiempo, es igual al numero de recombinaciones. A causa de que las propiedades del sistema no varian en el espacio, cuando ha alcanzado el T E, cualesquiera partes del sistema tienen la misma T. En T E, la intensidad de la radiacion esta dada por la funcion de Planck U ν (T). Y esta intensidad no depende de que materia este presente aunque el tiempo que le lleve alcanzar su intensidad de equilibrio depende de la materia. En varios experimentos sobre la Tierra, las condiciones estan lejos del verdadero T E, a causa de que la cantidad de radiacion presente esta muy por debajo de su valor de equilibrio termico.

151 En contraste, adentro de las estrellas dicha intensidad de radiacion es muy cercana al valor predicho por la ley de Planck y la densidad de la energia de la radiacion y la presion de radiacion pueden ser importantes. Degeneracion de los Neutrinos Se refiere a una asimetria entre los numeros de neutrinos y anti-neutrinos y afecta al proceso de la NS en dos maneras: a) altera el valor de equilibrio del cociente n /p para una temperatura dada este nuevo valor de equilibrio esta dado por: n / p = exp{-Q-φ}/T

donde Q es la diferencia de masa proton-neutron y φ es el parametro de degeneracion. Es basicamente el potencial quimico. b) el otro efecto es acelerar la tasa de la expansion. Recuerde que el cuadrado de tal tasa depende de la densidad de energia. y que la tasa de reacciones debe ser mayor que la tasa de expansion. La condicion de equilibrio demanda una rapida tasa de reacciones. Los neutrinos degenerados incrementan a la densidad y asi a la tasa de expansion Esto resulta en que la expansion le gana a las tasas de las reacciones nucleares en un tiempo anterior. Y el ”freeze-out” de nuevo altera al cociente n /p. Freeze-out. Termino coloquial empleado para expresar que los neutrinos ya no influyen en la NS, se han desacoplado de las demas particulas, excluido. Equilibrio Termico.Es el que se obtiene por un sistema en contacto con un baño de calor a una temperatura constante.En tal estado, la distribucion de velocidades esta descrita por la distribucion de Maxwell-Boltzman y otras distribuciones estan dadas por las ecs. del equilibrio mecanico-estadistico

152

Esfera co-movil. Una superficie esferica hipotetica y arbitraria (alrededor de cualquier punto) que se expande con el resto del Universo. Relativas a dicha esfera, las perticulas sobre la misma estan en reposo. Desacoplamiento. La transicion rapida de un estado ionizado con un corrimiento z = 1000, cuando la radiacion de cuerpo negro es dispersada por los electrones libres, a un estado no ionizado, cuando la materia esta en la forma (predominantemente) de atomos de hidrogeno los cuales no dispersan a la radiacion en forma apreciable. La radiacion, subsecuentemente, no inter-actua con la materia a menos que esta sea re-ionizada en una epoca posterior debido a la radiacion venida desde quasares o galaxias en formacion. Este desacoplamiento ocurrio cuando la T ~3000 K, y a 100,000 años despues del big bang. Presion de degeneracion. Presion en un gas de electrones o de neutrones. el cual esta en un estado cuantico ”degenerado”. Materia degenerada. Es un estado de la materia encontrado en las enanas blancas y en otros objetos extremadamente densos, en los cuales ocurren desviaciones de las leyes clasicas. Cuando la densidad aumenta a una temperatura dada, la presion se eleva mas y mas rapido, hasta que llega a ser independiente de la temperatura y dependiente solo de la densidad. En este instante, se dice que el gas esta degenerado. Degeneracion cuantica. Es la ocupacion de todos los estados cuanticos de

153 energia mas pequeña, por los Fermiones, a una muy baja temperatura.Esto origina a la presion de degeneracion, ocasionada por ese ”apretujamiento”. Nucleosintesis explosiva. se cree que este proceso ocurre en las supernovas La combustion explosiva del carbono ocurre a una temperatura de ~2x10 9 K y produce los nucleos desde el neon hasta el silicio. La combustion explosiva del oxigeno ocurre a una T ~4x10 9 K, y produce nucleos entre el silicio y el calcio en pesos atomicos. A temperaturas mayores nucleos aun mas pesados hasta el hierro y mas pesados aun, son producidos. Hadrones. Son particulas subatomicas subdivididas en bariones y mesones. son combinaciones de tres quarks amarrados por la interaccion fuerte. Bariones. particulas como: protones,neutrones, hyperones, hechas de tres quarks. Una prediccion de la teoria GUT es que el proton puede decaer, en un meson-pion y un positron, con una vida-media de 10 30 años, tal decaimiento violaria la ley de conservacion del numero barionico. Leptones. Una familia de fermiones, que no sufre la interaccion nuclear-fuerte son los: electron, meson-mu, neutrino del electron el lepton pesado y sus anti-particulas. Mitad de Vida.(Half-life) El intervalo de tiempo requerido para que la mitad de los atomos de una muestra cualquiera de una substancia radiactiva, se desintegre. Horizonte. La region observable del Universo, limitado en extension por la distancia que ha viajado la luz durante el tiempo transcurrido desde el instante inicial de la vida del Universo, llamado la ”singularidad”.

154 Principio Antropico. El enunciado que afirma que la presencia de vida sobre la Tierra pone limites sobre las muchas maneras en las cuales el Universo podria haberse desarrollado y podria haber causado las condiciones de temperatura (una entre el punto de fusion y el de congelacion) que prevalecen hoy. Este argumento es el inverso de la tesis usual que afirma que la vida surgio porque las condicones fisicas fueron favorables. Constante cosmologica. Un parametro con unidad de inverso de longitud al cuadrado. Einstein lo agrego a sus ecuaciones, con objeto de tener un Universo estatico, sin contraccion o expansion. Implica una fuerza de repulsion que equilibra a la fuerza gravitatoria de atraccion. Invariancia CP. Ley de conservacion, ahora no es valida en todas las reacciones Concierne a la equivalencia de materia y antimateria. C es una operacion algebraica que invierte el signo de la carga electrica; y P, invierte el signo de la coordenada radial, r. Esto puede explicar porque se ha encontrado tan poca antimateria. Ondas Gravitacionales. Es la radiacion, hasta hoy hipotetica, emitida por un cuerpo masivo que oscila. Evidencia indirecta de la misma, es dada, al estudiar los Pulsares binarios, porque se explican sus orbitas excentricas como resultado de la perdida de energia via la radiacion gravitacional. PULSAR. Objetos decubiertos en 1967, que emiten ondas de radio en direcciones preferentes y observadas como emisiones periodicas repentinas y violentas. son estrellas de neutrones que giran rapido; las emisones son la radiacion de Synchrotron liberada por electrones acelerados en los enormes campos magneticos

155

de los pulsares (10 12 gauss). Radiacion de Synchrotron. Es la luz polarizada emitida por electrones cuando son acelerados en un campo magnetico fuerte. Fue observado primero en los aceleradores de particulas, donde era una disipacion inconveniente, su energia varia desde uno hasta miles de eV. Viniendo desde las estrellas puede implicar la presencia de campos magneticos grandes. Constante de Hubble. Es el factor de proporcionalidad entre las velocidades de recesion de las galaxias y sus distancias, Por la ley descubierta por Hubble, en 1929. en general, el parametro de Hubble, H(t), depende del instante de tiempo cosmico. Su valor actual se escribe como la constante de Hubble, H 0 , su valor preciso aun tiene que ser medido y cae en el rango de 50 a 100 [km/segMpc] aunque varias determinaciones recientes apuntan a valer H 0 ≈ 70 Tiempo de Hubble. Es el inverso del parametro de Hubble. Si la expansion del Universo no se estuviera frenando por la atraccion gravitacional entre galaxias, este tiempo indicaria el tiempo transcurrido desde la ”gran explosion”. Dispersion de Compton Inversa. una colision en la cual un foton adquiere energia al ser dispersado por un electron energetico, y asi aumenta su energia. Dispersion de Compton. Una colision en la cual un foton pierde energia al ser dispersado por un electron, y asi disminuye su energia. E γ >> m e c 2 , en el sistema propio del electron. Materia Obscura. Es la diferencia entre la masa ”observada” de los clusters de

156 galaxias, (como es calculada de medidas de luminosidad) y la masa ”dinamica” calculada a partir de medidas de velocidades radiales dentro de los clusters. algunas teorias atribuyen esta masa a plasma caliente intergalactico o a neutrinos masivos, u otras particulas hipoteticas supersimetricas. Materia Obscura Fria. Consiste de WIMPs que estuvo en equilibrio con todas las formas de materia y de radiacion en las primeras fases de la BB. Porque se supone que eran muy masivas, deberian estar muy frias en el tiempo actual. Materia Obscura Caliente. Es una variante posible de las teorias sobre la materia obscura para el origen de la estructura en el Universo. Supone que los neutrinos tienen una masa finita de ~10 eV. Hay suficientes neutrinos-reliquia producidos en la BB que, su densidad de masa total seria suficiente como para cerrar al Universo Puesto que si tienen masas muy pequeñas , permanecerian calientes hasta tiempos posteriores, en el Universo. Energia Obscura. La expansion del Universo esta acelerandose, se deduce esto del estudio de las supernovas distantes, las cuales suministran ”velas estandar” para una escala de distancias cosmologicas. Es interpretado esto aceptando que la constante cosmologica Λ, (que Einstein introdujo en su teoria gravitacional) da cuenta del 65 % de la densidad de energia del Universo. Esta contribucion es referida como ”energia obscura” para distinguirla de la ”materia obscura” la cual da cuenta de casi todo el resto de la densidad de energia, pues los bariones solo contribuyen con un poco %. Una proposicion alterna es que esta energia se debe a un nuevo campo de materia, bautizado como ”quintaesencia”.

157

Flavors.( ”sabores”) Son numeros cuanticos que sirven para etiquetar a los miembros de la familia de los quarks: son seis ”flavors”:{up,down,strange,charm, top,bottom} en español:{arriba, abajo, extraño, encanto, cumbre, fondo} y por brevedad, se usan sus iniciales en ingles: {u,d,s,c,t,b} algo analogo a como los numeros cuanticos {n,l,m,s} sirven para nombrar a los estados cuanticos de los atomos.{numero principal, momento angular, spin} Color. Lo que es la carga electrica para la fuerza electrica lo es el color para la fuerza nuclear (no tiene aca el significado que tiene en la Optica,es un nombre de bautizo arbitrario) es un atributo de los quarks, hay tres variedades del color ”rojo” ”verde” ”azul”, Asi como hay dos tipos de cargas electricas:positivas y negativas, hay tres numeros cuanticos de ”color”, asociados con el grupo de simetria SU(3) color . La masa viene siendo, la ”carga gravitacional”, pero su origen sigue siendo un enigma, y se cree que se entendera hasta que sean unificadas las cuatro fuerzas En las Teorias Unificadas, la masa se introduce por medio del mecanismo de ”ruptura de una simetria”: de una simetria mayor hacia una simetria menor. Cromodinamica cuantica.La teoria que describe como interactuan los hadrones. un hadron consta de dos o tres quarks y estos interactuan fuertemente por medio del intercambio de gluones Electrodinamica Cuantica.La teoria que generaliza a la teoria clasica de Maxwell, Gauss y Faraday, al refinarla incluyendo efectos debidos a la Fisica

158 Cuantica, como la Polarizacion del vacio, la creacion de pares electron-positron. Ruptura ”Espontanea” de la Simetria. Cuando en una Teoria Cuantica de Campo de un sistema fisico, este ya no exhibe las mismas simetrias inherentes en las ecuaciones que gobiernan al sistema. Cuando las soluciones de un conjunto de ecuaciones no muestran toda la simetria de las ecuaciones mismas. Por ejemplo: en un ferromagneto, las leyes que gobiernan la orientacion del spin de un atomo dentro del magneto, son simetricas con respecto a la direccion; i.e.: ninguna direccion es preferente. Pero cuando el magneto es enfriado por debajo de una temperatura critica, ocurre una transicion de fase en la cual las correlaciones entre muchos spines atomicos ayudan a establecer una red creciente de spines en una direccion preferencial. Este imbalance ”espontaneamente” rompe la simetria que tenia la red cristalina, arriba de la T critica. Un fenomeno semejante pudo ocurrir despues del ”big bang” cuando la simetria (equivalencia) de las cuatro fuerzas fisicas fue rota conforme el Universo en expansion se iba enfriando. Boson superpesado. Las particulas hipoteticas (con una masa de ~10 15 GeV) responsables de las interacciones entre los quarks y los leptones, en la etapa muy primigenia del Universo. A veces se les llama bosones-X, y tambien serian responsables del decaimiento del proton en las teorias GUT. Interaccion Nuclear Fuerte. es la mas fuerte de las 4 fuerzas fisicas. Los protones y neutrones se amarran por medio de intercambio de mesones (bosones) Los quarks interactuan estre si al intercambiar Gluones (Glue=pegamento) que

159

son particulas sin masa y sin carga electrica. De modo analogo a como las particulas con carga electrica interactuan intercambiando fotones (de masa cero). Interaccion Nuclear Debil. Es una fuerza responsable de los decaimientos-beta radiativos. (n Î p + e − + ν). El agente-mediador de esta fuerza son los bosones pesados: {W + , W − , Z 0 ) con masas ~90 GeV. Es menos intensa que la fuerte y tambien es de muy corto alcance. Teorias Unificadas, G. U.T.(Grand Unified Theories) Son una clase de teorias del campo en las cuales las fuerzas fisicas nucleares y electrica, estan unificadas en una sola fuerza, la cual se divide en las fuerzas originales, en ciertas energias. Son invariantes bajo una transformacion de simetria, cuyo efecto es local: varia de punto en punto en el espacio-tiempo. La no-conservacion de los bariones requiere de la existencia de particulas muy masivas (bosones de norma o de Higgs) con masas ~10 15 GeV. En el Universo muy primigenio ( T > 10 28 K, t < 10 −35 seg) cuando la energia de un foton es comparable con la masa de reposo de esas particulas muy ma-sivas, los procesos que no conservan bariones pueden ser muy importantes y pueden convertir a un Universo inicial con un nivel arbitrario de simetria-barion, en otro con justo el exceso de bariones que observamos actualmente: 1 por cada 10 9 fotones. En la epoca cuando los bariones y los anti-bariones se aniquilaron( T ~10 12 K), queda un Universo compuesto predominantemente de bariones, como hoy se observa.

160 SuperSimetria. (simetria: fuerza-materia). Importante simetria descubierta en 1974, connota una simetria entre los bosones y los fermiones. Implica a la llamada Supergravedad, que intenta unificar la fuerza gravitatoria con las otras fuerzas. Gravedad Cuantica y la Singularidad Inicial Cerca de la singularidad inicial la curvatura del espacio-tiempo es muy grande y los efectos cuanticos llegan a ser significativos. La Relatividad General falla y es necesario reemplazarla por una teoria cuantica de la gravedad. El tiempo cuando esto sucede es el tiempo de Planck Gh c5
1/2

TP ~

~ 10 −43 seg, no hay un acuerdo sobre la mejor manera de cuantizar a la

gravedad. Entre este tiempo que corresponde al radio del Universo igual a su longitud de onda Compton, h /mc, y el tiempo de Compton (~10 −23 s) cuando el radio del Universo es igual a la longitud de onda Compton de un proton, efectos cuantico-gravitacionales como la creacion de particulas es aun importante pero el concepto de campo gravitatorio y de la metrica del espacio-tiempo no pueden ser empleados, la metrica fluctua cuanticamente. Se han hecho muchas investigaciones en este tema, la llamada epoca de Planck. Ecuacion de Saha. Determina el numero de atomos de una especie dada, en varias etapas de ionizacion, que existen en un gas en equilibrio termico a una temperatura y densidad total especificadas. Equilibrio Termico. Es un estado termodinamico en el cual las tasas con las cuales las particulas entran en cualquier rango de velocidades, spines, etc., balancean exactamente a las tasas con que salen de esos rangos. Cualquier sistema fisico, si

161

es dejado sin perturbar durante un intervalo grande de tiempo, eventualmente se encaminara a tal estado. Dispersion Thompson. Es el limite de la dispersion Compton, para bajas energias, es independiente de la frecuencia y es el proceso en el cual la radiacion electromagnetica es absorbida y reemitida sin (basicamente) cambio en la frecuencia. La dispersion por electrones libres fue la causa dominante de la opacidad en el Universo primigenio. Los fotones tienen energias E γ << m e c 2 . Quasar. un objeto que parece una estrella pero cuyo espectro de emision de lineas muestra un corrimiento-al-rojo muy grande. Son los objetos mas luminosos. Anisotropias en el Fondo de MicroOndas. Experimento diseñado para medir la intensidad de la radiacion de fondo cosmico CMB, en diferentes direcciones . Una prediccion fundamental del origen cosmologico de esta radiacion, es que el movimiento relativo de la Tierra relativo a las regiones distantes del Universo, debe ser detectable. El efecto implica un incremento en la brillantes de cerca de 10 −3 K en la direccion que estamos moviendonos y una disminucion similar en la direccion opuesta. Mini Hoyos Negros. En el Universo primigenio, caotico, se pueden formar tales hoyos en epocas tan primigenias como el tiempo de Planck. La masa caracteristica de ellos es 10 −6 gramos, que es la masa minima de una inhomogeneidad colapsante, en ese tiempo. Por un efecto cuantico que descubrio Hawking, pierden masa, se ”evaporan”

162 en un tiempo del orden de: 10 −3 x M 3 seg. Hoyos negros de masas menores de M ~10 15 gr se evaporaran en un t ~10 10 años. Hoyos negros mas grandes se pueden formar en epocas posteriores. Las teorias convencionales de la evolucion estelar muestran que solo estrellas muy masivas pueden formar hoyos negros grandes. Quarks primordiales. Todos los hadrones estan formados con quarks, en la epoca de altas densidades y temperaturas del Universo muy primigenio, grandes numeros de quarks habrian estado presentes en equilibrio con las demas particulas elementales. Cuando el Universo se expandia y se enfriaba, algunos de estos serian eliminados al ser estructurados en hadrones y si sobrevivieron quarks libres, es un problema hasta hoy no resuelto. Relajacion (o Termalizacion). El proceso que se lleva a cabo en un sistema de cuerpos en el cual, de una distribucion aleatoria de movimientos se llega a un estado relajado que esta en equilibrio termico. Graviton. Es el quantum del campo gravitacional. En una teoria cuantica de dicho campo la fuerza seria propagada por el intercambio de gravitones, estos son particulas con masa cero, o muy pequeña, carga electrica cero y spin = 2Ò, su velocidad es la de la luz. Lepto-quark. Nombre usado para bautizar a los mediadores de la fuerza electronuclear postulada en la Teoria de la Gran Unificacion ,GUT, la cual es un intento de unificar a las tres fuerzas: nuclear-fuerte (”fuerza de color”), debil y la electromagnetica. Su masa se supone a ser de ~10 15 GeV, tienen spin 1h y se denotan con la letra X. Quantum. Es una cantidad pequeña, discreta, usualmente de energia o de momentum

163

angular, p.ej. el quantum de energia portado por un foton, es: E = hν, donde ν es la frecuencia de la radiacion electromagnetica asociada. Region H II. Nube de hidrogeno caliente,ionizado, calentado usualmente por una estrella Nube H I. Nube de hidrogeno frio y neutral. Elementos ligeros. hidrogeno, litio, berilio, boro. Especies. Los elementos y sus isotopos. Tiempo Cosmologico. En un Universo homogeneo, los tiempos propios de observadores pueden ser sincronizados para dar un tiempo universal, cosmologico. Observador co-movil. Uno que esta en reposo con respecto al substrato. Substrato. La materia en el Universo, que suponemos esta distribuida en un fluido regular, no-accidentado. Seccion Transversal de Dispersion. Es una medida de la probabilidad de que un proceso suceda. O del numero de eventos de tal proceso. Seciones tipicas en Fisica, son: 3 x 10 −26 cm 2 para la interaccion de dos protones con alta energia, la cual es comparable al area geometrica, ”area de la particula blanco”. 10 −37 , para para que un neutrino de 10 GeV interactue con un proton, implicando que pasará a traves de 10 11 protones, antes que choque con uno. Axiones. son bosones de Goldstone necesarios para conservar la simetria CP en las interacciones nucleares fuertes. Bosones de Goldstone. Son particulas sin masa que surgen cuando una simetria

164 global (no-local) es rota ”espontaneamente” , son indeseadas y eliminadas usando una transformacion de Norma (Gauge Transformation). Gravitino, Fotino, Gluino. son particulas (compañeras al graviton, foton, gluon) que son predichas por la Teoria de la SuperSimetria. la masa del gravitino es de M ≈ 1keV, si la M SUSY ≈ 10 6 GeV la masa del fotino es de 10 a 100 veces la masa del proton WIMP. siglas,en ingles, de: Particulas Masivas Debilmente Interactuantes. son candidatas para ser la materia obscura.(Dark Matter) Metodo de Monte-Carlo. Es una manera de calcular integrales dificiles, al evaluar a la funcion que deseamos integrar, en un conjunto aleatorio de puntos. Plasma. Es el 4o. estado de la materia en la cual los atomos estan ionizados. Se encuentran a muy altas temperaturas, tales como el interior de las estrellas. Boson-W. Particula mediadora de la interaccion debil, predicha en 1967 y encontrada en los aceleradores, en 1983. Densidad del Universo: Ω tot = ρ tot /ρ critica De las medidas del espectro angular de potencia de las anisotropias de la CMB resultados del año de 1992, en experimentos en globos aerostaticos encontraron que el primer pico acustico en el espectro angular se localiza en un valor de multipolo de ~210. este resultado es consistente con un valor de la Ω total , muy proximo a uno: Boomerang: 1.02 +0.06 −0.03 MAXIMA: 0.9 +0.18 −0.16

Bajo la hipotesis de que las fluctuaciones iniciales de la densidad que dieron origen a las fluctuaciones de la temperatura, son Gaussianas y adiabaticas,

165

estos resultados dan una evidencia muy fuerte de que nuestro Universo es plano. (Ω total = 1.0). todos los experimentos son consistentes con un modelo inflacionario, adiabatico, con materia obscura fria (CDM). Los siguientes experimentos checaran aun mas esta hipotesis y daran informacion sobre el espectro de ondas gravitacionales predichas por el modelo inflacionario. Densidad critica del Universo, ρ critica . No se calcula en el sentido normal de la palabra, sino que en la ec. de Friedman, que da la evolucion del factor de escala R(t) (esencialmente es el tamaño del Universo), este depende de la constante G N de la densidad, ρ, y del parametro de curvatura, k. Se sustituyen los valores de la cte. de Hubble, de G y de k, y se calcula: ρ ≈ 10 −29 gramos. Medidas recientes de la densidad real, total, son cercanas a esta densidad critica. Espectro de Potencia. Este espectro de las fluctuaciones de la densidad de materia (P k ) es una de las cantidades medibles mas importantes. La teoria de como dicho espectro se relaciona con los otros parametros (tal vez mas interesantes) es muy sofisticado, Permite medir varios parametros basicos: {Ω m , Ω b , Ω Λ , H o , etc) de mediciones de la potencia. Medicion de la densidad de materia: Ω m . Los clusters de galaxias se usan para medir dicha Ω. El metodo es medir el cociente (M / L) y la densidad de luminosidad del fondo j (j), al mismo corrimiento-al-rojo. Esto permite calcular: Ω m = M × ρ crit L medidas de este tipo dan: Ω m ~ 0.2 con errores de 20 %. Esto implica que la mayoria de la materia del Universo es no-barionica, y sugiere que la densidad es menor que la

166

densidad critica. Isotropia del fondo de microondas. El alto grado de isotropia de la radiacion de fondo en escala angular grande y pequeña, tiene consecuencias profundas para la imagen del Universo, y son tres tipos de anisotropia: (a) anisotropia de 360 , o de ”dipolo”, de 24 horas El movimiento combinado del movimiento de la Tierra alrededor del Sol, del Sol alrededor de la Galaxia, el movimiento de esta dentro del Grupo Local, y el movimiento de este, respecto al cluster de Virgo, y el movimiento aleatorio de este, con respecto al substrato, resultaria en que la Tierra tiene un movimiento neto con respecto al sistema de referencia cosmologico o substrato. Aunque la radiacion de fondo fuera perfectamente isotropica con respecto al substrato, mostraria una anisotropia de dipolo caracteristica, debido al efecto del corrimiento Doppler sobre la intensidad observada en la Tierra. T(θ) =T 0 (1 + v cosθ/c)(1 − v 2 /c 2 ) −1/2 Este tipo de anisotropia fue detectado en 1977 usando un avion tipo U2 y confirmado usando globos aereostaticos de gran altitud. cuando se corrige para tomar en cuenta el movimiento alrededor de la galaxia, se calcula que la velocidad de nuestra galaxia con respecto al fondo de radiacion, es de 520 ± 75 km/seg en una direccion dada por las coordenadas galacticas: = 264±10 , b = 33±10 .

Esta es una velocidad muy grande comparada con los movimientos aleatorios de galaxias cercanas y la direccion entra en conflicto con la deducida de estudios de anisotropia en la expansion Hubble.

167 (b) anisotropia de 180 , 12-horas o de ”cuadrupolo” Si el Universo esta girando o se esta torciendo (expandiendose anisotropicamente),entonces podriamos esperar una anisotropia a gran escala en la cual el fondo se observaria mas frio o mas caliente que el promedio, en dos direcciones opuestas en el cielo. No se observa tal efecto y el fondo de radiacion es isotropico en una gran escala con una exactitud de 0.03 %. (c) anisotropias en pequeña escala. El Universo es inhomogeneo en escala de masas correspondiente a las galaxias y a sus cumulos de 10 8 − −10 15 M , se espera que en la epoca de la recombinacion las perturbaciones de la densidad eran presentes y podrian crecer debido a la influencia de su propia gravitacion. Para que las galaxias se hayan formado en esa epoca es necesario que la amplitud de esas ∆ρ perturbaciones de la densidad fuera de magnitud ρ cosmologica Ω 0 = 1, y de ≥ 1% si Ω 0 = 0.1. Las correspondientes fluctuaciones de la temperatura, en el fondo de radiacion observado, serian ∆T ~10 −4 , o menor, en una escala angular de 0.5 — 20´ . T Las observaciones actuales sugieren el valor ∆T T (d) El efecto Zeldovich–Sunyaev El gas caliente que esta en los cumulos de galaxias interactua con los fotones de la radiacion de microondas cosmica, resultando que hacia un cumulo, el fondo se observa mas frio que el promedio, a grandes longitudes de onda; y mas caliente,que el promedio, a longitudes cortas. La magnitud de este efecto es de cerca de 0.001 K y ha sido medido en un numero de 10 −4 , en escalas de 3´ a 40´. 0.1% si el parametro de la densidad

168 cumulos. Parametro g ∗ . Es el numero de estados de spin de todas las especies de particulas relativistas. Durante la BBN, g ∗ = 10.75 para el escenario estandar. Nube Lyman-α. Es una nube de gas (mayoria hidrogeno) presente en el Universo primigenio, que es ”visto” por su absorcion de luz (en la serie Lyman) desde los quasares mas distantes. La serie de niveles de energia comienza en la Lyman-α, con: λ = 1216 Å continuando hasta el limite continuo hasta: 912 Å. Region H II. Es una region de gas caliente ionizado (T >> 10 4 K) (hidrogeno y helio) y son comunes dentro de nuestra galaxia y de otras. M.A.C.H.O. Siglas de: Massive Astrophysical Compact Halo Object. son estrellas demasiado ”debiles” como para ser vistas, que podrian constituir a la materia obscura barionica: p.ej.: enanas blancas, estrella de neutrones, hoyos negros enanas cafes, o planetas como Jupiter. Pueden ser detectados por su ”lensing” gravitacional de estrellas brillantes. Gravitacional Lensing: Efecto de Lentes Gravitacionales. Es el efecto de la materia en el espacio-tiempo curvado, el cual tiende a enfocar cualquier haz de radiacion de una fuente distante La curvatura del espacio es una lente de una longitud focal grande. A valores del parametro z ≈ 1, el tamaño angular de un objeto empieza a aumentar con la distancia. Este efecto distorsiona la imagen del objeto que envia luz, y esas distorsiones se usan para determinar la distribucion de masas en el objeto. Cociente Bariones/Fotones, η. Es el cociente calculado, del numero de bariones al de

169

fotones: n b /n γ , en el Universo. Su valor es el mismo ahora como lo fue en el Universo primigenio, refleja las condiciones que existian justo despues de la ”gran explosion”, en la era de la nucleosintesis; el valor actual es de η 10 −10 .

La energia de un foton de microondas es de: 0.001 eV, mientras que la de un proton es de ~10 9 eV. Por esto, actuelmente, la materia predomina sobre la radiacion. Datos numericos: η~ 3x10 −8 Ω b h 2 ~(0.3—10)x10 −10 0 parametro h, de Wagoner: ρ b = h(Tx10 9 ) 3 = h T 3 9 Ω b h 2 = 3.67x10 7 η T 0 T
3

η = 2.72 x10 −8 Ω b h 2 2.73 T

3

parametro de la desaceleracion q 0 = 0.026
4 ρ total = π (2 + 7/2 + (7/4)N ν ) T 4 (fotones+electrones+neutrinos) 30

Durante la era de la NS, el Universo aumento de tamaño, 100 veces (de 1/3 parsec hasta 100/3 parsecs) (1 pc = 3x10 18 cm)

y este, fue de 10 −10 veces de su tamaño actual, de: L 0 = 10 28 cm [comparar esto con el aumento en el tamaño de un bebe humano, que aumento un millon de veces,desde la concepcion hasta el nacimiento.] Y la duracion de la expansion del Universo,en esa era NS, fue de 3 minutos #La densidad del Universo fue de: 10 gr/cm 3 , que corresponde a una densidad de particulas, de n = 6x10 24 particulas/cm 3 , cuando t = 1 seg. esto implica unos tiempos de interaccion del orden de τ ~10 −6 seg

170 rango de temperaturas: de (0.5 – 1.2)x 10 9 K LA SUPERGRAVEDAD, UNA TEORIA UNIFICADA DE LAS 4 FUERZAS Esta teoria es la extension de la teoria de la Gravitacion de Einstein, tambien llamada: Relatividad General, porque es una generalizacion de la teoria de la Relatividad Especial, la cual se limita a sistemas de referencia inerciales, esto es, se mueven con velocidad constante, en la Teoria General, los sistemas pueden ser acelerados. La extension considerada consiste en ampliar las transformaciones de coordenadas entre observadores, a un grupo de transformaciones mas amplio y abstracto que es la llamada Supersimetria, o simetria que engloba a los Fermiones y los Bosones. LA TEORIA DE LA GRAVITACION DE EINSTEIN Cabe aqui hacer una breve sintesis sobre en que consiste la teoria debida a Einstein en la teoria de la relatividad especial se consideran transformaciones entre sistemas que tienen velocidad constante, Einstein quiso generalizar su teoria para incluir transformaciones entre sistemas con aceleracion. Hay una contradiccion entre la Gravitacion Newtoniana y la Relatividad: en aquella, la fuerza se propaga con velocidad infinita, es instantanea, pero en la relatividad, la velocidad maxima es c, la velocidad de la luz, asi que es necesario modificar a la teoria de la gravitacion newtoniana, este problema le llevo a Einstein resolverlo, 10 años. finalmente, se dio cuenta que debia trabajar en un espacio con curvatura, usar una matematica inventada por Gauss y Rieman: la geometria de los espacios curvados y el calculo tensorial. al generalizar una ecuacion basica de la gravitacion, debida a Laplace, llego a una ecuacion que expresa que la materia curva el espacio fisico de 3 dimensiones. Y que las fuerzas gravitacionales en realidad se deben a la curvatura del espacio. Esta teoria, muy dificil matematicamente, se comprobo experimentalmente cuando los astronomos midieron, en un eclipse de Sol, la desviacion de la luz de una estrella lejana cuya luz nos llega, rozando la superficie del Sol: o sea la gran masa del Sol ocasiona la curvatura del rayo de luz de la estrella lejana. El PRINCIPIO ANTROPICO Algunos fisicos consideran el problema de deducir teoricamente los valores de algunas constantes fisica a partir de primeros principios, uno de esos intentos lo hizo el Astrofisico Eddington, en su libro “Teoria Fundamental“, En las modernas Teorias Unificadas algunos intentan deducir el valor de la carga del electron, o el valor de la llamada “constante de estructura fina“, descubierta por Somerfeld, llamada “alfa“, y que vale (e 2 /Ò c) ≈ 1/137. En 1899, Max Planck descubrio un sistema de unidades, que lleva su nombre, y que valen: Lp = 0.0000000000000000000000000000000016 centimetros llamada: Longitud de Planck, es un numero increiblemente pequeño. El tiempo de Planck: Tp = 0.00000000000000000000000000000000000000000005 segundos y la Masa de Planck: Mp =0.000022 gramos = 10 19 GeV estas unidades son aplicadas en las teorias del origen del Universo: donde se mezclan las teorias unificadas de las Particulas Elementales, y la Teoria de la Gravitacion, de Einstein. los fisicos Paul Dirac, Robert Dicke, Brandon Carter, siguiendo las ideas de Eddington, encontraron unas coincidencias notables en las siguientes constantes fisicas: el numero de particulas del Universo, el radio del Universo en su maxima expansion, el “radio“ de una particula elemental, la constante de estructura fina, la constante gravitacional el numero de fotones en el Universo, el numero de bariones, y la longitud de Planck, las coincidencias son que, cocientes de esas constantes, son potencias algebraicas del numero 10 a la potencia 10: 10 ∧ 10. 10 ∧ 20, 10 ∧ 40, 10 ∧ 80. por ejemplo: 10 ∧ 10 = 10,000,000,000: diez mil millones. Brandon Carter calculo que si la constante “alfa“ variara un uno por ciento, esto

171 causaria que todas las estrellas serian estrellas rojas o estrellas azules. En estos casos, ¡ninguna estrella como nuestro Sol existiria! . Carter, en 1968, se pregunto ¿como pudo haberse desarrollado la vida biologica si los valores de las constantes fisicas hubieran diferido substancialmente de los valores que tienen ? Los cientificos orientados en cuestiones filosoficas y religiosas se preguntaban si existe entonces una super inteligencia que diseña el Universo, del modo como un Arquitecto planea una casa o edificio, basandose en las leyes mecanicas y en la estetica. El cosmologo Robert Dicke, en 1961, notaba que el orden correcto de las ideas puede no ser: asi es el Universo, luego el Hombre debe ser, o sea las teorias evolucionistas biologicas. sino: aqui esta el Hombre, y asi, como debe ser el Universo ?. En otras palabras: (1) ¿que tan bueno es un Universo sin que exista la conciencia de ese Universo ? (2) la conciencia demanda la existencia de la vida biologica. (3) la Vida demanda la presencia de elementos quimicos mas pesados que el hidrogeno (4) la produccion de elementos pesados demanda que exista la combustion Termonuclear: produccion de elementos pesados por Fusion Nuclear de elementos ligeros. (5) la combustion termonuclear requiere normalmente de varios miles de millones de años de tiempo de “cocina“ dentro de una estrella. (6) varios miles de millones de años no seran disponibles en un Universo cerrado, de acuerdo con la teoria de la gravitacion, a menos que el radio del Universo en su maxima expansion sea de varios miles de millones de años-luz, o mas. asi que ¿por que, en este marco de ideas, el Universo es tan grande como los es? porque solo asi, la Humanidad puede estar aqui, en este Universo.

You're Reading a Free Preview

Descarga
scribd
/*********** DO NOT ALTER ANYTHING BELOW THIS LINE ! ************/ var s_code=s.t();if(s_code)document.write(s_code)//-->