Documentos de Académico
Documentos de Profesional
Documentos de Cultura
Medio título
Serie
Título
Contenido
Agradecimientos
Prefacio
Introducción Paul Copan
Versiones del argumento cosmológico
El KCA
Argumentos deductivos
Argumentos inductivos
Esta colección de dos volúmenes
Resúmenes de los capítulos del argumento cosmológico de Kalām: evidencia científica del
comienzo del universo
1 El argumento cosmológico de Kalām: Extracto de la “ciencia” William Lane Craig y James D.
Sinclair
2.3 Confirmación científica
2.31 El modelo estándar de Big Bang caliente
2.32 Evidencia de la relatividad general
2.33 Excepciones a los teoremas de Hawking-Penrose
Cerré curvas temporales
II. Inflación eterna
IIIa. Contracción infinita
IIIb Espacio-tiempo asintóticamente estático
IIIc Universo cíclico
IIId ¿Una cuarta alternativa ?: Deconstrucción del tiempo
Resumen de la sección III
IV Gravedad cuántica
IVa. Modelos de cuerdas
IVa (i). Inflación anterior al Big Bang (PBBI)
IVa (ii) Ekpyrótico / cíclico
Gravedad cuántica de bucle IVb
IVc Creación semiclásica ex nihilo modelos
2.34 Resumen
2 Por qué la singularidad del Big Bang no ayuda al argumento cosmológico de Kalām a favor del
teísmo J. Brian Pitts
1. Introducción
2 La doctrina de la creación y su justificación
3 Cardinalidad y tamaños del infinito
4 Cosmología y creación modernas
5 ¿Tolerancia o intolerancia hacia las singularidades?
6 ¿Leibniz contra un relojero incompetente?
7 ¿Inducción del colapso de teorías anteriores?
8 El colapso estelar implica un destructor teísta
9 Apilado de la plataforma para GTR
10 La gravedad cuántica tiende a resolver singularidades
11 personaje vicioso Dios de los huecos
12 Garantía fluctuante o inaccesible
13 La cosmología del Big Bang no es especialmente compatible con la fe
Expresiones de gratitud
3 Sobre los espaciotiempos no singulares y el comienzo del universo William Lane Craig y James
D. Sinclair
1.0 Introducción
2.0 El argumento de la singularidad formulado
3.0 El argumento de la singularidad evaluado
3.1 Valoración de la premisa (8)
3.2 Evaluación de la premisa (9)
4.0 Evidencia física para la premisa (2)
4.1 Modelos, metodología y su uso
4.2 Universo en expansión
4.3 Universo que se contrae infinitamente
4.4 Universo asintóticamente estático
4.5 Universo eternamente cíclico
4.6 Flecha del tiempo inverso
5.0 El comienzo del universo
6.0 Observaciones finales
Expresiones de gratitud
4 El comienzo del universo Alexander Vilenkin
El teorema de la singularidad de Penrose
Inflación eterna
El teorema de Borde-Guth-Vilenkin
Prueba de dios
Un misterio irresoluble
Apéndice: Detalles matemáticos
5 Un universo moribundo: el destino a largo plazo y la evolución de los objetos astrofísicos Fred
C. Adams y Gregory Laughlin
I. Introducción
II El fin de la evolución estelar convencional
Una vida de estrellas de la secuencia principal
B Próximos efectos de metalicidad
1 Vida útil estelar vs metalicidad
2 masas estelares vs metalicidad
C El destino de la Tierra y el Sol
D Continuación de la formación de estrellas en la galaxia.
E La función de masa final
III Muerte de la galaxia
Una relajación dinámica de la galaxia
B Radiación gravitacional y decadencia de órbitas
C Formación de estrellas a través de colisiones de enanas marrones
1 Escalas de tiempo de colisión
2 secciones transversales de colisión
3 Simulaciones numéricas y otros resultados
D El tiempo de acreción del agujero negro
E Aniquilación y captura de halo de materia oscura.
F El destino de los planetas durante la muerte galáctica.
IV Destino a largo plazo de los objetos estelares degenerados
Una desintegración de protones
B Enanas blancas impulsadas por la desintegración de protones
C Evolución química en enanas blancas
D Fases finales de la evolución de la enana blanca
E Estrellas de neutrones impulsadas por la desintegración de protones
F Desintegración de protones de orden superior
La radiación de G Hawking y la desintegración de los agujeros negros
H Desintegración de protones en planetas
V Evolución a largo plazo del universo
Una expansión futura de un universo cerrado
B Fluctuaciones de densidad y expansión de un universo plano o abierto
C La inflación y el futuro del universo
D Campos de radiación de fondo
E Posibles efectos de la densidad de energía del vacío
1 Épocas inflacionarias futuras
2 Procesos de tunelización
F Especulaciones sobre la producción de energía y entropía en el futuro lejano
1 Formación y desintegración continua de agujeros negros.
2 Aniquilación de partículas en un universo abierto
3 Formación y desintegración del positronio.
VI Resumen y discusión
Un resumen de resultados
B Eras del universo futuro
C Implicaciones experimentales y teóricas
D Entropía y muerte por calor
Expresiones de gratitud
6 Muerte por calor en termodinámica antigua y moderna Gábor Kutrovátz
1 El problema de la muerte por calor: una introducción histórica
2 La antigua solución
3 La solución moderna
3.1 Extropía
3.2 El universo modelo
3.3 Evolución del universo modelo
3.4 Más allá del modelo
4. Conclusión
7 Entropía y escatología: un comentario sobre el artículo de Kutrovátz "La muerte por calor en
la termodinámica antigua y moderna" Milan M. Ćirković
1. Introducción
2 Respuesta alternativa al problema de la muerte por calor
3 Cosmología moderna y algunos errores en el relato de Kutrovátz
3.1 El campo gravitacional como principal fuente de entropía
3.2 Capacidades termodinámicas de los sistemas gravitantes
3.3 Universos abiertos frente a universos cerrados y constante cosmológica
3.4 Extropía en universos abiertos y la definición de muerte por calor
4 Discusión: escatología física y sistemas abiertos
Expresiones de gratitud
8 La segunda ley generalizada implica un teorema de singularidad cuántica Aron C. Wall
1. Introducción
2 La segunda ley de la termodinámica
2.1 La segunda ley ordinaria
2.2 La segunda ley generalizada
3 Teoremas de termodinámica generalizada
3.1 Propiedades de monotonicidad de la entropía generalizada
3.2 Superficies cuánticas atrapadas
4 aplicaciones
4.1 Agujeros negros y bebés
4.2 Big bangs y comienzos
4.3 Discos de deformación y objetos de masa negativa
4.4 Máquinas del tiempo
5 ¿Sigue funcionando para la gravedad cuántica?
5.1 Fluctuaciones de entropía
5.2 Geometrías cuánticas
6. Conclusión
Expresiones de gratitud
Apéndice
conclusión Por lo tanto, el universo tiene una causa
9 La agencia libertaria y el debate Craig / Grünbaum sobre la explicación teísta de la
singularidad inicial JP Moreland
10 La causalidad y la imposibilidad lógica de una causa divina Quentin Smith
1. Introducción
2 Definiciones causales y la noción de causa divina originaria
Definición de causa de Hume
(a) Prioridad temporal
(b) Continuidad espacio-temporal
(c) Relación nominal
Definición singularista de causa de Ducasse
La definición de transferencia de una causa
Definiciones contrafácticas de causalidad
3 Causas y condiciones lógicamente suficientes
La teoría de la causalidad de Sosa
4 Descripciones analógicas y literales
Una formulación literal de la relación divina con el big bang.
5 Objeciones a los argumentos de que Dios no puede ser una causa
Primera objeción
Segunda objeción
Tercera objeción
Cuarta objeción
6 Conclusión: Argumentos cosmológicos y teleológicos para la inexistencia de Dios
11 Más allá del Big Bang William Lane Craig
Las alternativas ante nosotros
La alternativa sobrenaturalista
Objeciones naturalistas
Conclusión
Permisos
Índice
Derechos de autor
El argumento cosmológico de Kalām
Traducido por: Ariel Villca Ticona
Estudios de Bloomsbury en Filosofía de la Religión
Títulos de la serie
Académico de Bloomsbury
Una huella de Bloomsbury Publishing Plc
Contenido
Agradecimientos
Prefacio
Permisos
Índice
Agradecimientos
Me gustaría expresar mi gratitud a Haaris Naqvi de Bloomsbury por ayudarme a llevar este
volumen hasta su publicación. Gracias también a Stewart Goetz, editor de filosofía de la religión
de Bloomsbury, por recomendar la publicación de la propuesta. Ha sido un placer trabajar con la
editora de Bloomsbury, Katherine De Chant, y la directora de proyectos de Deanta Global,
Leeladevi Ulaganathan, quienes han sido amables e ingeniosos. Aprecio mucho al editor de
producción de Bloomsbury, James Tupper, por su trabajo entre bastidores. Estoy en deuda con
Mark Nowacki, Alexander Pruss y James Sinclair, quienes ofrecieron útiles recomendaciones
sobre los artículos que se incluirán en esta antología de dos volúmenes. Un agradecimiento
especial a William Lane Craig, quien ofreció sabios consejos y sugerencias útiles durante el
proceso de producción de la antología. Agradezco a Aron Wall por trabajar para hacerme llegar
su artículo revisado, así como a Steven Wheeler, editor de Inference, por hacer provisiones
especiales sobre el ensayo de Alexander Vilenkin. Agradezco el trabajo diligente de David S.
Oderberg, Andrew Loke y Robert C. Koons, por poner a disposición ensayos originales para los
volúmenes de esta antología. Gracias a Tim Bayless y Lee Koz por su ayuda muy práctica en el
proceso de permisos. Estoy agradecido con mi universidad, Palm Beach Atlantic University, por
concederme un año sabático para dedicar tiempo a la redacción y edición, y a Wycliffe Hall, de la
Universidad de Oxford, por su invitación a ser un académico visitante allí durante los mandatos
de Hilary y Trinity de 2017. Por último, también reconozco mi deuda con mi difunto mentor y
amigo, Stuart C. Hackett: Requiescat in pace.
Prefacio
Este es el segundo volumen de una antología sobre el argumento cosmológico kalām medieval,
pero recientemente revivido, de la existencia de Dios. Este argumento sostiene que la serie de
eventos pasados es finita, que por lo tanto el universo comenzó a existir y que la causa del
universo debe ser personal.
Este argumento ha recibido viento fresco en sus velas de dos descubrimientos científicos
recientes que han producido evidencia física prima facie plausible para el comienzo del universo.
La expansión del universo apunta a su comienzo, a un Big Bang, cuando uno vuelve sobre la
expansión del universo en el tiempo. Y la segunda ley de la termodinámica, que implica que la
energía del universo se degrada progresivamente, sugiere que el universo comenzó con una
condición inicial de baja entropía.
En contraste con el primer volumen de esta antología, este volumen en particular revisa y
evalúa los méritos de las últimas evidencias científicas para el comienzo del universo. La última
parte de este libro es una discusión de la conclusión del argumento kalām: que el universo tiene
una causa, de hecho, una causa personal con propiedades de importancia teológica.
La Introducción a este volumen no solo presenta una descripción general del argumento
cosmológico kalām, su trasfondo y su reciente resurgimiento (como lo hace la Introducción en el
volumen complementario); pero también proporciona resúmenes de los capítulos de los ensayos
sobre el apoyo inductivo (científico) de la segunda premisa del argumento y la conclusión del
mismo.
Confío en que este trabajo y su volumen complementario, El argumento cosmológico de Kalām:
argumentos filosóficos para la finitud del pasado, proporcionarán una presentación atractiva y
fresca de este argumento perdurable a favor de la existencia de Dios desde el punto de vista de
sus partidarios y oponentes.
Introducción
Pablo Copán
En 1979 William Lane Craig publicó The Kalām Cosmological Argument.1Al igual que la
Investigación de Hume, salió muerto de las imprentas y se agotó de inmediato. Pero a lo largo de
las décadas transcurridas desde su primera publicación, su influencia ha crecido de manera
constante hasta el día de hoy; el argumento cosmológico kalām (KCA) se ha convertido en uno
de los argumentos más debatidos de la teología natural. Quentin Smith, escribiendo en The
Cambridge Companion to Atheism (2006), observa,
Un recuento de los artículos en las revistas de filosofía muestra que se han publicado más
artículos sobre la defensa de Craig del argumento de Kalam que los que se han publicado
sobre la formulación contemporánea de cualquier otro filósofo de un argumento a favor de
la existencia de Dios. Sorprendentemente, esto es válido incluso para el argumento
ontológico de Plantinga y el argumento de Plantinga de que el teísmo es una creencia básica
racionalmente aceptable. El hecho de que tanto los teístas como los ateos “no pueden dejar
el argumento Kalam de Craig solo” sugiere que puede ser un argumento de interés filosófico
inusual o que tiene un atractivo núcleo de plausibilidad que hace que los filósofos vuelvan a
él y lo examinen de nuevo.2
Craig ha continuado desarrollando el argumento del libro original (ahora de nuevo impreso),
revisándolo, actualizándolo y completándolo y respondiendo a las críticas publicadas.3
El interés de Craig por la KCA (cuya procedencia se explicará en un momento) se despertó en
1971 con la lectura de un libro poco conocido del filósofo cristiano Stuart C. Hackett (1925-
2012).4 titulado La resurrección del teísmo (1957). 5 En su libro, Hackett llamó la atención sobre
esta versión en gran parte olvidada del argumento cosmológico. 6Hackett argumentó que una
regresión temporal infinita de eventos —una serie de causas y efectos pasados— es imposible.
Aunque una serie infinita puede ser concebible en matemáticas sin contradicción, implica "auto-
contradicción en el reino del ser", el reino de los existentes reales. El escribio:
De hecho, estamos familiarizados con la serie infinita en matemáticas: por ejemplo. . . -3, -2, -
1, 0, 1, 2, 3. . .; y no decimos que tal serie implique autocontradicción. ¿Por qué, entonces,
deberíamos decir que tal serie implica auto-contradicción en el reino del ser?
Concibo que será una respuesta suficiente a esta objeción si demuestro que la hipótesis
de una serie infinita de existentes reales implica auto-contradicción. Este es precisamente el
caso, ya que tal serie consta de partes determinadas o no. Si no es así, la serie no tendría
aplicabilidad al universo presente, ya que, tanto espacial como temporalmente, el universo
manifiesto total consta de partes determinadas. Pero si la serie propuesta está así constituida
por tales partes, la auto-contradicción está manifiestamente involucrada: porque ninguna
serie de partes determinadas podría sumar una serie realmente infinita. Sin embargo, tal
serie realmente infinita debe existir a menos que la serie culmine en el ser absolutamente
autocondicionado o en Dios, lo cual es contrario a la hipótesis de que la serie es realmente
infinita. Es más, supongamos que existe una serie tan infinita de causas y efectos. En cualquier
momento dado, la serie sería infinita, pero mayor que en cualquier momento anterior: pero
esto es contradictorio, ya que una serie realmente infinita no admite aumento o disminución.
Por lo tanto, o la serie no es infinita, o la progresión de los eventos temporales es una ilusión;
pero entonces no hay forma de explicar la ilusión. Por lo tanto, concluyo que una serie infinita
de existentes reales es inconcebible porque se contradice en sí misma y que, por lo tanto, la
objeción es inválida. Y si alguien negara que aquí se aplica la ley de la contradicción, respondo
que este tipo de objeciones se aniquilan a sí mismas. aún mayor que en cualquier momento
anterior: pero esto es contradictorio ya que una serie realmente infinita no admite aumento
o disminución. Por tanto, o la serie no es infinita, o la progresión de los acontecimientos
temporales es una ilusión; pero entonces no hay forma de explicar la ilusión. Por lo tanto,
concluyo que una serie infinita de existentes reales es inconcebible porque se contradice en
sí misma y que, por lo tanto, la objeción es inválida. Y si alguien niega que aquí se aplica la ley
de la contradicción, respondo que este tipo de objeciones se aniquilan a sí mismas. aún mayor
que en cualquier momento anterior: pero esto es contradictorio, ya que una serie realmente
infinita no admite aumento o disminución. Por lo tanto, o la serie no es infinita, o la
progresión de los eventos temporales es una ilusión; pero entonces no hay forma de explicar
la ilusión. Por lo tanto, concluyo que una serie infinita de existentes reales es inconcebible
porque se contradice en sí misma y que, por lo tanto, la objeción es inválida. Y si alguien
negara que aquí se aplica la ley de la contradicción, respondo que este tipo de objeciones se
aniquilan a sí mismas. Por lo tanto, concluyo que una serie infinita de existentes reales es
inconcebible porque se contradice en sí misma y que, por lo tanto, la objeción es inválida. Y
si alguien negara que aquí se aplica la ley de la contradicción, respondo que este tipo de
objeciones se aniquilan a sí mismas. Por lo tanto, concluyo que una serie infinita de existentes
reales es inconcebible porque se contradice en sí misma y que, por lo tanto, la objeción es
inválida. Y si alguien niega que aquí se aplica la ley de la contradicción, respondo que este
tipo de objeciones se aniquilan a sí mismas.7
Lo que Hackett llamó una “auto-contradicción en el reino del ser” se llamaría hoy una
imposibilidad metafísica. Craig estaba particularmente intrigado por la noción de que una
regresión infinita de eventos pasados, aunque no estrictamente lógicamente imposible, podría
ser metafísicamente imposible.
Como antecedente para el compromiso con el argumento de Hackett, Craig se comprometió a
estudiar la historia del argumento cosmológico de la existencia de Dios. Como resultado, propuso
una taxonomía triple de argumentos cosmológicos que ha sido ampliamente adoptada: el
argumento cosmológico tomista, el argumento cosmológico leibniziano y el argumento
cosmológico kalām.8
Pero esa es una historia para otro día; nuestro interés radica en el tercer tipo de argumento
cosmológico identificado por Craig.
La KCA es la versión del argumento cosmológico que Craig encontró detrás del argumento de
Hackett. "Kalām", árabe para "palabra", vino a denominar la teología filosófica perseguida por
los escolásticos islámicos medievales. Los defensores de esta versión del argumento, que se
remontan al comentarista aristotélico John Philoponus en la Alejandría preislámica,
argumentaron en contra de la posibilidad de una regresión temporal infinita de eventos;
sostenían, más bien, que el universo llegó a ser un tiempo finito. atrás. El argumento apunta a
mostrar que una regresión temporal infinita de eventos es imposible y que, por lo tanto, el
universo comenzó a existir sin una causa material. Junto con el principio causal de que todo lo
que comienza a existir tiene una causa, este hecho implica que el universo tiene una causa
trascendente (eficiente) de su existencia.
El KCA
El filósofo musulmán al-Ghāzālī presentó la KCA en esta forma simple: “Todo ser que comienza
tiene una causa para su comienzo; ahora el mundo es un ser que comienza; por lo tanto, posee
una causa para su comienzo ”.14 El argumento de Ghāzālī es asombrosamente simple:
Si todo va bien, una vez que uno ha llegado a una causa trascendente del comienzo del universo,
un análisis conceptual de lo que es ser una causa del comienzo del universo le permite a uno
recuperar una serie de atributos sorprendentes de tal causa, incluyendo atemporalidad,
inmaterialidad y, en última instancia, personalidad.
Craig adoptó inicialmente la formulación de Ghāzālī, pero más recientemente ha observado
que el éxito del argumento no depende de una premisa tan amplia como (1), sino más bien de la
más modesta.
1 '. Si el universo comenzó a existir, el universo tiene una causa de su comienzo.
será suficiente y es aún más evidente. Aunque Craig ha ofrecido varios argumentos en defensa
de la premisa causal, su interés radica claramente en (2). Ha ofrecido argumentos tanto
deductivos como inductivos en apoyo de la afirmación clave de que el universo comenzó a existir.
Argumentos deductivos
2.1 El argumento deductivo basado en la imposibilidad de un infinito actual:
2.11 Un infinito real no puede existir.
2.12 Una regresión temporal infinita de eventos es un infinito real.
2.13 Por tanto, no puede existir una regresión temporal infinita.
Argumentos inductivos
2.3 El argumento inductivo basado en la expansión del universo
2.4 El argumento inductivo basado en las propiedades termodinámicas del universo
El primer argumento deductivo es una expresión de finitismo. Según la visión aristotélica de
Craig, el único infinito que realmente puede existir es el infinito potencial, que es simplemente
un concepto límite, no un número. No hay ejemplos de infinitos reales en el mundo concreto, y
la noción de infinito potencial es suficiente para la búsqueda de la ciencia moderna. Pero, ¿qué
pasa con el reino matemático abstracto descrito por la teoría de conjuntos infinitos? Aquí los
proponentes de la KCA han hecho una distinción en principio entre objetos abstractos
causalmente deteriorados y objetos concretos, sosteniendo que los absurdos que acompañan a
la existencia de un infinito real se aplican solo a objetos causalmente conectados, o ellos, como
el mismo Craig, adoptan un anti -vista realista de tales objetos abstractos, negándoles la
existencia en cualquier sentido metafísicamente pesado. 15
El segundo argumento deductivo sirve para poner en primer plano la teoría del tiempo, que
subyace a la KCA, a saber, una teoría del tiempo tensa, en oposición a la tensa, que afirma la
realidad objetiva del devenir temporal. La premisa (2.22) presupone que la serie de eventos
temporales no existe sin tensión, sino que surge seriatim. Por lo tanto, el evento presente es
alcanzado por un lapso genuino de un número realmente infinito de eventos anteriores uno tras
otro, si el universo no tiene comienzo. Este rasgo de un pasado infinito ocasiona múltiples
dificultades, célebremente ejemplificadas en la tesis de la Primera Antinomia de Kant sobre el
tiempo. Para que uno no se sienta tentado a evitar estas dificultades optando por una teoría del
tiempo sin tensión, Craig ha argumentado extensamente en un par de volúmenes a favor de una
teoría del tiempo tensa y en contra de una teoría sin tensión.dieciséis
Lo que es especialmente intrigante acerca de la afirmación de la KCA del comienzo del universo
es la evidencia científica a la que Craig apela de descubrimientos relativamente recientes que
apuntan a la finitud temporal del universo. Como se indicó anteriormente, los dos principales
argumentos inductivos que apoyan la segunda premisa de la KCA se basan, en primer lugar, en
la expansión del universo y, en segundo lugar, en las propiedades termodinámicas del universo.
Un segundo cuerpo de evidencia científica que se considera que apoya el comienzo del universo
analiza las implicaciones de sus propiedades termodinámicas. La segunda ley de la
termodinámica establece que un universo cerrado, con su cantidad limitada de energía, siempre
se moverá hacia una mayor entropía. Un objeto caliente tiende a convertirse en un objeto más
frío; la energía se inclina hacia la disipación o el desorden. Dado que el universo se está agotando
y, dado el tiempo suficiente, experimentará una muerte por calor de algún tipo, no puede ser
eterno. Si el universo fuera eterno, ¿por qué no ha ocurrido ya esta muerte por calor?
En lugar de pasar de un Big Bang a, como se había asumido relativamente recientemente, un
Big Crunch, en el que el universo se contraería y colapsaría sobre sí mismo, el universo
continuará expandiéndose pero avanzando hacia una Peste Negra cósmica, por así decirlo. . Se
moverá hacia un estado de creciente frialdad, desintegración y muerte, sin nada más que mostrar
aparte de un gas diluido de partículas fundamentales y radiación. Pero si, dado el tiempo
suficiente, el universo se encuentra en tal estado sin vida, entonces es sumamente
desconcertante por qué, dado un tiempo pasado infinito, el universo no está ahora en tal estado.
La solución más obvia es que el problema se basa en una suposición falsa, a saber, que el universo
no tiene comienzo. Dado que el universo se está agotando, de alguna manera, como reconoce el
físico Richard Schlegel,26
De modo que tanto la expansión del universo como la segunda ley de la termodinámica parecen
apuntar a la finitud del universo, ofreciendo así una confirmación empírica de los argumentos
filosóficos y deductivos en apoyo de la premisa clave de la KCA.
Notas
1. Londres: Macmillan, 1979.
2. "Kalam Cosmological Arguments for Atheism", en The Cambridge Companion to Atheism, ed. Michael Martin (Cambridge:
Cambridge University Press, 2007), pág. 183.
3. Como una indicación más de un gran interés en la KCA, Jamalon Publishers (2017) está publicando en árabe una antología de
ensayos sobre la KCA. Por lo que puedo decir, varios de los mismos artículos destacados que he seleccionado serán traducidos
al árabe para ese volumen.
4. Un querido profesor que se convirtió en un querido amigo de Craig y de mí, Hackett fue un maestro brillante, excéntrico y
amable y un filósofo muy capaz que se destaca por sus oraciones de estilo germánico de párrafos largos. Había sido profesor
de Craig en Wheaton College, Illinois, y Craig se convertiría más tarde en colega de Hackett en Trinity Evangelical Divinity
School. Tuve el privilegio de estudiar con estos dos académicos, escribiendo mi tesis de maestría en Trinity en el KCA bajo la
supervisión de Hackett como mi primer lector.
5. Publicado originalmente por Moody Press de Chicago, el libro ha sido reeditado por Wipf y Stock (2009).
6. La defensa de seguimiento de Hackett de la afirmación de la revelación cristiana también propone este argumento: La
reconstrucción de la afirmación de la revelación cristiana: una apologética filosófica y crítica (Eugene, OR: Wipf y Stock, 2009),
98-103. Este libro fue publicado previamente por Baker Book House en 1984.
7. Stuart C. Hackett, La resurrección del teísmo (Eugene, OR: Wipf y Stock, 2009), 293–94.
8. El argumento cosmológico de Platón a Leibniz (Londres: Macmillan, 1979).
9. Tomás de Aquino, Summa Theologica en Introducción a Santo Tomás de Aquino, ed. Anton Pegis (Nueva York: Modern
Library, 1948).
10. GW Leibniz, "Los principios de la naturaleza y de la gracia, basados en la razón", en Leibniz Selections, ed. P. Wiener (Nueva
York: Charles Scribner's Sons, 1951), 527.
11. GW Leibniz, "The Monadology", en Selecciones de Leibniz, 539.
12. Bertrand Russell y Frederick Copleston, "La existencia de Dios", La existencia de Dios, ed. John Hick (Nueva York: Macmillan,
1964), 175.
13. ¿Es razonable la fe en Dios? Con Alex Rosenberg. Ed. Paul Gould y Corey Miller, Estudios de Routledge en la filosofía de la
religión (Londres: Routledge, 2014).
14. Al-Ghazali, Kitab al-Iqtisad fi'l-Iqtiqad (Ankara: University of Ankara Press, 1962), 15–16.
15. Dios sobre todo: Aseidad divina y el desafío del platonismo (Oxford: Oxford University Press, 2016); Dios y objetos abstractos:
la coherencia del teísmo III: Aseity (Berlín: Springer Verlag, 2017).
dieciséis. The Tensed Theory of Time: A Critical Examination, Synthese Library 293 (Dordrecht: Kluwer Academic Publishers,
2000); The Tenseless Theory of Time: A Critical Examination, Synthese Library 294 (Dordrecht: Kluwer Academic
Publishers, 2000).
17. A. Friedmann, “Über die Krümmung des Raumes”, Zeitschrift für Physik 10 (1922): 377–86; G. Lemaître, “Un univers
homogène de masse constante et de rayon croissant, rendant compte de la vitesse radiale des nébuleuses extragalactiques”,
Annales de la Société scientifique de Bruxelles 47 (1927): 49–59.
18. R. Penrose, “Colapso gravitacional y singularidades del espacio-tiempo”, Physical Review Letters 14 (1965): 57–59; SW
Hawking y R. Penrose, La estructura a gran escala del espacio-tiempo, ed. SW Hawking y GFR Ellis (Cambridge: Cambridge
University Press, 1973), 266.
19. PCW Davies, "Singularidades del espacio-tiempo en cosmología", en El estudio del tiempo III, ed. JT Fraser (Nueva York:
Springer Verlag, 1978), 78–79.
20. Stephen Hawking y Roger Penrose, La naturaleza del espacio y el tiempo, Serie de conferencias del Instituto Isaac Newton
(Princeton, Nueva Jersey: Princeton University Press, 1996), 20.
21. S. Hawking y J. Hartle, "La función de onda del universo", Physical Review D 28 (1983): 12, 2960–75.
22. Stephen Hawking, Una breve historia del tiempo (Nueva York: Bantam, 1988), 141.
23. Leonard Mlodinow y Stephen Hawking, The Grand Design (Nueva York: Bantam, 2010).
24. A. Borde, A. Guth y A. Vilenkin (2003): "Los espaciotiempos inflacionarios no son un pasado completo", Physical Review
Letters (2003): 90, 151301, preimpresión: http://arxiv.org/abs/gr-qc/0110012.
25. Paul Davies, "El nacimiento del cosmos", en Dios, cosmos, naturaleza y creatividad, ed. Jill Gready (Edimburgo: Scottish
Academic Press, 1995), págs. 8–9.
26. Richard Schlegel, "Tiempo y termodinámica", en Las voces del tiempo, ed. JT Fraser (Londres: Penguin, 1948), 511.
27. Aron C. Wall, “La segunda ley generalizada implica un teorema de singularidad cuántica”, arXiv: 1010.5513v3 [gr-qc] 24 de
enero de 2013, p. 38.
1
los Kalām Argumento cosmológico: extracto de
"ciencia"
Recuerde que la ciudad completa siempre está presente independientemente del valor del
factor de escala. Así que ahora considere dos situaciones adicionales. Primero, suponga que el
factor de escala se redujera a cero. El espacio (y el tiempo) desaparecerían. Cualquier estructura
que no pudiera transformarse a tamaño cero sería destruida. Si no hubiera un proceso físico que
permitiera que sucediera tal cosa, parecería que tenemos una paradoja. O debe haber un proceso
físico no descubierto o el factor de escala no puede, en realidad, asumir un valor nulo.
En segundo lugar, imagina que la ciudad tiene un tamaño infinito. Conceptualmente, no hay
problema en extender las calles de norte a sur y de este a oeste hasta el infinito en cada dirección.
¿Qué significa escalar el tamaño del universo en tal situación? Independientemente del factor de
escala que se adopte, el tamaño del universo sigue siendo infinito. Sin embargo, la idea de escalar
aún conserva la coherencia en el sentido de que podemos aplicar un multiplicador a la distancia
finita entre manzanas de la ciudad. Sin embargo, ¿cuál sería el significado de aplicar un factor de
escala cero en esta situación? Ahora parecería que el tamaño del universo completo es "cero por
infinito" que, en general, puede ser cualquier número finito (Barrow 2005, p. 160). ¿Qué significa
esto, dado que la distancia entre cualquier punto del universo y cualquier otro punto debe seguir
siendo cero? GR simplemente se descompone en un factor de escala cero.
Si el universo completo es o no de tamaño infinito o finito, se da en la ecuación de Friedmann
por el parámetro de curvatura "K". Una K positiva indica que el universo, al igual que la superficie
de la Tierra, es ilimitado pero de tamaño finito. Volviendo a la analogía, imagina que la ciudad se
extiende sobre toda la superficie curva de la Tierra. Un viajero en la primera calle nunca llegaría
al final; más bien, eventualmente regresaría al lugar donde comenzó. Un K positivo produce una
curvatura positiva y un universo cerrado. Este es un tipo de "métrica compacta" dentro de GR.
Un valor cero para "K" produce un universo "plano". La primera calle es ilimitada y de longitud
infinita (en ambas direcciones). Una situación similar ocurre con un valor de K negativo. Aquí
uno tiene una curvatura negativa o "en forma de silla de montar". Dos viajeros que se mueven
hacia el este y uno al lado del otro por las calles 1 y 2 en realidad se separarían lateralmente ya
que la curvatura de la superficie hace que las calles diverjan entre sí. El último caso da un
universo "abierto" de tamaño infinito.
Los componentes del universo (toda la energía, teniendo en cuenta que E = mc2) determinan
qué tipo de curvatura posee el universo. La "fuerza" de la gravedad, incluida en la ecuación
mediante el parámetro "G", afecta la magnitud de la curvatura.
Los parámetros ρ y Λ indican el tipo y magnitud de los diferentes tipos de energía que provocan
la curvatura. El parámetro “ρ” representa la densidad (es decir, la energía por unidad de
volumen) de los dos tipos de energía “ordinaria”: materia y radiación. Es "ordinario" en el sentido
de que estamos familiarizados con él en la vida diaria y tiene una forma que hace de la gravedad
una fuerza atractiva. Λ representa un tipo exótico de densidad de energía que puede transformar
la gravedad de una fuerza atractiva a una repulsiva.
La primera ecuación de Friedmann nos dice cómo cambia el factor de escala a medida que pasa
el tiempo. Matemáticamente, esta es la primera derivada del factor de escala "a", conocido como
"un punto" o å. Se puede ver que el aumento (o disminución) del factor de escala es una función
en gran medida del contenido de energía del universo. Ahora, la densidad de energía "ordinaria"
ρ se hará más pequeña a medida que el universo se expanda, ya que uno tiene la misma cantidad
de energía distribuida en un volumen mayor. Por lo tanto, su impacto causal en la expansión
disminuirá progresivamente en momentos posteriores (esto funciona a la inversa para la
contracción). Por el contrario, Λ, que representa la densidad de energía oscura, es constante. La
energía oscura no se diluye más durante la expansión ni se concentra durante la contracción. Por
lo tanto, al principio de la vida de un universo en expansión, Λ no es importante en comparación
con ρ. Pero su impacto “aumenta” a medida que pasa el tiempo. Mientras el impacto de ρ en el
universo temprano no sea suficiente para revertir una expansión y comenzar una contracción, el
efecto de Λ eventualmente conducirá a una expansión descontrolada del universo. Aparecerá un
momento en la historia del universo en el que la energía oscura comenzará a dominar la energía
ordinaria y la expansión del universo comenzará a acelerarse. De hecho, observaciones recientes
parecen mostrar precisamente este efecto en nuestro propio universo, con una edad de
transición de 9 mil millones de años (Overbye 2006). Aparecerá un momento en la historia del
universo en el que la energía oscura comenzará a dominar la energía ordinaria y la expansión
del universo comenzará a acelerarse. De hecho, observaciones recientes parecen mostrar
precisamente este efecto en nuestro propio universo, con una edad de transición de 9 mil
millones de años (Overbye 2006). Aparecerá un momento en la historia del universo en el que la
energía oscura comenzará a dominar la energía ordinaria y la expansión del universo comenzará
a acelerarse. De hecho, observaciones recientes parecen mostrar precisamente este efecto en
nuestro propio universo, con una edad de transición de 9 mil millones de años (Overbye 2006).
La segunda ecuación de Friedmann da la tasa de cambio de la tasa de expansión:
El término "Big Bang", originalmente una expresión burlona acuñada por Fred Hoyle para
caracterizar el comienzo del universo predicho por el modelo de Friedmann-Lemaître, es
potencialmente engañoso, ya que la expansión no se puede visualizar desde el exterior (no hay ,
”Así como no hay un“ antes ”con respecto al Big Bang).5
El modelo estándar del Big Bang caliente, como se llamó al modelo de Friedmann-Lemaître,
describe así un universo que no es eterno en el pasado, sino que nació hace un tiempo finito.
Además, —y esto merece ser subrayado— el origen que plantea es un origen absoluto ex nihilo.
Porque no sólo toda la materia y la energía, sino el espacio y el tiempo mismos, nacen en la
singularidad cosmológica inicial. Como enfatizan Barrow y Tipler, “En esta singularidad, el
espacio y el tiempo nacieron; literalmente, nada existía antes de la singularidad, así que, si el
Universo se originara en tal singularidad, realmente tendríamos una creación ex nihilo ”(Barrow
y Tipler, 1986, p. 442). En tal modelo, el universo se origina ex nihilo en el sentido de que es falso
que algo existiera antes de la singularidad.
Figura 1.2 Clases de modelos basadas en excepciones a los teoremas de singularidad de HP.
[La condición de energía genérica] dice que primero se cumple la condición de energía
fuerte. En segundo lugar, cada geodésica nula o temporal encuentra algún punto donde hay
alguna curvatura que no está especialmente alineada con la geodésica. La condición de
energía genérica no se satisface con una serie de soluciones exactas conocidas. Pero estos son
bastante especiales. Uno esperaría que se satisficiera con una solución que fuera "genérica"
en un sentido apropiado [es decir, un modelo físico razonable]. Si la condición de energía
genérica se mantiene, cada geodésica encontrará una región de enfoque gravitacional
(Hawking y Penrose 1996, págs. 14-15).
Esperamos que nuestro pasado presente una superficie cerrada y atrapada, y no hay razón para
postular una construcción exótica del espacio-tiempo que simplemente tendría características
de desenfoque perfectas para contrarrestar los efectos de la gravedad. Por lo tanto, nuestra
discusión girará en torno a las tres primeras opciones.
Nos interesa la aplicabilidad general de este efecto al modelo de Gott-Li. Gott y Li son sensibles a
este problema y han desarrollado una solución.7Ellos y otros han encontrado algunos
espaciotiempos especialmente construidos que parecen eludir la Conjetura de protección
cronológica (CPC) de Hawking. Para evitar el CPC, han construido un estado inicial especial para
el universo: un espacio vacío de temperatura cero llamado "vacío Rindler adaptado". Está
especialmente construido y equilibrado de manera que no desarrolle el efecto destructivo
sugerido por Thorne anteriormente.
Después de la publicación del artículo de Gott y Li, William Hiscock desarrolló una defensa del
PCCh que todavía parece mantenerse (Hiscock 2000). En primer lugar, Hiscock sostiene que la
elección de la condición inicial de Gott-Li está muy ajustada. De hecho, el vacío de Gott-Li es de
"medida cero" en el conjunto de todos los posibles vacíos de Rindler. Esto significa que el
escenario es tan improbable como es posible sin descartarlo sumariamente. DH Coule está de
acuerdo en su resumen de los modelos de gravedad cuántica, refiriéndose al modelo de Gott-Li
como "bastante artificial" (Coule 2005).8En segundo lugar, Hiscock sostiene que el vacío de Gott-
Li no es estable, dados los campos de fuerza física más realistas. El escribe:
. . . la (Rindler) tensión-energía de vacío de un campo escalar acoplado no conforme, o un
campo sin masa acoplado conforme con a. . . la auto-interacción divergerá en el horizonte
cronológico para todos los valores de la escala de identificación de Misner [este es el
parámetro que Gott-Li ha ajustado con precisión]. Además, la polarización de vacío de [el
campo escalar considerado en el modelo de Gott-Li] diverge en todos los casos [lo que lleva
al efecto Thorne citado anteriormente], incluso para el caso conforme invariante examinado
por Li y Gott. Por lo tanto, el comportamiento regular encontrado por Cassidy y Li y Gott es
válido solo para un campo que no interactúa, invariante conforme, y solo para el tensor de
tensión-energía. Mientras que algunos campos en la naturaleza (por ejemplo, el campo
electromagnético, antes de que se agreguen las interacciones) son conforme invariantes,
otros, en particular la gravedad misma, no lo son;
Coule agrega: “. . . en el espacio de Misner este estado [modelo de Gott-Li] sólo fue posible con la
escala de identificación b = 2π, o b = 2πr0 para el caso de múltiples de Sitter. Ese valor exacto es
en sí mismo incompatible con las nociones de incertidumbre cuántica ”(Coule 2005, p. 31). Por
lo tanto, el principio de incertidumbre de Heisenberg de la mecánica cuántica garantizaría que
el parámetro relevante no podría ser "justo así". Pero si no es "así", entonces el universo colapsa
en una condición singular en presencia de una máquina del tiempo. Coule también sugiere que
este parámetro, llamado "escala de identificación de Misner" no es una constante. Más bien, es
probable que cambie dinámicamente en función de los acoplamientos de materia o los
potenciales energéticos. Tan pronto como lo haga, la CTC se desestabilizará.
Curiosamente, Gott y Li utilizaron objeciones similares al defender su modelo a expensas del
enfoque de “creación de la nada” de Vilenkin y Hartle-Hawking [sección IVc]. Gott-Li critica el
enfoque de "creación de la nada" basándose en el principio de incertidumbre y el hecho de que
sus competidores no están utilizando campos de fuerza realistas; es decir, el enfoque de Vilenkin
no se acerca lo suficiente a lo que esperamos para el universo real. Sin embargo, su propio
modelo parece derrumbarse cuando se le plantean objeciones similares.9, 10
La física de CTC es interesante, y aunque algunos teóricos todavía la persiguen, ocupa solo una
pequeña minoría de la investigación cosmológica en curso. Si bien es cierto que nadie ha podido
descartar definitivamente las CTC, la carga probatoria recae en quienes defienden la viabilidad
de tales espacios-tiempos y modelos basados en su realidad.
Motivación
La teoría inflacionaria ofrece una excepción más seria a los teoremas de la singularidad de
Hawking-Penrose. Aunque el modelo de Friedmann-Lemaître tuvo mucho apoyo probatorio,
hubo, no obstante, anomalías observacionales que sugirieron que había más en la historia.
También había razones teóricas para pensar que la descripción no era del todo completa. Estas
dificultades, especialmente el horizonte, la planitud y los problemas de las reliquias cósmicas,
llevaron a los teóricos a proponer una modificación de la imagen estándar del Big Bang llamada
"inflación".
Con respecto al problema del horizonte, los cosmólogos carecían de una explicación de por qué
el universo debería ser tan homogéneo e isotrópico. 11 Alan Guth explica:
Se supone que el universo inicial es homogéneo, sin embargo, consta de al menos ~ 1083
regiones separadas que están causalmente desconectadas (es decir, estas regiones aún no
han tenido tiempo de comunicarse entre sí a través de señales de luz). . . Por tanto, uno debe
asumir que las fuerzas que crearon estas condiciones iniciales fueron capaces de violar la
causalidad (Guth 1981, p. 347).
Un segundo problema fue que el universo parece ser "plano" (es decir, el espacio es euclidiano:
los ángulos de un triángulo suman 180 grados; las líneas paralelas no se cruzan), mientras que
GR predice que ese es un resultado tremendamente improbable.
Un universo cerrado típico alcanzará su tamaño máximo en el orden [de la escala de Planck
de 10–44 segundos], mientras que un universo abierto típico disminuirá a una ρ [densidad]
mucho menor que ρcr [densidad crítica; la densidad de un universo longevo]. Un universo
solo puede sobrevivir ~ 1010 años [aproximadamente la edad de nuestro universo] solo
mediante un ajuste fino extremo. . . . Para [las condiciones iniciales probables para nuestro
universo], el valor de H0 [la tasa de expansión inicial del universo] debe ajustarse con
precisión a una precisión de una parte en 1055. En el modelo estándar, esta relación inicial
increíblemente precisa debe asumirse sin explicación (Guth 1981, pág. 348).
El tercer problema fue que la suposición de un estado inicial desorganizado del universo llevó a
la predicción de la presencia de extrañas reliquias cósmicas. Los monopolos magnéticos
deberían aparecer en nuestro universo en una densidad susceptible de ser detectada con
nuestros medios actuales. En el artículo original de Guth sobre la inflación, indica que la física de
partículas estándar predice una concentración de monopolos 14 órdenes de magnitud mayor
que el límite superior observado en nuestro universo. Hasta la fecha, no hemos visto ninguna de
estas estructuras exóticas.12
La solución de Guth a estos tres problemas fue postular un período de expansión exponencial
muy temprano en la historia del universo. Nuevamente Greene:
En la cosmología inflacionaria, hubo un breve instante durante el cual la gravedad fue
repulsiva y esto hizo que el espacio se expandiera cada vez más rápido. Durante esta parte
de la película cósmica, tendría que enrollar la película menos de la mitad hacia atrás para
reducir a la mitad la distancia entre las dos regiones. . . . la separación cada vez más rápida de
dos regiones cualesquiera del espacio durante la expansión inflacionaria implica que reducir
a la mitad su separación requiere enrollar la película cósmica menos, mucho menos, que la
mitad del camino hacia el principio. Por lo tanto, a medida que retrocedemos en el tiempo, es
más fácil que dos regiones del espacio se influyan entre sí, porque, en términos
proporcionales, tienen más tiempo para comunicarse. Los cálculos muestran que si la fase de
expansión inflacionaria hizo que el espacio se expandiera en al menos un factor de 1030, una
cantidad que se logra fácilmente en realizaciones específicas de expansión inflacionaria,
todas las regiones en el espacio que vemos actualmente. . . Pudimos comunicarnos. . . y, por
lo tanto, alcanzar de manera eficiente una temperatura común en los primeros momentos del
universo (Greene 2004, págs. 289–90, énfasis en el original).
Este período inflacionario comenzó y terminó en una fracción de segundo, sin embargo, un
evento inflacionario típico podría llevar a 70 "e-pliegues". Un pliegue e es una medida logarítmica
de cuán grande crece el universo durante un evento inflacionario. Aquí, N es el número de e-
pliegues y a (t) representa el factor de escala del universo al principio y al final de la inflación. 13
Los pliegues electrónicos son una forma abreviada de expresar el enorme aumento en el tamaño
del universo durante un evento inflacionario (recuerde el factor de Greene de 1030).
Por lo tanto, antes de la inflación, todas las partes del universo observable actual podrían estar
en comunicación causal entre sí. La expansión inflacionaria también suavizaría la curvatura del
universo actual para que sea plano o casi plano, similar a la forma en que la curvatura de una
pelota de baloncesto parecería desaparecer si de repente creciera hasta el tamaño de la Tierra.
Además, dado que nuestro universo observable actual sería solo una parte microscópica de la
variedad genérica original, se esperaría que la densidad de las reliquias cósmicas exóticas fuera
tan pequeña que no deberíamos verlas.
La inflación fue una solución notable para una serie de anomalías graves; pero también tenía
una característica más en la tienda. Los teoremas de la singularidad de Hawking-Penrose tenían
como uno de sus requisitos que la gravedad es siempre atractiva, al igual que lo es para la materia
ordinaria. Pero el candidato físico más probable que podría explicar un evento inflacionario era
un tipo de energía similar a la constante cosmológica original que había propuesto Einstein
(Einstein 1917). Este extraño tipo de energía actuaría como una gravedad repulsiva. Esto
condujo a un resultado filosóficamente deseado. Si esta "gravedad repulsiva" estaba presente en
el universo temprano y podía dominar la gravedad atractiva, entonces surge la posibilidad de
que los teoremas de singularidad de Hawking-Penrose no se aplicaran al universo real. Quizás,
después de todo, el universo es un pasado eterno.
La teorización inflacionaria eventualmente condujo a una teoría aún más grandiosa, según la
cual el material gravitacionalmente repulsivo puede, de hecho, ser la norma en el universo más
que la excepción. El cosmólogo Andrei Linde explica:
Este proceso, que he llamado inflación eterna, continúa como una reacción en cadena,
produciendo un patrón de universos similar a un fractal. En este escenario, el universo en su
conjunto es inmortal. Cada parte particular del universo puede provenir de una singularidad
en algún lugar del pasado y puede terminar en una singularidad en algún lugar del futuro. Sin
embargo, la evolución de todo el universo no tiene fin.
La situación desde el principio es menos segura. Existe la posibilidad de que todas las
partes del universo se hayan creado simultáneamente en una singularidad inicial del Big
Bang. Sin embargo, la necesidad de esta suposición ya no es obvia.
Además, el número total de burbujas inflacionarias en nuestro "árbol cósmico" crece
exponencialmente con el tiempo. Por lo tanto, la mayoría de las burbujas (incluida nuestra
propia parte del universo) crecen indefinidamente lejos del tronco de este árbol. Aunque este
escenario hace que la existencia del big bang inicial sea casi irrelevante, a todos los efectos
prácticos, se puede considerar el momento de formación de cada burbuja inflacionaria como
un nuevo "big bang". Desde esta perspectiva, la inflación no es parte de la teoría del Big Bang,
como pensábamos hace 15 años. Por el contrario, el big bang es parte del modelo
inflacionario (Linde 1998, p. 103, énfasis nuestro).
La caótica inflación de Linde fue uno de los dos puntos de vista en competencia de la teoría. El
competidor, llamado inflación "nueva", presentó la idea de que hay un "vacío falso", que
representa un vacío (meta) estable con una constante cosmológica similar a la de Einstein (en
comparación con el "vacío verdadero" en el que vivimos). En la "nueva inflación", este vacío falso
que se expande eternamente decae regionalmente hacia el vacío verdadero que se expande más
lentamente. Se expande más rápido de lo que decae, por lo que el proceso nunca se detiene.
La inflación caótica es una idea bastante diferente. Aquí, el universo parte de una “variedad
genérica”, que es un estado de caos de máxima entropía. Un campo de energía de diferentes
valores regionales impregna esta variedad. Donde el campo es grande, ocurre inflación. El
campo también puede sufrir fluctuaciones cuánticas a valores altos; dando inicio a la
inflación. Localmente, una región tenderá a buscar el valor mínimo permitido del campo de
energía. Esto conduce a un proceso llamado "recalentamiento", que crea la materia y la
energía ordinarias que vemos a nuestro alrededor. Mientras tanto, en lugares del universo
donde la densidad de energía de campo es alta, las fluctuaciones cuánticas tenderán a
contrarrestar la tendencia a minimizar y hacer perpetuo (globalmente, pero no
regionalmente) el proceso inflacionario (Fig. 1.4).
Figura 1.4En la inflación caótica, una variedad genérica inicial (un espacio global con características aleatorias; es decir, no
homogéneo y anisotrópico en densidad y curvatura de energía) sufre una inflación regional. Un observador sentado en un lugar de
inflación eventualmente verá que la inflación se detiene, pero las condiciones siempre son adecuadas, en algún lugar, para que la
inflación continúe.
Pero, ¿qué sucede con el espacio original, parte del cual se descompuso para formar nuestro
universo? Todavía está allí, y continúa expandiéndose a una velocidad enorme. Dado que
(generalmente) tiene una constante cosmológica más grande que la nueva burbuja, su
crecimiento supera al de la nueva burbuja. Dado que el falso vacío se expande más rápido de lo
que decae, la inflación es eterna en el futuro. Nuevas burbujas de vacío de baja energía
continuarán decayendo fuera del espacio en expansión.
Los teóricos se preguntaron si este proceso podría extenderse infinitamente al pasado.
Curiosamente, el propio Guth, junto con los colaboradores Alexander Vilenkin y Arvind Borde,
probablemente haya cerrado la puerta a esa posibilidad. En 2003, Borde, Guth y Vilenkin
publicaron un teorema de singularidad actualizado mucho más amplio en alcance que los
teoremas de Hawking-Penrose. Ellos explican
Nuestro argumento muestra que las geodésicas nulas y similares al tiempo son, en general,
en el pasado incompleto en los modelos inflacionarios, se mantengan o no las condiciones
energéticas, siempre que la condición de expansión promedio Hav> 0 se mantenga a lo largo
de estas geodésicas dirigidas al pasado (Borde, Guth y Vilenkin 2003, p. 3) dieciséis
Algo notable de este teorema es su amplia generalidad. No hicimos suposiciones sobre el
contenido material del universo. Ni siquiera asumimos que la gravedad se describe mediante
las ecuaciones de Einstein. Entonces, si la gravedad de Einstein requiere alguna modificación,
nuestra conclusión seguirá siendo válida. La única suposición que hicimos fue que la tasa de
expansión del universo nunca cae por debajo de un valor distinto de cero, sin importar cuán
pequeño sea. Esta suposición ciertamente debería satisfacerse en el falso vacío inflado. La
conclusión es que la inflación pasada-eterna sin un comienzo es imposible (Vilenkin 2006, p.
175).
Vilenkin afirma que cualquier universo (incluidos los universos modelados por cosmología de
dimensiones superiores, cosmología anterior al Big Bang, etc.) que, en promedio, se expande
tiene que conectarse, en un tiempo finito, con una frontera pasada (Comunicación personal, 4 de
marzo). , 2004).
Intuitivamente, la razón por la que el universo debe tener un comienzo en el pasado finito es
que, en un espacio en expansión, un observador que traza una línea de mundo (hacia el futuro)
se ralentiza. Este es el corrimiento al rojo. Vilenkin explica:
Introduzcamos ahora a otro observador que se mueve en relación con los espectadores [cada
uno de los cuales está inmóvil excepto por la expansión del espacio]. Lo llamaremos el viajero
espacial. Se mueve por inercia, con los motores de su nave espacial apagados, y lo ha estado
haciendo durante toda la eternidad. Cuando pasa junto a los espectadores, estos registran su
velocidad.
Dado que los espectadores se están separando [es decir, el universo se está expandiendo],
la velocidad del viajero espacial relativa a cada espectador sucesivo será menor que su
velocidad relativa al precedente. Supongamos, por ejemplo, que el viajero espacial acaba de
acercarse a la Tierra a una velocidad de 100.000 kilómetros por hora y ahora se dirige hacia
una galaxia distante, a unos mil millones de años luz de distancia. Esa galaxia se está alejando
de nosotros a una velocidad de 20.000 kilómetros por segundo, por lo que cuando el viajero
espacial la alcance, los observadores lo verán moverse a 80.000 kilómetros por segundo.
Si la velocidad del viajero espacial en relación con los espectadores se hace cada vez más
pequeña en el futuro, entonces se deduce que su velocidad debería aumentar cada vez más a
medida que seguimos su historia en el pasado. En el límite, su velocidad debería acercarse
arbitrariamente a la velocidad de la luz (Vilenkin 2006). 17
Entonces, mirando hacia el pasado, se debe ver al observador acelerar. Pero no se puede exceder
la velocidad de la luz. La implicación de esto es que la línea de mundo pasada de este observador
tiene una longitud finita. Este es el síntoma de la singularidad; la "patología" a la que se refirió
Robert Wald anteriormente. El observador habrá "comenzado su existencia hace un tiempo
finito".
El teorema de la singularidad de Borde-Guth-Vilenkin es ahora ampliamente aceptado dentro
de la comunidad física. Al momento de escribir este artículo, no ha sido cuestionado en gran
medida.18En cambio, ha resultado una nueva ronda de construcción de modelos basada en
excepciones a este teorema. Se presentan cuatro alternativas (Fig. 1.6).
Figura 1.6 Construcción de un modelo cosmológico posterior a 2003 basado en la búsqueda de excepciones al teorema BGV.
Los problemas están relacionados: primero, las condiciones iniciales deben establecerse de
una manera extremadamente especial al comienzo de la fase de colapso para que sea un
universo de Robertson-Walker colapsando; y estas condiciones deben establecerse de
manera acausal (en el pasado infinito). Es posible, pero se está produciendo una gran
cantidad de ajustes inexplicables: ¿cómo sabe la materia en lugares ampliamente separados
y desconectados causalmente al comienzo del universo cómo correlacionar sus movimientos
(y densidades) para que se unan correctamente en una forma espacialmente homogénea en
el futuro?
En segundo lugar, si se hace bien, la fase de colapso es inestable, con perturbaciones
aumentando rápidamente, por lo que solo una fase de colapso muy ajustada permanece cerca
de Robertson-Walker incluso si comenzó así, y podrá dar la vuelta como un en su totalidad
(en general, muchos agujeros negros se formarán localmente y colapsarán en una
singularidad).
Entonces, sí, es posible, pero ¿quién enfocó tan bien el colapso que gire bien?
(Comunicación privada de 25 de enero de 2006)
Por lo tanto, existe un problema importante de ajuste fino acausal. Uno afirma no solo la
contingencia bruta, sino también una forma bastante curiosa de la misma. Ante el aparente ajuste
fino, los físicos suelen preferir ofrecer algún tipo de explicación. Considere, por ejemplo, los
modelos de multiverso como una explicación del aparente ajuste fino de las constantes físicas
fundamentales, o la resolución inflacionaria de Guth del problema del horizonte (equilibrio
termodinámico pasado).
En segundo lugar, existe el problema de que el colapso se vuelve caótico a medida que se acerca
a la singularidad. Esto producirá una condición de inicio previa a la expansión que se sabe que
es dramáticamente diferente de nuestro "Big Bang" real. Este fenómeno se conoce como “caos
BKL” en honor a sus descubridores (ver Belinsky, Khalatnikov y Lifshitz 1970). 19Este problema
aparecerá para todos los intentos de una línea de tiempo pasado-eterno que busquen introducir
una fase anterior al Big Bang que “rebota” en la expansión presente. De hecho, la verdadera
implicación de BKL bien puede ser que es físicamente imposible "rebotar" a través de una
singularidad.
Al afirmar que las condiciones iniciales "tienen que establecerse de manera acausal (en el
pasado infinito)", Ellis pone el dedo en una cuestión filosófica irritante en los modelos
cosmológicos que presentan un pasado infinito, es decir, a menudo parecen tratar el pasado
infinito. como si presentara un punto de inicio infinitamente distante. En este ensayo se analizan
varios de estos modelos. Pero, como ya hemos visto en nuestra discusión de los argumentos
filosóficos del kalām, tal suposición es ilícita, ya que un punto tan infinitamente distante es
simplemente un límite ideal característico del infinito potencial, no un momento que en realidad
alguna vez estuvo presente.20 Si se nos permite hablar de la condición del universo en el infinito
pasado, entonces las paradojas zenonianas (ver p. 119 en el ensayo original de Craig y Sinclair)
son inevitables.
Si la condición pasada del universo es causal, entonces, por supuesto, no hubo
"establecimiento" de la condición; simplemente es." Ellis se refiere simplemente a la
construcción del modelo matemático. Pero supongamos que imaginamos que las condiciones de
contorno se establecieron literalmente en el infinito pasado. Algo como esto era una
característica del antiguo universo "Mixmaster" de Charles Misner:
En realidad, no esperamos que los universos se expandan exactamente al mismo ritmo en
todas las direcciones, y cuando se vuelven asimétricos así se comportan de una manera muy
complicada. Aunque se expanden en volumen, una dirección tiende a contraerse mientras
que las otras dos se expanden, tendiendo a crear un "panqueque" en expansión. Pero pronto
la dirección de contracción cambia a expansión y una de las otras dos direcciones de
expansión cambia a contracción. Durante un largo período de tiempo, el efecto es una
secuencia de oscilaciones. . . Lo sorprendente de la secuencia de oscilaciones del volumen del
universo a medida que se reduce a cero, cuando uno recorre su historia hacia el Big Bang en
el tiempo cero, o hacia el Big Crunch en el momento decisivo, es que un infinito se producen
varias oscilaciones. . . . La diferencia entre el Universo Mixmaster y la paradoja de Zeno es que
suceden un número infinito de eventos reales físicamente distintos en cualquier intervalo de
tiempo finito que incluye el tiempo cero o el tiempo decisivo. Medido por un reloj que "hace
tic-tac" en este tiempo oscilante, el Universo Mixmaster se consideraría infinitamente
antiguo, porque un número infinito de cosas le han sucedido al pasado en este tiempo, y
"vivirá" para siempre porque un número infinito de las cosas aún están por suceder en el
futuro (Barrow 2005, págs. 242–43).
El universo Mixmaster es interesante porque parece ofrecer una línea de tiempo infinita pasada
que, sin embargo, presenta un límite pasado claro para esa línea de tiempo; es decir, un punto de
inicio infinitamente distante. Se trata de juzgar la medida de tiempo más apropiada físicamente.
En el momento adecuado, Mixmaster surgió hace un tiempo finito de una singularidad y
terminará su existencia en un tiempo finito en el futuro. El tiempo medido por "tics" oscilatorios
reportaría una línea de tiempo que es infinita al pasado y al futuro. Barrow y Tipler aclaran:
La figura 1.7 muestra un diagrama de Penrose para el tipo de universo considerado en esta
sección; es decir, uno que se contrae desde un tamaño infinito hasta una singularidad, y luego
rebota en un universo en expansión (ver el lado derecho del diagrama). La figura 1.8 muestra
otro tipo de modelo simplificado (un universo de De Sitter) que tiene este tipo de
comportamiento. El modelo de De Sitter incluye "energía oscura", mientras que el modelo de
contracción en la figura 1.7 incluye sólo materia ordinaria. Un modelo físico más realista incluiría
tanto materia ordinaria como "energía oscura". El comportamiento del universo a gran tamaño
estaría dominado por la energía oscura, por lo que un modelo de De Sitter da una buena idea del
comportamiento de un modelo de contracción infinita para el pasado asintótico. Por el contrario,
Parece que hay un dilema. Por un lado, uno podría tener la realidad de una línea de tiempo
infinita pasada sin un comienzo. Pero entonces hay que afirmar la contingencia bruta. "Las cosas
son como son porque eran como eran".22Además, uno debe hacer esto con respecto al aparente
ajuste fino. Esto parece inverosímil. Al menos se puede decir que es impopular, dado que los
cosmólogos buscan ávidamente una explicación para un aparente ajuste fino en la forma de un
multiverso o una teoría del todo superdeterminista. Si vamos a renunciar a la explicación, ¿qué
hay de malo en dejar la cosmología como estaba antes de 1980, es decir, el modelo estándar del
Big Bang caliente (con el desglose asociado de la física en la singularidad)? 23
El otro cuerno implica un punto de inicio infinitamente distante y permite la posibilidad de
una explicación. Pero abre la puerta a una explicación sobrenatural del comienzo. La segunda
premisa del argumento cosmológico kalām se mantendría, ya que esa premisa no requiere que
el comienzo esté en el pasado finito.
Figura 1.8Una representación más realista de un universo que se colapsa infinitamente hasta convertirse en un Big Bang y luego
se expande. La cosmología de De Sitter tiene en cuenta el comportamiento dominante de una constante cosmológica para un
universo de gran tamaño.
Ahora la pregunta que nos interesa es si el pasado de este modelo se percibe como eterno. Una
cierta cantidad de ambigüedad acompaña a la respuesta. En algunos relatos (como el anterior)
parece bastante claro que los modelos Emergentes tienen un comienzo, a saber, el estado estático
de Einstein (en adelante ESS). También se afirma explícitamente que el modelo se puede
construir con ESS ocurriendo un tiempo finito al pasado (Ellis y Maartens 2004, sección V). Sin
embargo, en los artículos relevantes, la ESS suele describirse como un enfoque asintótico para el
tiempo infinito pasado: “Aquí. . . consideramos un universo lleno de un campo escalar dinámico,
que es asintótico pasado de un modelo estático de Einstein con un radio determinado por la
energía cinética del campo ”(Ellis y Maartens 2004, p. 1). Algunos filósofos que han escrito sobre
el tema tienen un problema con la naturaleza artificial del infinito pasado en modelos de este
tipo. Por ejemplo, Rüdiger Vaas caracteriza los modelos Emergentes como "soft-bang / pseudo
comienzo" por naturaleza. Él ve el enfoque asintótico hacia la ESS como una especie de artefacto
matemático (Vaas 2004, p. 18).
Vale la pena centrarse en el tema de la inestabilidad de los ESS. El propio universo estático de
Einstein se consideró originalmente como un pasado eterno. Pero hay problemas obvios con esta
interpretación. La razón por la que el propio Einstein abandonó originalmente el modelo fue su
característica de equilibrio inestable. Aunque, en GR no cuántico puro, uno puede considerar un
estado estático con líneas de mundo que se remontan al tiempo infinito negativo, en realidad
sabemos que la gravedad es una fuerza cuántica. Como señala Vilenkin, “Las pequeñas
fluctuaciones en el tamaño del universo son inevitables según la teoría cuántica y, por lo tanto,
el universo de Einstein no puede permanecer en equilibrio durante un tiempo infinito” (Vilenkin
2006, p. 209).26Por otro lado, se puede demostrar que el universo observable actual no se
encuentra en un estado estático. Es necesaria una fluctuación cuántica (o quizás térmica) para
forzar una transición a un universo en expansión. De hecho, es necesaria una fluctuación para
que funcione el modelo de dos fases. Pero este mismo mecanismo implica que el estado inicial
no es un pasado eterno.
Lo mejor que se puede hacer es la última versión del modelo Emergent, que utiliza una solución
de "baja energía" de gravedad cuántica de bucle (LQG) para hacer que el estado de Einstein sea
estable frente a perturbaciones de tamaño limitado (Fig. 1.9) . En respuesta a la pregunta "¿Es el
estado inicial metaestable y, por lo tanto, finito durante su vida?" Ellis responde que el estado de
Einstein puede persistir como máximo durante un tiempo "largo" pero aparentemente finito. 27
El teórico de la gravedad cuántica de bucles Martin Bojowald explica que cualquier
perturbación, incluso si no tiene el tamaño inicial suficiente para hacer que el sistema escape del
potencial metaestable, eventualmente hará que el sistema escape de él:
Las soluciones estáticas no evolucionan y, por lo tanto, son claramente inadecuadas como
modelo para el Universo. Pero al introducir una perturbación en una solución estática, se
puede cambiar ligeramente y así comenzar una historia más interesante.
Desafortunadamente, la solución clásica [ESS] es inestable: cualquier perturbación crece
rápidamente, dejando atrás poco del estado inicial. La idea de Mulryne y sus colegas es que
los efectos cuánticos podrían proporcionar todos los ingredientes necesarios donde las
soluciones clásicas no lo hacen. En el marco de la gravedad cuántica de bucles, la repulsión
también implica soluciones estáticas de pequeño tamaño, pero estas, a diferencia del caso
clásico, son estables. Según el modelo de los autores, perturbar tal estado conduce a
pequeños ciclos de intercambio de expansión y contracción. Durante este proceso, la materia
evolucionará lentamente, y los ciclos cambiarán gradualmente su comportamiento. Por sí
mismo, esta recurrencia perpetua y cambio incremental parece carecer de la chispa necesaria
para un evento tan trascendental como el nacimiento del Universo. Y de hecho, Mulryne y sus
colegas identifican un ingrediente teórico final que enciende esta chispa: mediada por efectos
repulsivos, la energía potencial se empuja gradualmente hacia la materia durante su lenta
evolución. En el momento en que la energía potencial comienza a dominar la energía cinética,
el ciclo mundano se rompe por una repentina y dramática explosión inflacionaria: el Universo
emergente (Bojowald 2005, págs. 920–21, énfasis agregado). Mulryne y sus colegas
identifican un ingrediente teórico final que enciende esta chispa: mediada por efectos
repulsivos, la energía potencial se empuja gradualmente hacia la materia durante su lenta
evolución. En el momento en que la energía potencial comienza a dominar la energía cinética,
el ciclo mundano se rompe por una repentina y dramática explosión inflacionaria: el Universo
emergente (Bojowald 2005, págs. 920–21, énfasis agregado). Mulryne y sus colegas
identifican un ingrediente teórico final que enciende esta chispa: mediada por efectos
repulsivos, la energía potencial se empuja gradualmente hacia la materia durante su lenta
evolución. En el momento en que la energía potencial comienza a dominar la energía cinética,
el ciclo mundano se rompe por una repentina y dramática explosión inflacionaria: el Universo
emergente (Bojowald 2005, págs. 920–21, énfasis agregado).
La metaestabilidad implica una vida finita para el estado asociado. O algo debe haber venido
antes o fue "creado". Este tema de la metaestabilidad es un problema general en una amplia gama
de clases de modelos. Vaas elabora:
Los estados metaestables tienen un mínimo local, pero no global, en su paisaje potencial y,
por lo tanto, pueden decaer; Los estados fundamentales también pueden cambiar debido a la
incertidumbre cuántica, es decir, debido a eventos de tunelización local. Algunas teorías aún
especulativas de la gravedad cuántica permiten la suposición de un estado fundamental
macroscópicamente menos temporal y global (por ejemplo, vacío cuántico o de cuerdas,
redes de espín, torsiones). Debido a fluctuaciones accidentales, que exceden un cierto valor
umbral, los universos pueden emerger de ese estado. Debido a algunos mecanismos físicos
también especulativos (como la inflación cósmica), adquieren - y, por lo tanto, se caracterizan
por - dinámicas de no equilibrio dirigidas, condiciones iniciales específicas y, por lo tanto,
una flecha del tiempo (Vaas 2004, p. 10, énfasis adicional).
Por tanto, parece que los estados metaestables (y, en realidad, inestables) deben tener una vida
meramente finita. Los estados metaestables dejan sin explicar cómo llegaron a existir. Por lo
tanto, los universos con un estado inicial metaestable deben tener un comienzo, consistente con
la segunda premisa del argumento cosmológico kalām.
Sin embargo, como indica Vilenkin, los modelos cíclicos enfrentan un problema
termodinámico: “Un universo verdaderamente cíclico tiene un problema con el aumento de
entropía: ya debería haber alcanzado el equilibrio termodinámico” (Comunicación personal, 19
de enero de 2007). Nuestra observación del universo actual indica que no estamos en una
condición de equilibrio termodinámico, ¡algo bueno para nosotros, ya que la vida requiere
condiciones de no equilibrio para existir! Al mirar hacia el pasado, también se cree que el tamaño
de cada ciclo disminuye (debido al efecto de la radiación sobre la entropía). Eventualmente, los
ciclos son tan pequeños que uno termina con una física diferente, lo que excluiría el ciclo e
implicaría un comienzo para el universo.
Entonces, ¿cómo se supera este problema? Paul Frampton y Lauris Baum han propuesto
recientemente un mecanismo ingenioso que abre nuevos caminos en los estudios cosmológicos.
Es sorprendente que basen su modelo en un escenario que generalmente se piensa que implica
todo lo contrario al ciclismo. Asumen que un tipo de energía oscura impregna el universo donde
su ecuación de estado (la relación entre la presión y la densidad de energía) es menor que -1.
Esto sería diferente de la constante cosmológica mencionada anteriormente (ecuación de estado
e qual a -1). Se cree que este tipo de expansión conduce a un evento llamado Big Rip. La energía
oscura (también llamada energía fantasma en este contexto) hace que la aceleración en la
expansión del universo sea tan grande que nuestro horizonte visible se encoja con el tiempo. Con
el tiempo, este horizonte causal se encoge tanto que los objetos cosmológicos cada vez más
pequeños se liberan causalmente. Las galaxias, los sistemas solares, los planetas y
eventualmente incluso los átomos se rompen a medida que la tasa de expansión del universo
tiende hacia el infinito. Esto se detendría en una singularidad espacial en el futuro finito. Baum y
Frampton proponen un modelo de "mosaico"28 para superar el problema de la acumulación de
entropía en un solo universo:
Consideramos un modelo en el que, a medida que nos acercamos a la ruptura, la expansión
se detiene debido a una contribución de la brana justo antes de la ruptura grande y hay un
tiempo de respuesta t = tT cuando el factor de escala se desinfla a una fracción muy pequeña
(f) de sí mismo. y sólo se retiene un parche causal, mientras que los otros parches 1 / f3 se
contraen independientemente para separar universos. El cambio se produce en un período
de tiempo extremadamente corto (<10–27 s) antes de que ocurriera la gran ruptura, en un
momento en que el Universo está fraccionado en muchos parches causales independientes
(Baum y Frampton 2007, p. 1).
Lo que sucede en el enfoque de Baum-Frampton es que muy cerca del evento Big Rip, el universo
se divide en parches que no interactúan (causalmente desconectados). El universo se ha
expandido tanto en este punto que casi todos estos parches están vacíos de materia (normal) y
radiación. Contienen solo fantasmas29energía. Resulta que el contenido de entropía del universo
(que es lo que interfiere con el ciclo) está contenido dentro de la materia y la radiación finamente
esparcidas. Se supone que esos parches que contienen solo energía fantasma nunca se someten
al Big Rip. En cambio, se someten por separado a un evento de deflación; contrayendo una
cantidad exactamente igual a la expansión que experimentó el universo desde el Big Bang
(evitando así las implicaciones del teorema BGV). Antes de alcanzar una singularidad, el parche
de contracción rebota debido a los efectos de la energía fantasma. Luego repite el mismo ciclo
sin cesar. Cada parche que sufre esto se fracciona en nuevos “universos” que ellos mismos
comienzan a propagarse (piense en los dientes de león que se extienden por su césped). Por lo
tanto, se dice que el modelo de Baum-Frampton presenta un multiverso infinito además de un
comportamiento cíclico sin comienzo (figura 1.10). Pero, ¿es viable el modelo?
Quedan por abordar varios desafíos para que el modelo sea una opción viable. Primero, para
evitar el teorema de la singularidad de Borde-Guth-Vilenkin, la contracción promedio debe ser
exactamente igual a la expansión promedio (para cada geodésica). Pero, ¿cómo se puede hacer
esto sin introducir un ajuste fino explícito? No hay razón para que la deflación del factor de escala
coincida exactamente con la expansión posterior al Big Bang. Frampton admite,
No tengo idea de por qué [la restricción BGV] se satisface porque relaciona la expansión con
materia oscura con la contracción sin materia oscura. . . . Sospecho que no es un ajuste fino,
pero eso puede depender en última instancia de la perspectiva de uno: si BGV no se satisface,
la ciclicidad infinita es imposible (Comunicación privada, 5 de febrero de 2007).
. . . La presencia de polvo o materia requeriría que nuestro universo pasara a la inversa por
varias transiciones de fase (recombinación, QCD y electrodébil, por nombrar algunas) que
violarían la segunda ley de la termodinámica. ¡Por lo tanto, requerimos que nuestro universo
vuelva vacío! (Baum y Frampton 2007, p. 4)
Ahora, globalmente, durante un tiempo pasado infinito, el modelo postula que se ha producido
una cantidad infinita de materia y radiación (por lo tanto, entropía infinita). ¿Cómo es entonces
que la densidad de entropía evita alcanzar una cantidad infinita? Frampton responde:
Es cierto que si conservamos todos los parches separados, la entropía sigue aumentando.
Nuestra idea clave es retener sólo un parche causal para nuestro universo, cuya entropía cae
precipitadamente en lo que por razones obvias llamamos deflación (Comunicación privada,
5 de febrero de 2007).
La única mención de adónde va esta entropía ocurre en el siguiente pasaje: “El viejo problema al
que se enfrenta Tolman se evita eliminando la entropía a una región exterior no observable; se
puede decir en retrospectiva que el problema radica en considerar un solo universo ”(Frampton
2007a, p. 4).
Simplemente empujar la entropía a otros "universos" plantea la pregunta de si, dado el tiempo
infinito, un espacio estático y una infinidad contable de reinos dentro del multiverso, los reinos
no deben colisionar eventualmente. Frampton responde:
. . . los “parches causales” permanecen inconexos generando universos separados que no
interactúan ni chocan de nuevo cuando comienzan y permanecen causalmente
desconectados. Esta respuesta más definitiva. . . resulta de nuestra mejor comprensión del
cambio de rumbo de los cálculos técnicos posteriores (comunicación privada, 10 de octubre
de 2007).
Aquí, "H" es el parámetro de Hubble que se define como la derivada del factor de escala dividida
por el factor de escala en el tiempo. Recuerde que el factor de escala es el factor por el cual se
multiplica el tamaño del universo para representar expansión o contracción.
Zhang aclara:. . . ρc es la densidad de energía crítica establecida por la gravedad cuántica, que
es la densidad máxima del universo. Tal ecuación de Friedmann modificada con un
componente de energía fantasma conduce a un escenario de universo cíclico en el que el
universo oscila a través de una serie de expansiones y contracciones. En el universo habitual
[que se rige por la ecuación de Friedmann ordinaria], la energía oscura fantasma conduce a
una singularidad de "gran desgarro"; sin embargo, en este peculiar universo cíclico, la
singularidad de gran desgarro se puede evitar porque cuando ρ alcanza ρc, el universo
cambiará debido a [la ecuación de Friedmann modificada] (Zhang 2007b).
Entonces, la tasa de cambio del tamaño del universo está gobernada por la densidad de este tipo
especial de energía "fantasma". Zhang continúa:
Cuando el universo se acerca al punto de cambio (ρ → ρc), tenemos H → 0. Por lo tanto,
obviamente, en el cambio, tenemos H − 1 → ∞. Esto implica que el radio de Hubble se vuelve
infinito en el punto de cambio, porque en ese momento el universo se vuelve estático
instantáneamente (es decir, deja de expandirse en el cambio de sentido). Obviamente, en el
cambio de rumbo, el universo no se fragmentaría en muchos parches causales desconectados
(Zhang 2007b).
La inversa del parámetro de Hubble (H − 1, llamado radio de Hubble) gobierna la escala a la que
puede actuar la microfísica, es decir, la escala de conexión causal. Si bien esto está cerca de cero
cuando uno se acerca a un evento de “Gran Desgarro”, parece claro que cuando uno se acerca al
cambio de rumbo de Baum y Frampton, el radio de Hubble vuelve a crecer hasta un valor infinito.
Esto significa que todos los parches separados del universo no están desconectados (es decir, las
señales de luz ahora pueden propagarse entre ellos y permitirles interactuar). Por lo tanto, una
fase de colapso posterior debería incluir toda la materia y la radiación entonces presentes, lo que
esencialmente evita un escenario cíclico de trabajo (ya que ahora se incluiría toda la materia y la
radiación ordinarias de la expansión anterior). Frampton ofrece el siguiente comentario con
respecto a la crítica de Zhang: “La deflación debe ocurrir en un momento antes del cambio
cuando el radio de Hubble es pequeño, antes de que alcance su valor mínimo (x = 1/2). La
deflación sigue siendo una conjetura plausible que aún requiere más cálculos técnicos para
confirmarla ”(Comunicación personal, 7 de febrero de 2008).
Esto parece difícil de cuadrar, ya que parecería deflación = contracción, y el cambio es el
momento en el que termina la expansión y comienza la contracción. Baum y Frampton, de hecho,
publicaron un preimpreso en 2006 titulado "Deflación en el cambio de la cosmología oscilatoria",
en el que afirman:
Un ingrediente clave en nuestro modelo cíclico es que en el cambio t = tT (mod τ) nuestro
universo se desinfla drásticamente con el factor de escala a (tT) reduciéndose a â (tT) = fa
(tT) donde f <10-28. Este desecho de casi todo, una fracción (1 - f), de la entropía acumulada
está permitido por la estructura causal excepcional del universo (Baum y Frampton 2006, p.
4).32
Frampton aclara:
El comienzo de la contracción es el cambio de rumbo. La deflación es donde los parches
causales se separan y nuestra entropía cae a cero.
Por cierto, la diferencia de tiempo entre la deflación y el cambio posterior es de un billón
de billonésimas de segundo o menos.
[La divergencia del radio de Hubble en el cambio de rumbo] tiene el significado de que
cada universo generado es por separado un parche causal en el cambio de rumbo
(Comunicación personal, 7 de febrero de 2008).
El espacio Baum-Frampton no es un espacio de Sitter, pero también es térmico. Por lo tanto, uno
esperaría que la materia todavía fluctuara y existiera de manera espontánea. Si es así, entonces
(con una probabilidad razonable) la ciclicidad de Baum-Frampton no funcionaría.
El cosmólogo Thomas Banks sostiene que un espacio de contratación lleno de campos
cuánticos tendrá una propiedad "ergódica" a medida que el espacio se encoja. Sus campos se
excitan mucho a medida que uno se acerca al final de la contracción y estos campos producirán
fluctuaciones caóticas. La materia creada espontáneamente con una ecuación de estado diferente
dominará la densidad de energía. Eso y la falta de homogeneidad de las fluctuaciones evitarán el
ciclismo. Banks y Fischler incluso sugieren que los campos producirán espontáneamente un
"fluido" denso de agujeros negros que conducirán a una condición que denominan "Black
Crunch" (Banks y Fischler 2002) para estados arbitrarios que se acercan a la contracción total. 35
Por tanto, parece que la ciclicidad de Baum-Frampton no funcionará.36
Si bien las cosmologías de rebote fantasma (como el modelo de Baum-Frampton y el propio
Xin Zhang) representan una frontera que vale la pena explorar, parece haber preguntas sin
respuesta sobre la viabilidad de tal enfoque. El campo es demasiado joven para emitir un juicio
completo. Pero algunas preguntas que pueden responderse (como el enfoque ergódico / caótico
de un rebote singular) parecen indicar que persisten los problemas nativos de las cosmologías
cíclicas.
IV Gravedad cuántica
Una excepción final y esperada a los teoremas de Hawking-Penrose es una formulación conocida
como "gravedad cuántica". Los dos grandes pilares de la física del siglo XX, el GR de Einstein (la
ciencia de lo muy grande) y la Mecánica Cuántica (QM) (la ciencia de lo muy pequeño), gozan de
un abrumador apoyo observacional. Sin embargo, si la teoría estándar del Big Bang fuera
correcta en su predicción de que el universo debe acercarse a una singularidad en su pasado
distante, entonces QM debe finalmente gobernarlo. Pero GR es una teoría clásica, no una teoría
cuántica de campos. Para un universo primitivo de densidad extremadamente alta, donde la
gravedad actuaba como fuerza dominante y como fuerza cuántica, debemos tener una nueva
teoría, la gravedad cuántica, para describirla. Además, en 2002, 38Se informó la primera evidencia
observacional de que la gravedad es de hecho una fuerza cuántica. Sin embargo, una de las
suposiciones de Hawking-Penrose para sus teoremas de singularidad fue que GR es una
descripción correcta del universo. Dado que esto no es cierto en la escala de singularidades,
quizás las singularidades no existían después de todo. Quizás, extrapolando hacia atrás, el
universo evoluciona suavemente a través del Big Bang hacia un pasado desconocido.
Aquí hay tres candidatos destacados para una teoría de la gravedad cuántica (figura 1.11). El
trabajo principal de algunos modelos de gravedad cuántica es llevar a uno a través de la
singularidad a un pasado eterno (se espera). Otros aceptarán un "comienzo" para el universo
pero deconstruirán las nociones de tiempo, nada o causalidad.
Figura 1.11 Familias de cosmologías de gravedad cuántica.
Figura 1.12Modelos y proponentes de la cosmología de cuerdas. La teoría de cuerdas también ha dado origen a la cosmología
"brana", donde el énfasis está en el trasfondo dentro del cual se propagan las cuerdas en lugar de las propias cuerdas. Estos fondos,
llamados n-branas, pueden ser variables en el número de sus dimensiones. Por ejemplo, normalmente se propone que nuestro
espacio tridimensional es una de estas '3-branas' que pueden o no estar flotando en un espacio dimensional superior
(generalmente llamado "la masa").
Según el escenario, el universo pre-bang era casi una imagen especular perfecta del post-
bang. Si el universo es eterno en el futuro, su contenido se reduce a una escasa papilla,
también es eterno en el pasado. Hace muchísimo tiempo estaba casi vacío, lleno sólo con un
gas caótico, tenue, ampliamente disperso de radiación y materia. Las fuerzas de la naturaleza,
controladas por el campo de dilatón, eran tan débiles que las partículas de este gas apenas
interactuaban. Con el paso del tiempo, las fuerzas ganaron fuerza y unieron la materia
(Veneziano 2004, p. 63).
A través de la contracción gravitacional, las regiones del universo anterior al Big Bang se
convirtieron en agujeros negros. Debido a los efectos cuánticos, una vez que la densidad de un
agujero negro alcanzó un valor crítico, experimentó un "rebote" en un Big Bang. Nuestro
universo persiste entonces dentro de esta superficie que de otro modo estaría cerrada (con
respecto al espacio de fondo "exterior" donde todo comenzó).
En su popularización en Scientific American, Veneziano parece sugerir que su comienzo es un
punto infinitamente distante pero nunca alcanzable (es decir, ideal). El artículo implica que el
modelo debe interpretarse de manera realista.39Pero uno debe ser cauteloso al interpretar el
infinito del pasado para este modelo, ya que es fácil abusar del concepto de límite infinito, así
como ignorar la distinción entre una interpretación realista e instrumentalista del modelo. Los
problemas para interpretar este modelo son similares a los que se encuentran al evaluar la clase
de modelo Emergente. Cabe señalar que el coautor del modelo PBBI Maurizio Gasperini indica
que todo el pasado (o futuro) asintótico no debe tomarse como real:
. . . Encuentro engañoso hablar de un "futuro del escenario PBB", porque el escenario PBB
solo (posiblemente) se aplica para describir una parte (más o menos extendida) de la historia
pasada de nuestro cosmos, y se espera que se una sin problemas al estándar. escenario
cosmológico en una época lo suficientemente temprana, a fin de reproducir resultados
estándar sobre nucleosíntesis, bariogénesis, formación de estructuras, etc. En otras palabras,
el escenario PBB se puede considerar como un modelo para explicar las condiciones iniciales
de nuestra configuración cosmológica estándar, de una manera que es consistente con la
teoría de cuerdas, pero no se puede extrapolar hacia el futuro sin más supuestos, que en la
actualidad han no ha sido completamente resuelto (con la excepción del modelo dilatón de
energía oscura propuesto por Piazza, Veneziano y yo en PRD 65, 023508 (2002))
”(Comunicación personal,
¿Se puede construir una interpretación realista de este modelo? Es interesante contrastar la
descripción de PBBI como prueba de "el mito del comienzo de los tiempos" en un entorno donde
se fomentan las conclusiones sensacionales (Scientific American) con la caracterización de PBBI
como un "modelo de juguete" en un entorno donde los científicos son naturalmente conservador
(revistas académicas revisadas por pares).40
Como se describe en la literatura académica, el modelo parece tener una fase inicial. Las fases
relevantes son:
1. Un universo estático (Milne) o fase de vacío perturbativo de cuerda (SPV). Esto significa
que el universo está vacío (la energía y la densidad de energía es cero) y es estático, es
decir, que no se expande ni se contrae global o localmente.
2. Una fase cuasi-Milne, que constituye un vacío perturbativo de cuerda “perturbado”. Aquí
"H es (pequeño y) positivo en el marco de String, (pequeño en módulo y) negativo en el
marco de Einstein, y tiende a cero cuando t va a menos infinito, y el Universo se acerca a
la configuración SPV (donde H es idénticamente cero ya que el espacio-tiempo es plano)
”(Comunicación personal, Maurizio Gasperini, 16 de enero de 2007).
3. Una fase “inflacionaria”. En un conjunto de coordenadas (el marco de Einstein), la materia
colapsa en superficies atrapadas o agujeros negros. En otro conjunto de coordenadas (el
marco de la cadena), esto puede verse como una expansión espacial. Esto sucede a nivel
regional en lugar de global.
4. Una fase FRW post-Big Bang que es típica del modelo estándar Hot Big Bang.
Los autores comienzan a construir el modelo en un tiempo finito en el pasado donde se da una
condición llamada “trivialidad pasada asintótica” (APT) (Veneziano y Gasperini 2002, p. 54). APT
representa el límite entre la fase (2) y la fase (3). El período de contracción (inflación en el marco
de la cuerda) es finito en sí mismo.
Luego, los autores proyectan este estado hacia el futuro y lo evolucionan asintóticamente hacia
el pasado. De manera similar a la versión de Maartens del modelo Emergente, se considera que
la duración de la fase (2) dirigida al pasado de la APT es infinita.
Figura 1.13La construcción del modelo PBBI se da en la 'Trivialidad pasada asintótica' o punto APT. A partir de aquí, el modelo se
proyecta hacia adelante en el tiempo para dar el universo del Big Bang. También se proyecta hacia atrás hasta el infinito pasado.
Tenga en cuenta que los datos APT se dan en un tiempo finito en el pasado en el diagrama. La era SPV propuesta estaría en 'pasado
nulo infinito', o el punto inferior marcado 'I-'. El pasado infinito es 'nulo', en lugar de 'temporal', porque las ondas de gravidilaton
que lo incrustan no tienen masa.
A diferencia del modelo Emergente, el SPV perturbado dura un tiempo y luego los parches
individuales que cumplen con la condición de Hawking-Penrose para una superficie cerrada
atrapada comienzan la contracción regional (inflación en coordenadas de cadena). ¿Deberíamos
tratar SPV como ESS? Gasperini observa que una característica significativa de SPV es que es
inestable:
Figura 1.14 Tasa de expansión del universo frente al tiempo en el modelo PBBI Crédito de la fuente: Maurizio Gasperini en
http://www.ba.infn.it/~gasperin/
. . . el SPV ya es inestable en el nivel clásico. . . [la desintegración del SPV] puede describirse
como una transición cuántica, pero es un proceso que también está permitido clásicamente
(Comunicación personal, 4 de enero de 2007).
. . . la inestabilidad del SPV es similar a la inestabilidad de una bola clásica colocada
exactamente en la cima de una colina perfectamente simétrica. En principio, si el sistema
comienza inicialmente en la configuración de equilibrio única y no hay perturbaciones
externas, el sistema podría permanecer estático para siempre. En la práctica, sin embargo,
hay perturbaciones físicas que sacan al sistema del equilibrio, tarde o temprano, con una
probabilidad distribuida de forma caótica (o aleatoria). En el caso del SPV, las perturbaciones
que lo sacan del equilibrio son las fluctuaciones cuánticas de los campos de fondo (en
particular del dilatón). Además, la configuración de equilibrio exacta solo se puede lograr
como una extrapolación asintótica, en el límite en el que el tiempo cósmico llega a menos
infinito: en la práctica, en cualquier tiempo físico finito dado,
Yo diría que el SPV no es una fase prolongada en el tiempo, es solo un estado inicial
asintótico al que se aborda, sin embargo, en un tiempo infinito. En la práctica, la descripción
física nunca parte “exactamente” de ese estado, sino de un estado que representa una
perturbación arbitrariamente pequeña del SPV (Comunicación personal, 27 de febrero de
2007).
. . . si vivo en la porción del espacio-tiempo que inicialmente colapsa, entonces tengo la
oportunidad de atravesar el rebote, en alguna época en el futuro. Pero esto no concierne a
todo el espacio-tiempo. Hay regiones del espacio-tiempo que se están colapsando y
eventualmente rebotan en un FRW como el Universo, y otras que no. Es posible, en principio,
vivir en regiones del espacio-tiempo sin experimentar nunca el rebote ni el colapso, y
permanecer para siempre en una configuración bien descrita por el vacío perturbativo de la
cuerda (o por una perturbación cuántica del mismo) (Comunicación personal, 9 de enero). ,
2006).
Entonces, si el SPV fuera real, sería un estado con una vida útil finita. Algún tiempo después de la
descomposición, las porciones aleatorias serán lo suficientemente densas para formar
superficies cerradas atrapadas y comenzar la contracción gravitacional. Otras regiones podrían
permanecer indefinidamente en el estado post-SPV (es decir, ya perturbadas por una condición
de equilibrio).
El lenguaje de Veneziano y Gasperini a veces sugiere tratar SPV como una extrapolación
finalmente no realizada similar a lo que se describe en el artículo de Scientific American. Pero
aquí y en otros lugares, parecen sugerir que el SPV es bastante real (si se tomara en serio el
pasado asintótico del modelo):
Todo el proceso puede verse como el lento, pero eventualmente explosivo, decaimiento del
vacío perturbativo de la cuerda (el estado inicial asintótico plano y libre de interacción del
escenario anterior al Big Bang), hacia un estado final dominado por la radiación típico de los
estándares. cosmología (Veneziano y Gasperini 2002, p. 21).
El modelo PBBI se describe como un evento de "desintegración" o "túnel" cuántico similar a los
modelos semiclásicos de Hawking-Hartle y Vilenkin (ver sección IVc). Pero:
[PBBI] también se puede interpretar como un proceso de tunelización, no "de la nada", sin
embargo [que es como se interpretan los modelos Hawking-Hartle y Vilenkin; ver sección
IVc], pero “del vacío perturbativo de la cuerda” (Veneziano y Gasperini 2002, p. 208).
Figura 1.15 PBBI como una transición cuántica de cuerdas.41La figura contrasta modelos de "creación de la nada" como el enfoque
sin límites de Hawking-Hartle o el "túnel de la nada" de Vilenkin (ver sección IVc) con un enfoque de cuerdas. Aquí, un estado
cuántico previo entra en túneles en nuestro universo FRW actual.
Es razonable suponer que si hay una transición física del estado "A" al estado "B", y el estado
"B" es ontológicamente real, entonces el estado "A" debe tomarse como ontológicamente real. 42
También es significativo que el estado inmediatamente después de la desintegración de SPV (si
SPV fuera un estado físico realizado) se obtendría solo hace un tiempo finito al pasado, dado que
la descripción de Gasperini del producto de desintegración es idéntica a la siguiente:
La solución regular genérica se acerca a Milne cuando t [se acerca al infinito negativo] pero,
en cualquier gran [tiempo negativo] finito, también contiene pequeñas perturbaciones
dilatónicas (y de ondas gravitacionales) que dan 0 <Ω «1. Cuando t → -∞, Ω → 0. A medida
que avanza el tiempo, en cambio, Ω tiende a crecer hasta que, en algún momento crítico -T0,
Ω se convierte en O (1), en alguna región del espacio. A partir de ese momento, en ese parche
"afortunado", la métrica comienza a desviarse de Milne y se establece la inflación impulsada
por dilaton, empujando Ω extremadamente cerca de 1 en ese parche (Veneziano 1998, p. 10,
énfasis agregado).43
Entonces, si el estado SPV fuera real, solo podría haber una línea de tiempo finita desde él hasta
el presente. Solo si la perturbación en sí fuera irreal, sobreviviría la naturaleza eterna pasada del
modelo. ¿Es esto realista? Si miramos hacia atrás desde el punto APT, ¿cuál sería el significado
de una perturbación cuántica real en un estado arbitrariamente cercano a SPV? ¿No tendría uno
una situación que fuera virtualmente idéntica a comenzar simplemente con SPV “real”? Este es
esencialmente un escenario de "pseudo comienzo".
Vaas clasifica esta cosmología como "explosión suave / pseudo comienzo" al igual que lo hace
con los modelos Emergentes.44Aunque el comportamiento del SPV perturbado es en última
instancia diferente del ESS (o ESS perturbado), la similitud con respecto a la inestabilidad clásica
(y cuántica) debería ser la controladora. Los dos modelos son matemáticamente similares con
respecto al enfoque asintótico de un estado inestable infinitamente distante. Vaas sostiene que
no hay una flecha obvia del tiempo y, por lo tanto, el pasado asintótico es probablemente un
artefacto matemático.
Quizás la línea de tiempo infinita pasada es solo de naturaleza técnica: la duración desde el
punto APT extrapolado hacia atrás es infinita, pero eso debe entenderse instrumentalmente. En
respuesta a la pregunta, "si el SPV es inestable, y dentro de un tiempo finito las fluctuaciones
cuánticas del dilatón alterarán su equilibrio, ¿no implica eso que el pasado debe ser finito?"
Gasperini responde,
Desde un punto de vista físico, una variedad de espacio-tiempo tiene una extensión infinita
(pasada) si sus geodésicas temporales o nulas pueden extenderse (pasadas) para valores
infinitos de su parámetro afín, sin terminar en una singularidad. Esta propiedad se satisface
con la extensión pasada de las soluciones anteriores al Big Bang, por lo que, en este sentido,
son eternas del pasado (Comunicación personal, 17 de enero de 2007).
Como indica Gasperini, es cierto que, en cierto sentido, las soluciones son eternas. En GR puro,
es cierto que las geodésicas dirigidas hacia atrás trazarán todo el camino hasta el infinito pasado.
De hecho, en GR puro, incluso si uno asumiera un estado SPV real, todavía sería el caso de que,
técnicamente hablando, las geodésicas dirigidas hacia atrás son eternas en el pasado por la
misma razón que un estado estático de Einstein real es técnicamente eterno en el pasado.
Pero la pregunta relevante parece ser la siguiente: ¿todas las geodésicas dirigidas al pasado de
un estado cuasi-Milne (o un cuasi-ESS) se cruzan con una perturbación significativa del sistema,
o al menos un rastro geodésico, sin perturbaciones, hasta el infinito pasado? Considere la
siguiente comparación:
A) Suponga que el Vacío Perturbativo de Cuerdas (o Estado Estático de Einstein) fuera visto
como ontológicamente real en lugar de como puntos idealizados en el infinito pasado. Dentro
de un tiempo finito, una perturbación cuántica perturbaría el estado y la línea de tiempo
resultante hasta el presente también sería finita. El modelo no sería más allá del infinito. B)
Supongamos, en cambio, que ESS o SPV se toman como puntos ideales asintóticos. Por el bien
del análisis, comience en el presente y mire hacia atrás. Dentro de un tiempo finito, uno está
arbitrariamente cerca de la condición ideal. Ahora considere cualquier (nueva) fluctuación
cuántica que ocurra al estado cuasi-SPV (o cuasi-ESS) mientras se rastrea la línea de tiempo
hacia atrás. La probabilidad de esto es esencialmente 1.
¿Qué diferencia significativa hay entre el universo en el caso A y el caso B (en el "nuevo" punto
de fluctuación)? Mirando hacia atrás, habrá un número ilimitado de todo tipo de fluctuaciones
de todos los tamaños, cualquiera de las cuales detendrá el supuesto desarrollo asintótico del SPV
(o ESS). La extrapolación infinita pasada propuesta parece ser un artefacto matemático (o al
menos explicativamente vacío). Incluso si se toma en serio (es decir, no como un modelo de
“juguete”), el modelo no predice que el pasado sea infinito.
Esta energía se convierte en materia (y radiación) que finalmente gravita en galaxias. Sigue el
resto de la secuencia normal del Big Bang (estrellas, planetas, etc.). A medida que las branas se
separan unas de otras, las propias branas siempre se están expandiendo. (Hay versiones del
modelo en las que las branas sufren una contracción limitada, pero siempre se expanden, en la
red, con cada ciclo). Con el tiempo, las estrellas se queman, las galaxias retroceden más allá del
horizonte visual de cada galaxia y el universo entra en un período de frío, quemado. fuera cenizas.
Mientras tanto, las branas giran hacia otra colisión.
Luego, el universo se renueva con un nuevo ciclo. La energía que se libera en las branas durante
cada colisión se repone con un suministro inagotable: energía potencial gravitacional. De esta
forma, Ekpyrosis es un sistema "abierto". Siempre hay un suministro ilimitado de energía
gratuita. Esta característica de la cosmología como sistema abierto (a diferencia del antiguo
escenario de la "muerte por calor") es nueva pero muy extendida en la cosmología
contemporánea.
Sin embargo, a pesar de evitar el escenario de la “muerte por calor”, ahora hay un nuevo
problema que resolver. Si se vierte nueva energía en la brana durante un tiempo infinito,
entonces la densidad de entropía o la densidad de energía en cada punto debe ser infinita.
Obviamente, esto sería contrario a la observación. Sin embargo, la expansión continua de las
branas de tamaño infinito mantiene constante la densidad de entropía. Entonces, la expansión
(neta) es una característica crítica del modelo.
Steinhardt reconoce que su modelo del universo no carece verdaderamente de principio. Aquí
están los comentarios relevantes de su sitio web:
La página de preguntas frecuentes del sitio web de Steinhardt indica que el modelo ya está
incompleto desde el punto de vista geográfico. Aquí los autores comentan en su trabajo
publicado:
La historia más probable es que el ciclismo fue precedido por algún comienzo singular.
Considere un universo que se instala en el ciclo a partir de un corte plano en el pasado
distante hace muchos rebotes. Cualquier partícula producida antes del ciclo debe viajar a
través de un número exponencialmente grande de rebotes, cada uno de los cuales es una
superficie cáustica con una alta densidad de materia y radiación en reposo con respecto a los
cortes espaciales planos. Cualquier partícula que intente este viaje será dispersada o
aniquilada y su información se termalizará antes de llegar a un observador actual. En
consecuencia, el observador está efectivamente aislado de lo que precedió a la fase de ciclo y
no se pueden realizar mediciones para determinar cuántos ciclos han tenido lugar. Aunque
el espacio es formalmente geodésicamente incompleto, es como si, a todos los efectos
prácticos,
Steinhardt y Turok sugieren que el universo comenzó en una singularidad pero que "para todos
los propósitos prácticos" ha estado en ciclo desde siempre. Esta afirmación se basa en el hecho
de que prácticamente ninguna información sobre las condiciones iniciales del universo podría
haber sobrevivido hasta el presente. Steinhardt explica que los fotones que transportan esta
información estarían “desplazados al rojo semi-infinitamente” (Comunicación personal, 27 y 30
de enero de 2004). Hay un número "semi-infinito" de ciclos entre ese límite y el presente. ¿Cómo
vamos a entender esto? La descripción del modelo como "de Sitter-like" y la línea de tiempo
pasada "semi-infinita" asociada es casi la misma situación vista anteriormente con la discusión
del universo "Mixmaster" de Misner (sección IIIa). 46
Dentro del modelo Ekpyrotic, un observador vería un número infinito de rebotes con
aproximadamente un billón de años por rebote. Entonces, en los relojes ordinarios, el tiempo
pasado es infinito (Comunicación personal, 27 y 30 de enero de 2004). Sin embargo, existe
claramente un límite pasado (¿un punto de inicio infinitamente distante?) Que precede a este
comportamiento. Cabe señalar que la razón por la que este modelo tiene un comienzo es
precisamente porque cae dentro del teorema BGV mencionado anteriormente. Borde y col.
Aplicar explícitamente su teorema al modelo Ekpyrotic de Steinhardt y Turok (Borde, Guth,
Vilenkin 2003).
Eso implica, entre otras cosas, que el "límite pasado" debe alcanzarse en un período de tiempo
finito. Así que Steinhardt parece estar equivocado en su predicción de un número semi-infinito
de ciclos, a diferencia de los modelos Emergente y PBBI, que evaden el teorema BGV (en el tiempo
adecuado; es decir, si "un reloj ordinario" es la medida más apropiada de tiempo físico).
Steinhardt nos indicó que medir la distancia entre el presente y el comienzo es ambiguo. Sin
embargo, lo que no es ambiguo es que existe un límite. ¿Son los ciclos infinitos una característica
necesaria de la teoría? En comunicación personal reconoció que la teoría no requiere un número
infinito de ciclos.
Steinhardt, al igual que Maurizio Gasperini, nos sugirió una visión pragmática de su modelo.
La descripción del modelo del enfoque del límite pasado (y el límite) no es (todavía) rigurosa. El
límite al que hace referencia el teorema de BGV podría ser la marca de algo fundamental, como
una singularidad, o ser el marcador de una transición a una física diferente. Si uno afirma que el
límite simplemente marca la transición a una física diferente, entonces el problema en cuanto a
la edad de la configuración previa al ciclo se impone. De manera significativa, Steinhardt sostiene
que la solución cíclica es un atractor dinámico (esto es riguroso) (Comunicación personal, 27 y
30 de enero de 2004). Lo que esto significa es que si uno configura el sistema con condiciones
iniciales genéricas dentro de la configuración de doble brana, automáticamente, dentro de un
tiempo finito, convergen a la solución cíclica. Por tanto, la configuración de preciclado tendría
una vida útil finita. Por tanto, todavía hay un origen inexplicable. Por lo tanto, se puede decir con
seguridad que el universo ekpirótico (ya sea que el límite represente una singularidad genuina
o no) comience a existir.47
Según LQG, las singularidades no existen realmente. Como en la teoría de cuerdas, la naturaleza
tiene un tamaño mínimo que evita infinitos matemáticos microscópicos. Por tanto, el tiempo y el
espacio no llegan a su fin cuando uno llega a una "singularidad". Habrá una línea de tiempo
pasada. Esto lleva a la conclusión de un pasado asintóticamente estático, o un verdadero pasado
cíclico.
Martin Bojowald es el principal exponente de este enfoque. Podemos pensar en el modelo de
Bojowald como una variación del antiguo modelo cíclico de Tolman. Solo hay un universo. Solo
hay tres dimensiones espaciales. No hay energía “libre” inyectada en la situación (como ocurre
en escenarios inflacionarios o ekpiróticos). El modelo de Tolman tuvo dos problemas que
impidieron su amplia aceptación: (1) No existe un mecanismo físico conocido para producir un
"rebote" cíclico, y (2) las consideraciones termodinámicas muestran que el universo actual
debería haber alcanzado el equilibrio termodinámico (" muerte por calor ”). Esto sugiere que el
pasado es finito. Bojowald reconoce ambos problemas y cree que puede resolverlos. Su enfoque
básico es el mismo para ambos temas;
Con respecto al primer problema, la mayor dificultad ha sido resolver un tipo de caos que se
prevé que ocurrirá cerca de las singularidades clásicas. 48Se ha demostrado que este caos,
denominado "BKL" en honor a sus descubridores (Belinsky, Khalatnikov y Lifshitz) se "calma"
mediante un enfoque cuántico de bucle. A partir de 2007, algunos teóricos cuánticos de bucles
han podido demostrar que, para ciertos modelos idealizados, es factible una transición a través
de una condición de Big Bang (Ashtekar, Pawlowski y Singh 2006). Entonces, aunque todavía
falta una prueba generalizada, el proyecto parece prometedor.
La segunda condición es más abrumadora. ¿Cómo puede haber un comportamiento
verdaderamente cíclico (un ciclo se parece mucho al anterior, aunque no hay una recurrencia
evento por evento) cuando la segunda ley de la termodinámica predice que la entropía debe
aumentar de un ciclo a otro? Utilizando un enfoque semiclásico para calcular la entropía, Penrose
encuentra que el final de nuestro ciclo actual (el "Big Crunch") debería diferir en entropía de la
singularidad del Big Bang por el estupendo factor de 1022 (Penrose 2005, p. 730).49Dado que no
hay entrada de energía del exterior (y Bojowald sostiene que el sistema está realmente cerrado),
¿cómo se puede evitar este resultado? Parece haber tres posibilidades:
(1) El problema es solo epistémico. En un artículo de 2004, Bojowald y sus colegas parecen
favorecer esta solución:
Si bien la dinámica efectiva es consistente con nuestras expectativas tanto para el comienzo
como para el final del universo, la aparente asimetría de inversión del tiempo permanece.
Esto se explica por el hecho de que la situación es, de hecho, asimétrica en el tiempo debido
a nuestra propia posición en el universo. Podemos ver solo una parte de él, no todo el espacio-
tiempo, y en particular, solo vemos una pequeña parte del comienzo. Con el conocimiento
actual, la parte observable de nuestro universo bien puede ser parte de un espacio-tiempo
clásico con una singularidad inicial muy heterogénea. Sin embargo, dado que la mayor parte
de la singularidad inicial es inobservable, no se analiza más a fondo. La singularidad final, por
otro lado, es completamente inobservable hasta que se alcanza. Si comparamos solo
propiedades observables dentro del universo, simplemente no podemos saber lo suficiente
como para decir si las singularidades pasadas y futuras son similares. Si comparamos la
estructura teórica de un espacio-tiempo desde fuera, concluimos que, de hecho, no hay
diferencia conceptual entre el comienzo y el final de un espacio-tiempo genérico.
Sólo si comparamos la parte observable de la singularidad inicial con la expectativa
teórica de una singularidad final aparece la asimetría temporal (Bojowald y Hossain 2004, p.
38).50
Es importante señalar que Bojowald (y sus colegas) no están comprometidos con un modelo con
un número infinito de ciclos en el pasado, como muestra su última respuesta. Está abierto a la
posibilidad de un aumento irreversible de la entropía en función del tiempo. Por lo tanto, el
hecho de que la entropía aumente, ciclo a ciclo, y haga tropezar con un modelo cíclico infinito
pasado propuesto no es, per se, una prueba de la viabilidad del enfoque cuántico de bucle como
candidato para la gravedad cuántica. En cambio, nuestro interés (en esta sección) se limita a los
modelos cíclicos sin comienzo.
Considerando la primera solución, la respuesta de Bojowald a Penrose sería que hay una parte
grande e inobservable de la singularidad inicial que es una variedad genérica genuina, es decir,
un estado de máxima entropía con inhomogeneidad y anisotropía aleatorias. Por tanto, la
entropía de las singularidades inicial y final sería similar. Un mecanismo de inflación (de un
pequeño parche de esta variedad) produciría entonces la homogeneidad e isotropía necesarias
del universo FRW actual. Penrose, sin embargo, había anticipado esta objeción. Utilizando un
argumento de selección de observadores antrópicos, argumenta que el tamaño del parche
inflacionario que deberíamos esperar debería ser mucho más pequeño según los criterios
termodinámicos (por el factor 10 (10 ^ 123)) (Penrose 2005, p. 763).
Penrose sugiere que la vida podría necesitar un universo de solo 1/10 del tamaño de nuestro
universo actual (visible). Obtiene la probabilidad de un parche inicial de tamaño apropiado de
una variedad genérica utilizando la ecuación de Hawking-Bekenstein para la entropía de un
agujero negro. El exponente "123" en la fórmula de Penrose se basa en el cuadrado de la masa
dentro del universo observable. Entonces, multiplicar el radio del universo por un décimo
tendría el siguiente efecto: la masa dentro de este universo de menor tamaño se reduciría en un
factor de 10-3 (ya que el volumen es proporcional a r3), y la masa se eleva al cuadrado en la
fórmula de la entropía . Por tanto, el exponente se reduce en 6; por lo que la entropía general se
reduce de (10123) a (10117). La probabilidad de encontrarnos en cualquiera de los estados sería
aproximadamente diez elevada a la potencia apropiada.51
Entonces, ¿cuántos eventos inflacionarios más en un multiverso producirían un universo
susceptible de vida pero más pequeño? Esto se obtiene dividiendo las probabilidades:
Aquí -10117 es insignificante en comparación con el 10123 más grande. Por lo tanto, E = 10
(10 ^ 123). El recíproco de esto representa la probabilidad de encontrarnos en un universo
grande versus uno pequeño. Por tanto, es sumamente improbable que nos encontremos como el
producto de un evento inflacionario de una variedad genérica, como Bojowald et al. propuesto
originalmente. Por tanto, argumenta Penrose, la entropía de la variedad inicial debe ser
excesivamente baja.
Aparte de esto, el argumento epistémico no tiene en cuenta la generación de entropía durante
el ciclo. Durante un tiempo infinito, esto debería ser un factor, aunque puede ser insignificante
para un solo ciclo. Los huevos se rompen, la gente envejece, las estrellas se queman. Esta entropía
puede ser insignificante en comparación con la formación de un agujero negro. Pero en ciclos
infinitos, se sumaría.
La segunda solución, que la comprensión "clásica" de la entropía es engañosa, mitiga el
problema del crecimiento de la entropía, pero no lo resuelve. Si bien la entropía calculada
clásicamente puede ser demasiado alta (es decir, la estimación de Penrose sobreestima la
entropía debido a la falta de información contextual), el enfoque cuántico aún reconoce la
entropía (y el crecimiento de la entropía) como una cantidad física genuina. Los agujeros negros
siguen siendo muy entrópicos. Entonces, su formación durante un ciclo, especialmente si uno
aterriza en un Big Crunch, aún causaría que una variedad final tenga más entropía que una
variedad inicial. Aún sería de esperar que esta situación implique un comienzo, ya que implica
una muerte por calor dados ciclos infinitos. Por lo tanto, Bojowald solo está siendo realista al
optar por la tercera solución, que el modelo cíclico de LQG, de hecho, necesita ser completamente
reversible.
Pero oponerse a la segunda ley de la termodinámica es una tarea formidable; uno recuerda las
palabras del cosmólogo de principios del siglo XX, Sir Arthur Eddington:
Si alguien le señala que su teoría favorita del universo está en desacuerdo con las ecuaciones
de Maxwell, entonces mucho peor para las ecuaciones de Maxwell. Si la observación lo
contradice, bueno, estos experimentales a veces cometen errores. Pero si se descubre que su
teoría va en contra de la segunda ley de la termodinámica, no puedo darle ninguna esperanza;
no le queda más remedio que colapsar en la más profunda humillación (Eddington 1948, p.
74).
Entonces, la pregunta es, ¿puede LQG realmente probar la reversibilidad? Debemos esperar
nuevos desarrollos sobre el terreno. Es justo decir que la opinión predominante en la comunidad
cosmológica en general no está de acuerdo con Bojowald. Como admite el propio Bojowald, el
jurado aún está deliberando:
Sinclair: "¿Es el supuesto de inversión de la entropía: a) un supuesto inicial alrededor del
cual se construye un modelo LQG autoconsistente, ob) una consecuencia natural de los
modelos LQG? Bojowald: “Definitivamente es b), hasta donde podemos verlo actualmente. Se
deben completar muchos detalles, pero no hacemos suposiciones a priori sobre la entropía.
Dado que la entropía no es un objeto fundamental sino una medida de nuestra ignorancia de
lo que está sucediendo microscópicamente, ni siquiera es posible hacer tal suposición en una
teoría como la gravedad cuántica de bucles. Solo podemos hacer suposiciones sobre objetos
microscópicos y luego ver lo que esto implica para cantidades más comunes. Lo que aún no
sabemos es cómo se equilibran exactamente los cambios de entropía. Por tanto, no estamos
seguros de que la entropía no aumente de un ciclo a otro.
Hay que reconocer que Bojowald no ha asumido simplemente una entropía neta cero en su
modelo. Está usando el enfoque correcto; permitiendo a la física predecir la acumulación de
entropía a lo largo del tiempo. Sin embargo, hasta ahora, la única conclusión confiable es que la
gravedad cuántica de bucles puede mostrar que los argumentos de entropía de Penrose deben
modificarse desde su orientación semiclásica (lo que hemos llamado opción 2). Sin embargo, esto
no ha demostrado que la entropía del universo no aumente acumulativamente ciclo por ciclo. La
fuerza del argumento de Penrose permanece intacta incluso si su evaluación cuantitativa de la
entropía debe cambiar.
Aparte del problema de la entropía, sigue existiendo el problema de la energía oscura, que
puede tener el potencial de detener el ciclo e inducir una expansión abierta. El efecto actual de
energía oscura observado empíricamente, por ejemplo, parece adecuado para producir una
expansión acelerada de final abierto. Este resultado sería definitivo si la energía oscura tuviera
la forma de una constante cosmológica (es decir, su valor fuera independiente del espacio y el
tiempo; ver Barrow y Dabrowski 1995).52Como se relató anteriormente (Overbye 2006), este
parece ser el destino del universo actual. Pero si se niega una ganancia de entropía (ciclo a ciclo),
nunca se puede tener más de un "ciclo". La constante cosmológica habría llevado a una expansión
abierta la primera vez. Por tanto, la singularidad inicial (nuestro Big Bang) representa un
comienzo absoluto.
Sin embargo, si la energía oscura fuera de la forma de "quintaesencia" (es decir, tuviera un
valor que dependa del espacio y / o el tiempo), entonces sería posible que su valor pudiera
revertirse y ser consistente con una fase de colapso, incluso teniendo en cuenta la evidencia
observacional actual. Pero entonces podría surgir un nuevo problema. Bojowald reconoce que
después del rebote y la siguiente transferencia de energía, los diferentes modos de los campos
de materia se excitarán de modo que el siguiente rebote será diferente al anterior. Pero si el
término de quintaesencia cambia, entonces quizás el modelo más genérico de LQG sería un
híbrido entre los modelos cíclico y de rebote único. En algún ciclo particular, el valor del término
de quintaesencia sería tal que conduciría a una expansión sin fin. Bojowald responde,
Si solo hay una constante cosmológica, se fijaría para todos los ciclos y no cambiaría. Pero si
hay algún tipo de quintaesencia, tienes razón en que sus condiciones iniciales para la fase
clásica se verían afectadas por la transición de rebote. Para que su escenario se pueda realizar
en modelos de quintaesencia adecuados. Sin embargo, lo que la gente suele preferir son los
modelos de quintaesencia que tienen un comportamiento atractor en momentos tardíos, o
las llamadas soluciones de seguimiento. Esto permite evitar demasiados ajustes y hace que
la dinámica sea menos sensible a los cambios en los valores iniciales. Para tales modelos, por
lo tanto, no se esperan genéricamente grandes cambios entre ciclos. Por otro lado, dado que
el efecto sería bastante dramático si se pudiera realizar una expansión abierta, incluso una
posibilidad no genérica puede ser importante (Comunicación personal, 9 de marzo de 2006).
Dado un número infinito de tiradas de dados, cualquier probabilidad distinta de cero de que la
quintaesencia pueda producir una expansión abierta sería suficiente para hacerlo. Una
expansión abierta implica que el número total de ciclos ha sido finito y, por lo tanto, el modelo
no carecería de comienzo.53
En general, la gravedad cuántica de bucles parece una alternativa prometedora a la teoría de
cuerdas como candidata a la gravedad cuántica. Pero construir un modelo LQG cíclico
genuinamente sin comienzo parece ser un desafío mucho más difícil. 54
Mucha gente sospechaba que para comprender lo que realmente sucedió al principio,
deberíamos tratar el universo de forma mecánica cuántica y describirlo mediante una
función de onda en lugar de un espacio-tiempo clásico. Este enfoque cuántico de la
cosmología fue iniciado por DeWitt y Misner, y después de un comienzo algo lento recibió un
amplio reconocimiento en las últimas dos décadas. La imagen que ha surgido de esta línea de
desarrollo es que un pequeño universo cerrado puede nuclearse espontáneamente de la
nada, donde por "nada" me refiero a un estado sin espacio y tiempo clásicos. La función de
onda cosmológica se puede utilizar para calcular la distribución de probabilidad para las
configuraciones iniciales de los universos nucleantes. Una vez que el universo se nuclea, se
espera que pase por un período de inflación, impulsado por la energía de un falso vacío.
Vilenkin utiliza el túnel cuántico de una partícula a través de un pozo potencial como una
analogía para todo el universo. En la figura 1.19, las porciones en verde representan un universo
cerrado de Freidmann-Robertson-Walker, es decir, un universo que no tiene suficiente energía
total para tener una expansión de extremos abiertos. Por lo tanto, pasa por ciclos continuos de
Big Bang / Big Crunch. En la física clásica (GR), este estado de cosas persistiría para
siempre.56Pero la gravedad cuántica proporciona una salida. Existe una probabilidad finita de
que, en lugar de volver a colapsar, el universo haga un "túnel" a través de la barrera de energía y
comience una expansión inflacionaria.
Este enfoque todavía no resuelve el problema de la creación; más bien ha hecho retroceder la
pregunta un paso: al universo inicial, diminuto, cerrado y metaestable. Este estado universal
puede haber existido solo durante un tiempo finito. ¿De dónde vino?
La solución de Vilenkin fue considerar lo que sucede en el límite cuando la energía de este
universo cerrado inicial se vuelve cero. El factor de escala del universo también se vuelve cero.
Esta es la génesis de la afirmación de que el universo se crea a partir de "nada". No hay espacio,
tiempo, materia ni energía. Esto constituye una transformación topológica: “Creación de un
universo de la nada. . . es una transición del sector topológico nulo que no contiene universos en
absoluto al sector con un universo de topología S3 ”(Vilenkin 1994, p. 23). Vilenkin concede que
la nada así concebida no es lo mismo que la ausencia del ser:
Entiendo que un universo de radio cero no es necesariamente lo mismo que ningún universo
en absoluto. Pero matemáticamente, mi túnel cuántico desde la nada se describe con la misma
geometría de "volante" que Hartle y Hawking [NB, Fig. 1.20 a continuación]. (De hecho, el
volante apareció por primera vez en mi artículo de 1982). Esta geometría ciertamente no es
pasado-eterno, y no hay ningún punto en la esfera euclidiana que puedas identificar como el
universo inicial de tamaño cero. Entonces, si el enfoque de Hartle-Hawking evita las
“paradojas de la creación”, no veo por qué mi mío no lo hace (Comunicación personal, 23 de
octubre de 2006).
La descripción matemática de un universo en túnel sugiere que el tiempo, el espacio y la
materia llegaron a existir hace un tiempo finito. “Nada” se refiere al estado “anterior”
(Comunicación personal, 30 de octubre de 2006).
El universo claramente tiene un comienzo en este enfoque. Pero la afirmación parece ir más allá
de esto: el universo "llegó a existir" a partir de un estado "anterior" de "nada". Esta última
afirmación (que el universo llega a existir) es significativa, porque la noción de tiempo se vuelve
mal definida en estos modelos cerca del comienzo.
Figura 1.20Transición al tiempo "normal" en un enfoque Hartle-Hawking. En realidad, esta es solo una técnica matemática llamada
continuación analítica, que es útil para problemas con funciones “mal comportadas”, pero que no implica compromiso ontológico.
También existe una tercera interpretación de estos resultados. Recuerde que Gott y Li han
criticado el enfoque de la creación ex nihilo por dos motivos. (1) Las transiciones en la mecánica
cuántica son siempre entre estados clásicos permitidos (el enfoque de Vilenkin y Hartle-Hawking
tiene una transición de una región clásicamente prohibida a una región clásicamente permitida).
(2) Los enfoques de Vilenkin y Hartle-Hawking deberían contener campos de energía realistas
(algo más cercano a lo que realmente vemos en la naturaleza). Si lo hicieran, entonces el principio
de incertidumbre de Heisenberg requeriría que el estado inicial de sus modelos tuviera una
energía finita y distinta de cero. Si ese es el caso, entonces los modelos cuánticos semiclásicos
realmente comienzan en un estado metaestable clásicamente permitido, en lugar de "nada". Gott
y Li elaboran:
El problema con este modelo [Vilenkin y Hawking-Hartle] es que ignora la "energía de punto
cero". Si hay un campo escalar conforme φ, entonces los niveles de “energía” deben ser E n =
n + 1/2. Incluso para n = 0 hay una "energía de punto cero". El potencial hace que el sistema
se comporte como un oscilador armónico en el pozo de potencial cerca de a = 0. Un oscilador
armónico no puede ubicarse en el fondo del pozo de potencial; el principio de incertidumbre
no lo permitiría. Debe haber algo de energía de punto cero y la partícula debe tener cierto
impulso, ya que oscila dentro del pozo de potencial cuando se incluye el campo φ. Por lo tanto,
cuando se considera la "energía puntual cero", vemos que el estado inicial no es un punto,
sino un pequeño universo oscilante (0 <a <a1) del Big Bang, que oscila entre big bangs y big
crunches (aunque las singularidades en los big bangs y big crunches pueden estar manchadas
por efectos cuánticos). Este es el estado clásico inicial a partir del cual se produce el túnel. Es
metaestable, por lo que este universo oscilante no podría haber existido para siempre:
después de una vida media finita, es probable que decaiga. Alcanza el radio máximo a1, y
luego hace un túnel a un estado clásico de De Sitter en el radio mínimo a2 donde a2 <a0 (Gott
y Li 1998, p. 38, énfasis nuestro).
La pregunta relevante para la interpretación de estos modelos, entonces, es: ¿Es el universo (i)
creado a partir de la nada, (ii) ni creado ni destruido sino, en efecto, eternamente subsistente, o
(iii) dejado en última instancia sin explicación, ya que la existencia del universo inicial,
metaestable, cerrado, del tamaño de Planck del que nació nuestro universo, ¿no se explica en sí
mismo? La opción (i), si se adopta, implica claramente que el universo comenzó a existir. Sin
embargo, como incluso el propio Vilenkin reconoce, "nada", como él lo describe, no es lo mismo
que ausencia de ser. Cualquiera que sea la realidad que subyace a las leyes de la mecánica
cuántica, debe existir al menos para transformar el sector topológico nulo en un universo FRW.
Las leyes mismas, si existen, son meros objetos abstractos de naturaleza proposicional y, por lo
tanto, no mantienen relaciones causales con nada. Como tales, son irrelevantes para lo que
sucede en el mundo; es la realidad que les corresponde lo que distingue la posibilidad
meramente lógica de la real. Como dijo una vez Heinz Pagels: “Este vacío impensable se convierte
en el pleno de la existencia, una consecuencia necesaria de las leyes físicas. ¿Dónde están escritas
estas leyes en ese vacío? ¿Qué le 'dice' al vacío que está preñado de un universo posible?
Parecería que incluso el vacío está sujeto a la ley, una lógica que existe antes del espacio y el
tiempo ”(Pagels 1985, p. 347). La opción (i), entonces, está equivocada, ya que se basa en un uso
idiosincrásico de la palabra "nada". Ese estado inicial claramente no es nada, sino algo. “Este
vacío impensable se convierte en el pleno de la existencia, una consecuencia necesaria de las
leyes físicas. ¿Dónde están escritas estas leyes en ese vacío? ¿Qué le 'dice' al vacío que está
preñado de un universo posible? Parecería que incluso el vacío está sujeto a la ley, una lógica que
existe antes del espacio y el tiempo ”(Pagels 1985, p. 347). La opción (i), entonces, está
equivocada, ya que se basa en un uso idiosincrásico de la palabra "nada". Ese estado inicial
claramente no es nada, sino algo. “Este vacío impensable se convierte en el pleno de la existencia,
una consecuencia necesaria de las leyes físicas. ¿Dónde están escritas estas leyes en ese vacío?
¿Qué le 'dice' al vacío que está preñado de un universo posible? Parecería que incluso el vacío
está sujeto a la ley, una lógica que existe antes del espacio y el tiempo ”(Pagels 1985, p. 347). La
opción (i), entonces, está equivocada, ya que se basa en un uso idiosincrásico de la palabra
"nada". Ese estado inicial claramente no es nada, sino algo. está equivocado, ya que se basa en un
uso idiosincrásico de la palabra "nada". Ese estado inicial claramente no es nada, sino algo. está
equivocado, ya que se basa en un uso idiosincrásico de la palabra "nada". Ese estado inicial
claramente no es nada, sino algo.
En cuanto a la opción (ii), el propio Hawking parece dar buenos motivos para tratar su
propuesta solo como un enfoque instrumental. En su colaboración con Roger Penrose La
naturaleza del espacio y el tiempo (Hawking y Penrose, 1996), demuestra el mismo enfoque
matemático (continuación analítica) para describir la producción de pares de pares de
electrones y positrones en un campo eléctrico fuerte. Esta es una técnica matemática estándar
que a veces se usa cuando las funciones analíticas complejas se comportan mejor en un
determinado dominio que sus contrapartes reales. Sin embargo, no implica un compromiso
ontológico con la descripción alternativa. Nos parece que dada la ininteligibilidad de la región
del “tiempo imaginario” en estos modelos, es más razonable tratar este enfoque como de carácter
no realista.
En cuanto a la opción (iii), parece que tenemos el mismo tipo de situación que encontramos
con los modelos Emergente y PBBI con sus estados ESS y SPV metaestables asociados. El
universo no puede ser más allá de la eternidad porque el estado metaestable inicial sólo puede
haber tenido una vida finita. Nos parece que esta es la opción más razonable para una
interpretación realista de estos modelos. Emplea interpretaciones conocidas y significativas de
los fenómenos físicos de la teoría cuántica "clásica" y las extiende a los modelos de gravedad
cuántica. Se evitan los problemas asociados con la novedad de afirmar una condición de energía
cero para el estado inicial (negado por el principio de incertidumbre de Heisenberg), la novedad
de afirmar una transición cuántica de un estado prohibido a un estado clásicamente permitido
(la teoría cuántica normal solo incluye transiciones sobre o a través de regiones prohibidas de
un estado permitido a otro), y es consistente con campos de energía más realistas. La opción (iii)
también es consistente con la segunda premisa del argumento cosmológico kalam.
2.34 Resumen
Tomando como trampolín los desafíos a los teoremas de la singularidad de Hawking-Penrose,
hemos examinado el desarrollo histórico de tres programas de investigación, cada uno de los
cuales persigue excepciones conocidas a los teoremas: 58(1) curvas de tiempo cerradas, (2)
violación de la condición de energía fuerte (inflación eterna) y (3) falsedad de GR (gravedad
cuántica). Los principales desarrollos teóricos relacionados con las opciones (2) y (3) fueron la
teoría inflacionaria (gravedad repulsiva) y la gravedad cuántica semiclásica.
Las curvas de tiempo cerradas, aunque interesantes, parecen fallar dada la conjetura de
protección cronológica. Se pueden encontrar contraejemplos a la conjetura, pero parecen ser
modelos de juguetes poco físicos y / o infinitamente afinados.
En cuanto a la inflación, un tipo exótico de campo energético posee la extraña propiedad de la
presión negativa. Esta energía quiere colapsar sobre sí misma debido a la presión, pero de
acuerdo con las ecuaciones de Einstein, la presión también produce una fuerza gravitacional. Si
la presión es negativa, la fuerza gravitacional es repulsiva. Resulta que la repulsión es la más
fuerte de las dos tendencias, en gran medida. El universo puede expandirse muchos órdenes de
magnitud en una fracción de segundo; desde invisiblemente pequeño hasta más grande que todo
el cielo observable. Este desarrollo permitió una reevaluación de la cuestión de los orígenes que
duró dos décadas. Finalmente, un nuevo teorema de la singularidad, desarrollado por Arvind
Borde, Alan Guth y Alexander Vilenkin, mostró que este modelo, el universo inflacionario,
todavía tenía un comienzo en el pasado finito.
Es fascinante observar que la historia reciente de la cosmología puede mapearse mediante los
intentos de superar estos teoremas de la singularidad. Siguiendo el teorema de BGV en 2003, los
intentos de construir modelos se han basado en excepciones a ese teorema. Estos fueron: (1) la
expansión pasada promedio del universo es negativa (contracción-rebote), (2) la expansión
pasada promedio es cero (universo asintóticamente estático), (3) la expansión pasada promedio
es cero (universo cíclico) y (4) espacio-tiempo exótico.
1. El universo nació de un estado anterior de topología nula (pero que de alguna manera
contenía las leyes de la física) a una métrica de Lorentz (el universo normal). Por lo tanto,
el universo "pasó de la nada" a la existencia.
2. El estado inicial del universo es increado. Esto se debe a la naturaleza del tiempo en una
métrica euclidiana. Equivale a una dimensión espacial.
3. Debido a que el estado inicial de la geometría debe tener una energía de punto cero, está
en un estado clásico con una métrica de Lorentz. Es un universo cerrado metaestable. Por
lo tanto, este estado no pudo haber existido para siempre y, de una manera inexplicable
por el modelo, comenzó a existir.
Parece que el campo de la cosmología, por tanto, proporciona una buena evidencia de que el
universo comenzó a existir.
Notas
1. Además del artículo de Ellis et al., Ver (Vaas 2004).
2. Por lo tanto, se vería que la temperatura del universo aumenta cuando uno mira hacia atrás en el tiempo.
3. Los primeros artículos de Slipher ahora están disponibles en línea en <http://www.roe.ac.uk/~jap/slipher/.>
4. Una geodésica es el camino que traza una partícula en caída libre a través del espacio y el tiempo. Una partícula masiva viaja
a una geodésica similar a un tiempo. Una geodésica nula es viajada por una partícula sin masa, como los fotones que forman
la luz visible.
5. Como escriben Gott, Gunn, Schramm y Tinsley: “El universo comenzó a partir de un estado de densidad infinita hace
aproximadamente un Hubble. El espacio y el tiempo se crearon en ese evento y también lo fue toda la materia en el universo.
No tiene sentido preguntar qué sucedió antes del Big Bang; es algo así como preguntar qué hay al norte del Polo Norte. Del
mismo modo, no es sensato preguntar dónde tuvo lugar el Big Bang. El universo puntual no era un objeto aislado en el espacio;
era el universo entero, por lo que la única respuesta puede ser que el big bang ocurrió en todas partes ”(Gott, Gunn, Schramm,
Tinsley, marzo de 1976, p. 65).
El tiempo de Hubble es el tiempo transcurrido desde la singularidad si la tasa de expansión ha sido constante. La singularidad
es un punto solo en el sentido de que la distancia entre dos puntos cualesquiera en la singularidad es cero. Cualquiera que
piense que debe haber un lugar en el universo donde ocurrió el Big Bang todavía no ha comprendido que es el espacio mismo
el que se está expandiendo; es la superficie bidimensional de un globo inflado que es análoga al espacio tridimensional. La
superficie esférica no tiene centro y, por lo tanto, no tiene lugar donde comience la expansión. No se debe insistir en la analogía
del Polo Norte con el comienzo del tiempo, ya que el Polo Norte no es un borde de la superficie del globo; el comienzo de los
tiempos se parece más al vértice de un cono. Pero la idea es que así como no se puede ir más al norte que el Polo Norte,
6. Sin embargo, experimentos posteriores establecieron definitivamente la correspondencia entre los recursos genéticos y la
naturaleza. El Premio Nobel de Física de 1993 fue otorgado a dos astrónomos: Russell A. Hulse y Joseph H. Taylor, Jr. El premio
fue otorgado por su estudio de un sistema solar distante que consiste en un púlsar binario: dos estrellas de neutrones
orbitando entre sí. GR predijo que la órbita se reduciría con el tiempo debido a la emisión de ondas gravitacionales.
Demostraron que GR tiene una precisión sorprendente de una parte en 1014. Esto hace que GR sea quizás la teoría mejor
probada de toda la física.
7. Got indica: “Creo que nadie ha podido descartar CTC. No ha habido cambios significativos en la gravedad cuántica desde
nuestro artículo. Para comprender si se puede crear una máquina del tiempo, es posible que tengamos que comprender la
gravedad cuántica y nosotros todavía no. Se han encontrado varias lagunas en la protección cronológica. Li Xin-Li, Cassidy y
yo, estudiante de Hawking, hemos encontrado ejemplos de estados cuánticos de vacío que no explotan en el horizonte cauchy.
El artículo de Li Xin-Li sobre el procedimiento correcto de renormalización [Phys. Rev. D. 084016 (1999)] mostró que el
campo de vacío no explotó para los campos electromagnéticos y otros campos, así como para los campos escalares. Esto
significa que la acción o la entropía tampoco explotan, resolviendo un problema que Hawking y Cassidy pensaban que existía.
8. Coule tiene algunas objeciones adicionales propias. Por ejemplo, critica la naturaleza del vacío, indicando que las
fluctuaciones térmicas deben ser de una forma precisa para evitar la contrarreacción de radiación descrita anteriormente por
Thorne. Esta expectativa es inconsistente con la física de escala de Planck empleada por Gott y Li.
9. Para ser justos con Gott y Li, cabe señalar que las críticas de Hiscock se basan en un enfoque semiclásico (una aproximación
de la gravedad cuántica), y es posible que una teoría completa de la gravedad cuántica pueda reivindicar su idea.
10. Vilenkin también ha criticado el modelo de Gott-Li (ver Vilenkin 2006, p. 219). Él indica que el espacio-tiempo de Gott-Li
contiene historias incompletas, por lo que "Esto significa que el espacio-tiempo en sí es un pasado incompleto y, por lo tanto,
no proporciona un modelo satisfactorio de un universo sin un comienzo".
11. El universo parece diferente a varias distancias cuando lo miramos. Pero esto se debe al hecho de que observamos galaxias
distantes como lo eran en el pasado, dado el tiempo que tarda su luz en llegar a nosotros.
12. Para comprender lo que representan estas estructuras exóticas, considere la analogía de un estanque que se congela en
invierno. Si el estanque comienza a congelarse en un lugar y el hielo simplemente crece hasta abarcar todo el estanque,
tendrá una superficie lisa. Pero si diferentes partes del estanque comienzan a congelarse por separado, en última instancia,
estos "icebergs" en crecimiento deben encontrarse en un límite. (Imagínese tomando rocas grandes y abriendo agujeros en
el hielo; luego dejándolo volver a congelarse. Los límites serán ásperos). El universo primitivo era similar. Estos límites se
denominan "defectos" y pueden ser cero, unidimensionales o bidimensionales. Los defectos de dimensión cero se denominan
monopolos magnéticos. Los defectos unidimensionales se denominan cuerdas cósmicas. Los límites bidimensionales se
denominan paredes de dominio.
13. Definición de pliegue electrónico: http://astro.uchicago.edu/~cunha/inflation/node4.html
14. En la inflación caótica de Linde, el campo energético presenta fluctuaciones cuánticas que son críticas para el inicio de
nuevos parches inflacionarios.
15. Dado que sólo falta la causa "material", este proceso es un ejemplo de auténtica creatio ex nihilo visto por los teóricos físicos
en la actualidad. Tal reconocimiento de la causalidad eficiente en ausencia de causalidad material puede servir para silenciar
las objeciones a la creatio ex nihilo teísta como se presenta en el argumento cosmológico kalām.
dieciséis. Hav se refiere al valor promedio de la constante de Hubble a lo largo de la historia.
17. Alan Guth, en una conferencia de 2003 en el Instituto Kavli de UCSB, dice: “Si seguimos al observador hacia atrás en un
universo en expansión, se acelera. Pero, el cálculo muestra que si Haverage> 0 en el pasado, entonces alcanzará la velocidad
de la luz en un tiempo propio finito ". Verhttp://online.kitp.ucsb.edu/online/strings_c03/guth/pdf/KITPGuth_2up.pdf
18. Andrei Linde ha ofrecido una crítica, sugiriendo que BGV implica que todas las partes individuales del universo tienen un
comienzo, pero tal vez TODO no. Sin embargo, esto parece malinterpretado, ya que BGV no afirma que cada geodésica
inextensible pasada esté relacionada con una singularidad regional. Más bien, afirman que la descripción del universo de
Linde contiene una contradicción interna. Cuando miramos hacia atrás a lo largo de la geodésica, debe extenderse hasta el
pasado infinito si el universo ha de ser más allá de la eternidad. Pero no es así (para el observador que se mueve
conjuntamente con la expansión). Más bien, las geodésicas inextendibles del pasado son el "síntoma", no la "enfermedad".
Como dice Robert Wald (175Wald 1984, p. 216), “Desafortunadamente, los teoremas de la singularidad no brindan
prácticamente información sobre la naturaleza de las singularidades de las que prueban su existencia. ”Entonces no
conocemos la naturaleza de la singularidad que indica el teorema BGV; sólo sabemos que la descripción de Linde de un
pasado infinito es errónea.
19. Véase también Damour y Henneaux (2000): “. . . Nuestros hallazgos sugieren que la inhomogeneidad espacial aumenta
continuamente hacia una singularidad, ya que todos los parches cuasi uniformes de espacio se rompen en otros cada vez
más pequeños por la evolución oscilatoria caótica. En otras palabras, la estructura del espacio-tiempo tiende a desarrollar
una especie de 'turbulencia' ”.
20. En respuesta a la pregunta, "¿Son c-límites [ver Fig. 1.7 y la siguiente discusión para la explicación de estos términos] como
infinito temporal pasado y futuro y scri + bordes físicamente reales al espacio-tiempo (real, como un agujero negro es un
entidad) o son meras conveniencias matemáticas? Pero si el infinito es 'real' y alcanzable, entonces un límite c debe ser un
borde real del espacio-tiempo, físicamente real en su ontología ”, responde Ellis secamente:
“1. no
2. matemáticas: después de todo, un diagrama de espacio-tiempo es solo una representación de la realidad física
3. en mi opinión, el infinito no es real ni alcanzable ".
21. Una supertarea es una serie infinita de subtareas que se pueden completar en un tiempo finito.
22. (Barrow y Tipler 1986, p. 408), atribuido al cosmólogo Thomas Gold.
23. Ver, por ejemplo, (Earman y Mosterin 1999) para un argumento relacionado.
24. Ahora acabamos de mostrar en la sección anterior que Ellis tiene un problema filosófico con los modelos que sugieren un
punto de inicio infinitamente distante e incluso, de hecho, la noción de un infinito realizado en la naturaleza. Sin embargo,
aquí tenemos una familia de modelos desarrollados por Ellis et al. que parecen sugerir precisamente eso. Esto se explica a
través de lo siguiente:
1) El infinito está tan profundamente arraigado en los RR.GG. que el pragmatismo puro exige que uno incluya el concepto en su
trabajo.
2) No es cognitivamente disonante considerar que uno podría estar equivocado e investigar en consecuencia. De hecho, un buen
procedimiento científico incluye un intento de falsificar las propias teorías.
3) Los colaboradores de Ellis pueden no tener los mismos compromisos filosóficos.
4) Un infinito que aparece debido a una interpretación técnica de GR puede desaparecer dada una generalización de la teoría
(digamos, considerando la gravedad cuántica).
Una mirada completa al trabajo reciente de Ellis indica un sesgo hacia modelos con espacios compactos (es decir, espacialmente
finitos ya sea a través de una curvatura cerrada o topología), un escepticismo con respecto a los multiversos infinitos y una
apertura hacia la idea de un "pseudo-comienzo" en el pasado finito. En resumen, la idea del pseudo-comienzo es que existe
una realidad atemporal donde el tiempo "enciende", produciendo nuestro estado actual de cosas.
25. Esto está relacionado con los modelos de “creación de la nada”; ver sección IVc.
26. Observamos, también, que una perturbación a un estado cercano a ESS debería ser tan eficaz para perturbar el universo
como una perturbación a un ESS genuino. Por lo tanto, un modelo que solo es una EEE asintótica pasada no escapa al
problema. De hecho, dado el tiempo infinito pasado y la variedad de transiciones exóticas del universo cuántico postuladas
a lo largo de la literatura cosmológica, parece inconcebible que cualquier universo pueda mantener una estructura
conservada durante períodos de tiempo "largos" en comparación con el intervalo desde el Big Bang.
27. Él dice, "observe la versión posterior de nuestro modelo (astro-ph / 0502589) basada en la aproximación semiclásica a la
gravedad cuántica de bucles donde el modelo estático es estable durante mucho tiempo" (Comunicación privada, 24 de enero
de 2006).
28. Modelo de mosaico: las características indeseables de un universo modelo pueden tener un alcance regional; la
consideración de un multiverso puede eliminar esas características.
29. Energía fantasma: energía oscura con una ecuación de estado supernegativa, es decir, p / r <-1.
30. En junio de 2007, Paul Frampton puso un documento en la preimpresión web (Frampton 2007a) que abordaba parcialmente
el problema. Pero parece mostrar solo que un modelo cíclico genérico evita el teorema de BGV. Ese punto no estaba en
disputa. La pregunta original todavía parece persistir.
31. Los modelos de rebote fantasma funcionan bajo el supuesto de que la ecuación de Friedmann estándar ya no es válida para
las condiciones del universo donde la densidad de energía fantasma está cerca de un valor crítico.
32. Aquí τ indica periodicidad; indica en qué ciclo se encuentra actualmente el universo.
33. (Frampton y Takahashi 2003) y (Frampton y Takahashi 2004)
34. En un "Big Rip", la tasa de expansión del universo se vuelve infinita y conduce a una futura singularidad.
35. Banks se queja: “Tengo un problema con TODAS las cosmologías cíclicas. . . . La fase de colapso de estos modelos siempre
tiene un hamiltoniano dependiente del tiempo para las fluctuaciones del campo cuántico alrededor del fondo clásico.
Además, los trasfondos clásicos se están volviendo singulares. Esto significa que las teorías de campo se excitarán a estados
de energía cada vez más altos (defina la energía de alguna manera adiabática durante la era en la que la cosmología todavía
varía bastante lentamente, y use esto para clasificar los estados, aunque no se conserve). Los estados de alta energía en la
teoría de campos tienen la propiedad ergódica: se termalizan rápidamente, en el sentido de que el sistema explora todos sus
estados. Willy Fischler y yo propusimos que en esta situación tenderías de nuevo a maximizar la entropía. llamó a esto Black
Crunch y sugirió que la ecuación de estado de la materia tendería nuevamente hacia p = ρ. Parece tonto imaginar que, incluso
si a esto le sigue una re-expansión, que uno comenzaría esa expansión con un estado inicial de baja entropía, o que uno
tuviera algún control sobre el estado inicial ”(Comunicación privada, 12 de octubre , 2007).
36. Observamos que Xin Zhang tiene su propio modelo cíclico competitivo, en el que admite que las fluctuaciones térmicas
plantean un problema grave para las cosmologías de rebote fantasma (Zhang, Zhang y Liu 2007): “Es de destacar que el
universo cíclico discutido en este artículo es un caso ideal, y todavía existen varios obstáculos severos en la cosmología
cíclica, como el crecimiento de la fluctuación de la densidad en la fase de contracción, la formación de agujeros negros y el
aumento de entropía, que pueden obstruir la realización de una cosmología verdaderamente cíclica ”(énfasis agregado ).
37. Alan Guth, discurso ante el Instituto Kavli de Física Teórica, octubre de 2003, Web:
http://online.kitp.ucsb.edu/online/strings_c03/guth/
38. Nesvizhevsky et al (2001), ver http://www.newscientist.com/article.ns?id=dn1801 297, o
http://physicsworld.com/cws/article/news/3525. El experimento se realizó rebotando neutrones superfríos y notando que
se cuantificó la altura del rebote.
39. ¿O es Scientific American quien ha insertado la interpretación realista?
40. “El supuesto escenario 'pre-big bang' descrito en este informe debe verse en la perspectiva anterior como un posible
ejemplo, incluso como un modelo de juguete de cómo puede verse la cosmología si asumimos que el modelo estándar
buscado de la gravedad y la cosmología se basa en (alguna versión particular de) la teoría de supercuerdas ”(Veneziano y
Gasperini 2002, p. 4).
41. "WDW" se refiere a la ecuación de Wheeler-DeWitt, que es la base de las cosmologías semiclásicas que se discutirán en la
sección IVc.
42. Si el estado "A" es irreal, entonces no tiene lugar ninguna transición, sino más bien un "surgimiento" absoluto del estado
"B". Según esta interpretación, el universo comenzó a existir.
44. Para aclarar, un universo de Milne es un estado especial donde el parámetro de densidad crítica es exactamente igual a cero;
el universo está vacío. Recuerde que el parámetro de densidad crítica determina si una cosmología de Friedmann-Robertson-
Walker tendrá una geometría cerrada, plana o abierta. Está cerrado si <1, plano si = 1 y abierto si> 1. Si la constante
cosmológica es cero, entonces un universo cerrado volverá a colapsar y un universo plano o abierto se expandirá
constantemente.
44. Vaas elabora: “Un problema relacionado se refiere al modelo anterior al Big Bang (Veneziano & Gasperini 2003). Aquí, el
vacío de la cuerda, donde un colapso local en el marco de Einstein (que corresponde a una inflación impulsada por dilatón
en el marco de la cuerda) antes de que ocurra el big bang, es bastante simple, homogéneo, casi vacío y no tiene una flecha
general de tiempo. Pero, matemáticamente, el origen del pre-big bang, o, para ser más precisos, cualquier pre-big bang, ya
que el modelo también implica un escenario multiverso, se remonta a una condición estática y extremadamente simple solo
en el pasado infinito. (principio de trivialidad pasada asintótica). Pero esto también puede interpretarse como un predecesor
local de un big bang y no como una característica que caracteriza al vacío de cuerdas infinitas en su conjunto ”(Vaas 2004,
págs. 18-19).
45. El sitio de Internet del cosmólogo Paul Steinhardt; Sección de preguntas frecuentes para el modelo
Ekpyrotichttp://wwwphy.princeton.edu/~steinh/cyclicFAQS/index.html#eternal
46. Recuerde que la ecuación de estado es negativa (para una presión constante cosmológica = menos densidad) para un modelo
inflacionario típico. Para Ekpyrosis, la singularidad de colisión ocurre en la dimensión de "masa" entre las dos branas; no
dentro de la brana en la que nosotros mismos viviríamos.
47. Rüdiger Vaas ha sugerido que, si bien el ciclo en el modelo Ekpyrotic tuvo un origen, los componentes de la brana en sí
mismos podrían ser eternos en el pasado. Sin embargo, como hemos visto, es necesaria una explicación de cómo llegaron a
su estado inicial no cíclico en un tiempo finito al pasado. Vaas no proporciona uno (Vaas 2004, p. 17).
48. Este es el mismo tipo de caos que Ellis mencionó como un obstáculo para los modelos de contracción infinita en la sección
IIIa y está relacionado con el problema mencionado por Banks para los modelos oscilantes (sección IIIb).
49. Penrose considera que hay 1080 bariones en el universo observable. Luego sugiere que la máxima entropía del universo es
equivalente a un agujero negro con esta masa. Si el destino del universo fuera finalmente colapsar en un "Big Crunch", esta
sería la entropía aportada por estos 1080 bariones. Penrose utiliza la fórmula de Hawking-Bekenstein para la entropía de un
agujero negro, y en unidades naturales (donde constantes de la naturaleza como la velocidad de la luz se establecen en la
unidad), encuentra que esta entropía es aproximadamente 10123. La entropía de nuestro universo en el día actual es mucho
más bajo que esto, en aproximadamente 22 órdenes de magnitud.
50. Tenga en cuenta que los términos singularidad "inicial" y singularidad "final" se refieren a los estados que comienzan y
terminan nuestro ciclo cosmológico actual. Bojowald y col. no se refieren al principio y al final de los tiempos.
51. La entropía está relacionada con el número de posibles configuraciones de un sistema de partículas. El número de
configuraciones es aproximadamente igual al exponencial de la entropía. Dado el tamaño de los números involucrados,
esencialmente no hay diferencia entre ex y 10x. Entonces, Penrose usa la base 10 por conveniencia.
52. Según la NASA, http://map.gsfc.nasa.gov/m_mm/mr_limits.html, sus datos actuales tienden a favorecer la teoría de la
constante cosmológica para la energía oscura en contraposición a la quintaesencia, aunque esta última no se descarta.
53. Barrow y Dabrowski indican que si la energía oscura fuera del tipo que se desintegra en materia y radiación; es decir, si es
impermanente, el ciclo volverá a comenzar después de la descomposición.
54. Observamos que existen otros modelos LQG que presentan pseudo-comienzos de tipo Vaas y nos parecen viables.
55. Uno recuerda, por supuesto, excepciones como los modelos asintóticamente estáticos y la objeción de Linde de que el
comportamiento del todo puede no ser el mismo que sus partes.
56. Suponiendo, por supuesto, que los problemas de las cosmologías cíclicas (acumulación de entropía, física de rebote, etc.)
fueran solucionables.
57. Nótese que en el comentario de Vilenkin (nota), indica que la geometría de su modelo puede entenderse en términos de una
métrica euclidiana inicial (que representaría la región "prohibida" del diagrama de energía (figura 1.20).
58. Las condiciones cuarta y quinta, es decir, la satisfacción de una condición energética genérica y la existencia de una
superficie cerrada y atrapada en nuestro pasado, se cumplen fácilmente.
59. Es decir, a excepción de la energía fantasma de entropía cero.
60. En interés de la economía, no hemos discutido los intentos anteriores de postular un estatus regional e inmanente para el
Big Bang que deja el origen del espacio inicial en cuestión. Parecería que este espacio no puede contraerse, expandirse o
permanecer estático sin violar los criterios antes mencionados (teoremas de singularidad, rebotes caóticos, comienzos
metaestables, etc.). Por tanto, estos modelos resultaron insostenibles.
61. Esto no agota la lista de posibles formulaciones de modelos. Es probable que los diferentes tipos de modelos de mosaico
sean lo próximo que se derrumbe. Tampoco examinamos todos los modelos que existen en el presente (ni podríamos
hacerlo). También está la queja del filósofo James Brian Pitts: "¿Qué derechos poseen las teorías no nacidas?"
Referencias
Aguirre, A. y Gratton, S. (2002), “Inflación eterna en estado estacionario”, en Phys. Rev. D65, 083507,
preimpresión:http://arxiv.org/abs/astro-ph/0111191.
Ashtekar, Abhay, Pawlowski, Tomasz y Singh, Parampreet (2006), "Naturaleza cuántica del Big Bang", en Phys. Rev. D 74,
084003, Preimpresión:http://arxiv.org/abs/gr-qc/0602086v2.
Banks, T. y Fischler, W. (2002), "Black Crunch", http://arxiv.org/abs/hep-th/0212113v1
Barrow, John D. y Tipler, Frank (1986), El principio cosmológico antrópico. Oxford: Clarendon Press.
Barrow, John y Dabrowski, Mariusz (1995), "Oscillating Universes", en Mon. No. R. Astron. Soc. 275, 850–862.
Barrow, John D. (2005), The Infinite Book, Nueva York: Pantheon Books.
Baum, Lauris y Frampton, Paul H. (2006), "Deflation at Turnaround for Oscillatory Cosmology", http://arxiv.org/abs/astro-
ph/0608138.
Baum, Lauris y Frampton, Paul H. (2007), “Cambio en cosmología cíclica”, en Phy. Rev. Lett. 98, 071301, página 1,
preimpresión:http://arxiv.org/abs/hep-th/0610213.
Belinsky, VA, Khalatnikov, IM y Lifshitz, EM (1970), "Enfoque oscilatorio a un punto singular en la cosmología relativista", en Adv.
Phys. 19, 525.
Bojowald, Martin, Date, Ghanashyam y Hossain, Golam Mortuza (2004), “El modelo Bianchi IX en Cosmología cuántica de bucles”,
en Clase. Quant. Grav. 21, 3541, preimpresión:http://arxiv.org/abs/gr-qc/0404039.
Bojowald, Martin (2005), “Preguntas originales”, NATURE Vol 436 18 de agosto de 2005, pág. 920–921.
Borde, A., Guth, A., Vilenkin, A. (2003), “Los espaciotiempos inflacionarios no son pasados completos”, en Physical Review
Letters, vol. 90, pág. 151301, archivo de preimpresión:http://arxiv.org/abs/gr-qc/0110012.
Bousso, Raphael y Freivogel, Ben (2007), "Una paradoja en la descripción global del multiverso", en Journal of High Energy
Physics, Número 06, Preprint: http://arxiv.org/PS_cache/hep-th/pdf/0610/0610132v2.pdf.
Coule, DH (2005), “Modelos cosmológicos cuánticos”, en Class.Quant.Grav. 22 (2005) R125–2308.
preimpresión:http://arxiv.org/abs/gr-qc/0412026v3, pág. 31.
Damour, Thibault y Henneaux, Marc (2000) "El caos en la cosmología de supercuerdas", en Phys. Rev. Lett. 85, 920-923,
preimpresión:http://aps.arxiv.org/abs/hep-th/0003139.
Davies, Paul (1978), "Singularidades del espacio-tiempo en cosmología", en El estudio del tiempo III, ed. JT Fraser (Berlín:
Springer Verlag), págs. 78-9.
Davies, Paul (1983). Dios y la nueva física. Nueva York: Simon & Schuster.
Earman, J. y Mosterin, J. (1999), "Una mirada crítica a la cosmología inflacionaria", en Philosophy of Science, pág. 66.
Eddington, AS (1948), La naturaleza del mundo físico, Nueva York: Macmillan, p. 74.
Einstein, Albert (1917). “Consideraciones cosmológicas sobre la teoría general de la relatividad”, en El principio de la relatividad,
por A. Einstein, et. al., con notas de A. Sommerfeld, trad. W. Perrett y JB Jefferey (rep. Ed .: Nueva York: Dover Publications,
1952), págs. 177–188.
Ellis, GFR; Kirchner, U. y Stoeger, WR (28 de agosto de 2003). “Multiversos y cosmología física”.http: // arXiv: astro-ph /
0305292v3.
Ellis, GFR, Murugan, Jeff y Tsagas, Christos G. (2004), "El Universo Emergente: Una construcción explícita", en Clase. Quant. Grav.
27, 233, preimpresión:http://arxiv.org/abs/gr-qc/0307112.
Ellis, GFR, Maartens, Roy (2004) "El Universo Emergente: Cosmología inflacionaria sin singularidad", Clase. Quant. Grav. 21, 223,
preimpresión:http://arxiv.org/abs/gr-qc/0211082.
Feynman, Richard (1985), QED, La extraña teoría de la luz y la materia. Prensa de la Universidad de Princeton.
Frampton, PH y Takahashi, T. (2003), "El destino de la energía oscura", en Phys. Letón. B557, 135,
preimpresión:http://arxiv.org/abs/astro-ph/0211544.
Frampton, PH y Takahashi, T. (2004), "Bigger Rip with No Dark Energy", en Astropart. Phys. 22, 307,
preimpresión:http://arxiv.org/abs/astro-ph/0405333.
Frampton, Paul (2007a), "Cyclic Universe and Infinite Past", preimpresión:
http://aps.arxiv.org/PS_cache/arxiv/pdf/0705/0705.2730v2.pdf.
Frampton, Paul (2007b), “Comentario sobre '¿Pueden los agujeros negros ser rasgados por un fantasma en cosmología cíclica?'
por X. Zhang ”, preimpresión:http://arxiv.org/PS_cache/arxiv/pdf/0709/0709.1630v1.pdf.
Frege, Gottlob (1968). Los fundamentos de la aritmética: una investigación lógico-matemática sobre el concepto de número.
Trans. JL Austin. 2da rev. ed. Evanston, Ill .: Northwestern University Press.
Friedman, Michael (1973). "Grünbaum sobre la convencionalidad de la geometría". En Espacio, tiempo y geometría, págs. 217–
33. Ed. Patrick Suppes. Biblioteca de síntesis. Dordrecht: D. Reidel.
Friedmann, Alexander (1922), “Über die Krümmung des Raumes”, Zeitschrift für Physik 10 (1922): 377–86; G. Lemaître, “Un
univers homogène de masse constante et de rayon croissant, rendant compte de la vitesse radiale des nébuleuses
extragalactiques”, Annales de la Société scientifique de Bruxelles 47 (1927): 49–59.
Gott III, J. Richard, Gunn, James E., Schramm, David N. y Tinsley, Beatrice M., "Will the Universe Expand Forever?" Scientific
American [marzo de 1976], 65).
Gott III, J. Richard y Li-Xin, Li (1998). "¿Puede el universo crearse a sí mismo?" Revisión física D 58 (2): 023501–1.
Greene, Brian (2004), La tela del cosmos, Editorial: Alfred A. Knopf.
Guth, Alan H. (1981), “Universo inflacionario: una posible solución a los problemas de horizonte y planitud”, en Physical Review
D, Volumen 23, Número 2, 15 de enero.
Hawking, Stephen y Penrose, Roger (1970), "Las singularidades del colapso gravitacional y la cosmología", en Proceedings of the
Royal Society of London, serie A, 314, pág. 529–548.
Hawking, Stephen y Hartle, James (1983), "La función de onda del universo", en Physical Review D, Volumen 28, Número 12, 15
de diciembre, 2960–75.
Hawking, Stephen (1988), Una breve historia del tiempo, Bantam Books, pág. 141.
Hawking, Stephen (1992), "La conjetura de protección cronológica", en Phys. Rev., D46, 603–611.
Hawking, Stephen y Penrose, Roger (1996), La naturaleza del espacio y el tiempo, Princeton University Press.
Hawthorne, Jonathan. 2000. “Efecto anterior y causalidad de Zenón”. Noûs 34: 622–33.
Hiscock, William A. (2000), “Protección de campos cuantificados y cronología”, preimpresión: http://arxiv.org/abs/gr-
qc/0009061v2, pág. 3.
Hubble, Edwin (1929), "Una relación entre la distancia y la velocidad radial entre nebulosas extragalácticas", Actas de la
Academia Nacional de Ciencias 15 (1929): 168–73.
Linde, Andrei (1998), “El universo inflacionario que se reproduce a sí mismo”, pág. 103 de The Magnificent Cosmos, edición
especial de Scientific American, mayo.
Linde, Andrei (2005), “Inflación y cosmología de cuerdas”, J.Phys.Conf.Ser. 24151–160,
preimpresión:http://arxiv.org/PS_cache/hep-th/pdf/0503/0503195v1.pdf.
Naber, Gregory L. (1988), Espacio-tiempo y singularidades: una introducción. Cambridge: Cambridge University Press, 1988,
págs. 126–27.
Nerlich, Graham (1976). La forma del espacio. Cambridge: Cambridge University Press.
Nesvizhevsky et al (2001), “Estados cuánticos de neutrones en el campo gravitacional de la Tierra” Nature 415, pág. 297.
Overbye, Dennis (2006), “Reported 'Dark Energy' de 9 mil millones de años”, en The New York Times (17 de noviembre).
http://www.nytimes.com/2006/11/17/science/space/17dark.html.
Pagels, Heinz (1985), Perfect Symmetry: The Search for the Beginning of Time, Nueva York: Simon & Schuster, pág. 347.
Penrose, Roger (2005), The Road to Reality, Nueva York: Alfred A. Knopf.
Poincaré, Henri (1982). Ciencia e hipótesis. En Los fundamentos de la ciencia, de Henri Poincaré. Repr. ed. Washington, DC:
University Press of America.
Quinn, Phillip L. (1976). "Métricas intrínsecas en colectores espaciales continuos". Filosofía de la ciencia 43: 396–414.
Reichenbach, Hans (1958). La filosofía del espacio y el tiempo. Trans. Maria Reichenbach y John Freund. Nueva York: Dover.
Russell, Bertrand (1937). Los principios de las matemáticas. 2ª ed. Londres: George Allen y Unwin.
Señor, Thomas D. (1993). "Temporalidad Divina y Creación ex nihilo". Fe y filosofía 10: 86–92.
Smith, Quentin (2007). "Argumentos cosmológicos de Kalam a favor del ateísmo". En The Cambridge Companion to Atheism,
págs. 182–98. Ed. M. Martin. Compañeros de Cambridge a la filosofía. Prensa de la Universidad de Cambridge.
Steinhardt, Paul y Turok, Neil (2005). “El modelo cíclico simplificado”, en New Astron.Rev. 49, pág. 43–57,
preimpresión:http://arxiv.org/abs/astro-ph/0404480
Thorne, Kip (1994) Agujeros negros y deformaciones del tiempo, WW Norton & Co., pág. 505–506
Vaas, Rüdiger (2004). “Tiempo antes del tiempo: clasificaciones de universos en la cosmología contemporánea y cómo evitar la
antinomia del comienzo y la eternidad del mundo”. En conocimiento y creencia. Artículos del 26º Simposio Internacional de
Wittgenstein. Löffler, W., Weingartner, P. (eds.): Sociedad austriaca Ludwig Wittgenstein: Kirchberg am Wechsel, págs. 351–
353 preimpresión: <http://arXiv.org/abs/physics/0408111>.
Veneziano, Gabriele (1998), "Una introducción breve / simple a la física / cosmología anterior al Big-Bang", preimpresión:
http://arxiv.org/abs/hep-th/9802057.
Veneziano, Gabriele (2004), “El mito del comienzo de los tiempos”, Mayo Scientific American, pág. 63.
Veneziano Gabriele y Gasperini, Maurizio (2002), “El escenario anterior al Big Bang en cosmología de cuerdas”, Phys. Rep.373, 1,
preimpresión:http://arxiv.org/abs/hep-th/0207130.
Vilenkin, Alexander (1982), "Creación de universos de la nada", en Phys. Letón. B117, 25.
Vilenkin, Alexander (1994), "Aproximaciones a la cosmología cuántica", en Phys. Rev. D 50, 2581-2594,
preimpresión:http://lanl.arxiv.org/abs/gr-qc/9403010v1.
Vilenkin, Alexander (2002), "Cosmología cuántica e inflación eterna", en The Future of Theoretical Physics and Cosmology, actas
de la conferencia en honor al 60 cumpleaños de Stephen Hawking, preimpresión: http://arxiv.org/abs/gr-qc/0204061.
Vilenkin, Alexander (2006), Many Worlds in One, Autor: Alexander Vilenkin, Editor: Hill & Wang.
Wald, Robert M. (1984). Relatividad general, Editorial: The University of Chicago Press, pág. 215-16.
Zhang, Jinfei, Zhang, Xin, Liu, Hongya (2007) "Energía oscura holográfica en un universo cíclico", Autores :. EUR. Phys. J. C 52
(2007) 693–699 Preimpresión:http://arxiv.org/PS_cache/arxiv/pdf/0708/0708.3121v2.pdf.
Zhang, Xin (2007a), "¿Pueden los agujeros negros ser destruidos por fantasmas en cosmología cíclica?"
http://arxiv.org/PS_cache/arxiv/pdf/0708/0708.1408v1.pdf.
Zhang, Xin (2007b), "Comentario sobre" Cambio en cosmología cíclica "por Paul Frampton y Lauris Baum", preimpresión:
http://arxiv.org/abs/0711.0667v1.
2
Por qué la singularidad del Big Bang no ayuda al
argumento cosmológico de Kalām a favor del teísmo
J. Brian Pitts
1. Introducción
El estatus epistémico de la creencia teísta sigue siendo de interés. Dado que el clima intelectual
occidental moderno es escéptico sobre la revelación divina y lo sobrenatural en general, los
teístas parecen estar bien servidos si se dispone de buenos argumentos teístas de la filosofía
natural. Uno de los argumentos teístas más populares, dada la ciencia actual y especialmente el
éxito de la Teoría de la Relatividad General de Einstein (GTR) aplicada a la cosmología, emplea
la singularidad del Big Bang para mostrar que el universo comenzó a existir. Esta estrategia
apologética teísta a menudo procede de manera informal, pero a veces mediante el uso explícito
del argumento cosmológico formal de Kalām. Cualesquiera que sean los detalles, este tipo de
argumento se ha recomendado a no pocos físicos de renombre (como se discute en Jaki [1980])
y otros científicos y filósofos, así como al menos a un Papa, Pius XII (Pius XII [1952]; McMullin
[1981a]). En la década de 1960, Engelbert Schücking anunció que "aunque algunos cosmólogos
podrían todavía proyectar inconscientemente cuadros teológicos en su ciencia, hemos sido
capaces de asustar a la mayoría de los ministros y sacarlos de la cosmología mediante una
sencilla aplicación del cálculo tensorial" (Schücking [1967 ], pág.218). A pesar de Schücking, se
siguen realizando esfuerzos significativos y visibles para apoyar el teísmo a través de la
singularidad del Big Bang. Los respaldos recientes incluyen al experto en genoma humano
Francis Collins (Collins [2007], págs. 64-7) y al nuevo deísta Antony Flew (Flew y Varghese
[2007], págs. 135-8). Evidentemente, algunos otros ateos además de Flew han estado de acuerdo
en que la cosmología del Big Bang apoya el teísmo y, por lo tanto, han dudado de la cosmología
del Big Bang: Engelbert Schücking anunció que "aunque algunos cosmólogos todavía podrían
proyectar inconscientemente cuadros teológicos en su ciencia, hemos sido capaces de asustar a
la mayoría de los ministros y sacarlos de la cosmología mediante una sencilla aplicación del
cálculo tensorial" (Schücking [1967], p. 218). A pesar de Schücking, se siguen realizando
esfuerzos significativos y visibles para apoyar el teísmo a través de la singularidad del Big Bang.
Los respaldos recientes incluyen al experto en genoma humano Francis Collins (Collins [2007],
págs. 64-7) y al nuevo deísta Antony Flew (Flew y Varghese [2007], págs. 135-8). Evidentemente,
algunos otros ateos además de Flew han estado de acuerdo en que la cosmología del Big Bang
apoya el teísmo y, por lo tanto, han dudado de la cosmología del Big Bang: Engelbert Schücking
anunció que "aunque algunos cosmólogos todavía podrían proyectar inconscientemente cuadros
teológicos en su ciencia, hemos sido capaces de asustar a la mayoría de los ministros y sacarlos
de la cosmología mediante una sencilla aplicación del cálculo tensorial" (Schücking [1967], p.
218). A pesar de Schücking, se siguen realizando esfuerzos significativos y visibles para apoyar
el teísmo a través de la singularidad del Big Bang. Los respaldos recientes incluyen al experto en
genoma humano Francis Collins (Collins [2007], págs. 64-7) y al nuevo deísta Antony Flew (Flew
y Varghese [2007], págs. 135-8). Evidentemente, algunos otros ateos además de Flew han estado
de acuerdo en que la cosmología del Big Bang apoya el teísmo, y por eso han dudado de la
cosmología del Big Bang: hemos podido asustar a la mayoría de los ministros y sacarlos de la
cosmología mediante una sencilla aplicación del cálculo tensorial »(Schücking [1967], p. 218). A
pesar de Schücking, se siguen realizando esfuerzos significativos y visibles para apoyar el teísmo
a través de la singularidad del Big Bang. Los respaldos recientes incluyen al experto en genoma
humano Francis Collins (Collins [2007], págs. 64-7) y al nuevo deísta Antony Flew (Flew y
Varghese [2007], págs. 135-8). Evidentemente, algunos otros ateos además de Flew han estado
de acuerdo en que la cosmología del Big Bang apoya el teísmo y, por lo tanto, han dudado de la
cosmología del Big Bang: hemos podido asustar a la mayoría de los ministros y sacarlos de la
cosmología mediante una sencilla aplicación del cálculo tensorial »(Schücking [1967], p. 218). A
pesar de Schücking, se siguen realizando esfuerzos significativos y visibles para apoyar el teísmo
a través de la singularidad del Big Bang. Los respaldos recientes incluyen al experto en genoma
humano Francis Collins (Collins [2007], págs. 64-7) y al nuevo deísta Antony Flew (Flew y
Varghese [2007], págs. 135-8). Evidentemente, algunos otros ateos además de Flew han estado
de acuerdo en que la cosmología del Big Bang apoya el teísmo y, por lo tanto, han dudado de la
cosmología del Big Bang: Los respaldos recientes incluyen al experto en genoma humano Francis
Collins (Collins [2007], págs. 64-7) y al nuevo deísta Antony Flew (Flew y Varghese [2007], págs.
135-8). Evidentemente, algunos otros ateos además de Flew han estado de acuerdo en que la
cosmología del Big Bang apoya el teísmo, y por eso han dudado de la cosmología del Big Bang:
Los respaldos recientes incluyen al experto en genoma humano Francis Collins (Collins [2007],
págs. 64-7) y al nuevo deísta Antony Flew (Flew y Varghese [2007], págs. 135-8). Evidentemente,
algunos otros ateos además de Flew han estado de acuerdo en que la cosmología del Big Bang
apoya el teísmo y, por lo tanto, han dudado de la cosmología del Big Bang:
Quizás el mejor argumento a favor de la tesis de que el Big Bang apoya el teísmo es el evidente
malestar con el que algunos físicos ateos lo saludan. A veces, esto ha dado lugar a ideas
científicas. . . avanzando con una tenacidad que excede tanto su valor intrínseco que sólo se
puede sospechar que la operación de fuerzas psicológicas es mucho más profunda que el
deseo académico habitual de un teórico de apoyar su teoría. (Isham [1997], pág. 378).
Si bien algunos teístas y algunos ateos sostienen que la singularidad apoya al teísmo, tanto los
ateos como los teístas (Drees [1990]; Küng [2007]) también han criticado el argumento. Sin
embargo, los críticos ateos mezclan no pocas veces con sus puntos buenos varios movimientos
inútiles, como negar ex nihilo, nihil fit y, por lo tanto, quizás ceder el terreno racional, introducir
premisas que al apologista teísta le parecen una mendicidad de preguntas, o escribir en un tono
que sugiere que El rechazo de la conclusión teísta juega un papel indebido en la motivación del
rechazo del argumento. Se podrían hacer comentarios comparables sobre algunas críticas
hechas por algunos teístas liberales: su hostilidad a priori hacia la acción divina especial o
detectable en el mundo podría dar la impresión de parcialidad en contra de argumentar desde la
singularidad al teísmo,
A juzgar por la falta de progreso en parte de la literatura, el resultado es un punto muerto
(Craig y Smith [1993]; Redhead [1996]). Quentin Smith, quien ha jugado un papel en la crítica
del argumento de la singularidad a favor del teísmo, tiene una evaluación diferente pero también
negativa de la respuesta general al argumento teísta de la singularidad del Big Bang. Smith
([1992]) sostuvo: 'La respuesta de ateos y agnósticos. . . ha sido comparativamente débil, de
hecho, casi invisible ”.
Por lo tanto, creo que hay espacio para una crítica del argumento de la singularidad del Big
Bang al teísmo que se esfuerza por convencer incluso a los defensores del argumento de la
singularidad del Big Bang, no solo a los indiferentes y a los que ya se oponen. Si un argumento es
malo, es valioso mostrar su maldad incluso a sus proponentes, si es posible. Tal crítica requerirá
una breve discusión de la doctrina de la creación. También implicará algunas concesiones al
apologista teísta del Big Bang que de otro modo podrían parecer demasiado generosas; tales
concesiones harán evidente cuán débiles y poco ambiguas son las premisas utilizadas en la
crítica. El trabajo tendrá un poco del sabor de un artículo de revisión.
La crítica que se presenta aquí también tiene algunos elementos novedosos, que deberían ser
de interés directo para los no teístas y también para los amantes de la cerca. Uno de estos
elementos es una estrategia de reductio ad absurdum que lleva a la conclusión de que la
singularidad del Big Bang implica un Creador divino solo si el colapso gravitacional estelar en un
agujero negro implica un Destructor teísta. Aparte de algunas diferencias que en última instancia
no importan, los escenarios son los mismos. Una segunda novedad es el fortalecimiento de las
preocupaciones por la convencionalidad apelando a teorías de la gravedad distintas de la GTR.
La teoría de la gravedad de Bach-Weyl muestra que una teoría física ni siquiera necesita definir
la longitud de una curva. En las teorías del tensor escalar u otras teorías con múltiples métricas,
la edad puede ser radicalmente ambigua. Por lo tanto, sólo una noción topológica de "comienzo"
en términos de un primer momento está disponible si el argumento de Kalām tiene la intención
de producir una verdad necesaria necesariamente no vacía. Pero un primer momento es fácil de
evitar, como se verá a continuación. También sugeriré que algunas críticas leibnizianas del
argumento del Big Bang al teísmo son menos persuasivas de lo que a menudo se cree.
Debe enfatizarse que el punto en cuestión no es principalmente la solidez del argumento
cosmológico de Kalām, sino más bien su efectividad dialéctica. Un teísta podría pensar que el
argumento de Kalām es sólido y aceptar la crítica hecha aquí, al sostener que la premisa
controvertida clave del argumento de Kalām debe aceptarse no sobre la base de la cosmología
del Big Bang, sino solo sobre la base de la revelación divina. que podría o no tomar la forma de
algún tipo de argumento. Hoy en día, los teístas argumentan cada vez más que la creencia en Dios
puede estar justificada incluso en ausencia de argumentos (Plantinga [2000]), más o menos
porque Dios ha diseñado la mente humana de tal manera que cuando funciona correctamente en
ciertos contextos, crea una creencia en Dios. Tal formación de creencias (indirectamente)
causada por Dios es un proceso adecuadamente confiable para producir conocimiento, no solo
la verdadera creencia por un feliz accidente. Por lo tanto, afirma Plantinga, la creencia teísta bien
podría estar justificada si es cierta; no se puede demostrar que el teísmo no se puede conocer
aparte de demostrar que es falso (Plantinga [2000]). Claramente, esta epistemología reformada
es una forma de externalismo —la visión epistemológica de que la evidencia, garantía o
justificación de una creencia que cuenta como conocimiento no necesita estar disponible para el
conocedor— en contraste con el internalismo dominante en la tradición de Descartes y Locke.
Cualquiera que sea el valor de la epistemología reformada, el significado de su rebelión parcial
contra las medidas anti-entusiastas de Locke (Mavrodes [1989]), o las complejidades del debate
de los epistemólogos sobre el internalismo versus el externalismo, la tarea en este artículo es la
evaluación de un argumento teísta. de tipo osmológico, tanto en el sentido de la «cosmología»
del filósofo como del físico. El debate medieval sobre la doctrina de Aristóteles de la eternidad
del mundo proporciona un precedente muy útil.
Parece que un primer momento transmite tres ventajas de una doctrina de la creación sobre la
mera edad finita.
Primero, es más obvio que un universo finitamente viejo con un primer momento requiere una
causa externa que un universo finitamente viejo en el que cada momento está precedido por uno
anterior. En el último caso, uno podría tener la tentación de pensar que el presente se explica
completamente por el pasado dentro de la historia del universo, por lo que no se requiere nada
externo (Grünbaum [198 9]; Earman [1995]; Smith [2000]).
En segundo lugar, tener un primer momento es una noción topológica, no métrica, por lo que
escapa a las preocupaciones de convencionalidad (Misner [1969]; Agnese y Wataghin [1971];
McMullin [1981a]; Grünbaum [1989]; Levy-Leblond [1990] ) sobre la remetrización temporal de
un pasado finito a uno infinito. Las preguntas convencionales sobre la importancia de la
diferencia entre lo finito y lo infinito parecen deberse a EA Milne (Kragh [2004], p. 209; McMullin
[1981a]). La convencionalidad se convierte en una preocupación especialmente seria en las
teorías físicas que contienen múltiples métricas. Las teorías del tensor escalar son quizás el lugar
más conocido para la pregunta "¿Qué métrica es la métrica física?" (Magnano y Sokolowski
[1994]; Weinstein [1996]; Kaloper y Olive [1998]; Santiago y Silbergleit [2000]). Si bien esta
pregunta parece no necesitar una respuesta para la mayoría de los propósitos (como los que
involucran solo las ecuaciones de campo), las preguntas sobre singularidades, condiciones de
contorno, energía positiva y cuantificación le dan a esa pregunta un poco más de urgencia
(Kaloper y Olive [1998]; Santiago y Silbergleit [2000]; Faraoni y Nadeau [2007]; Catena et al.
[2007]; Sotiriou et al. [2008]). Las teorías con múltiples métricas pueden tener diferentes tipos
de materia que se acoplan a la gravedad de diferentes maneras; entonces tal vez una métrica
podría producir una edad finita, pero otra edad infinita, en cuyo caso parece no haber respuesta
a la pregunta '¿cuántos años tiene el universo?', incluso si las opciones disponibles son
meramente 'finitas' e 'infinitas' . Resulta que el universo real probablemente no se comporta de
acuerdo con una teoría del tensor escalar, dada la confirmación empírica de los diversos
principios de equivalencia en la gravedad (Will [1993]), que dificultan que las teorías
empíricamente distinguibles de la GTR en campos gravitacionales débiles o moderados sean
empíricamente viables. Pero una doctrina de la creación necesita ser lo suficientemente rica en
modalidades para acomodar la posibilidad de que Dios cree mundos con leyes físicas sin una
estructura métrica única o preferida para autorizar una respuesta de edad 'finita' o 'infinita'.
En tercer lugar, un primer momento, que es topológico en lugar de métrico, está bien definido
incluso en ausencia de una métrica. La gravedad conforme de Bach-Weyl (Fiedler y Schimming
[1980]; Schimming y Schmidt [1990]; Kazanas y Mannheim [1991]; Dzhunushaliev y Schmidt
[2000]), en ausencia de materia o con algunos tipos de materia, emplea sólo la parte conforme ĝ
μν de una métrica, un tensor de densidad con peso (en cuatro dimensiones espacio-
temporales) y determinante -1 (Anderson [1967]). Dada una métrica g μν, se puede obtener su
parte conforme usando
Copan y Craig quizás tomen su argumento de Kalām para expresar una verdad necesaria que se
aplica de manera no vacía a todas las teorías físicas posibles. Sin embargo, su criterio para un
comienzo carece de sentido para la teoría de Bach-Weyl porque "igual duración" no tiene sentido
en esa teoría. El criterio de Copán-Craig podría ser ambiguo para las teorías escalar-tensorial, lo
que también es algo preocupante. Dado que ni la existencia ni la unicidad de una métrica (para
curvas de tipo temporal) se cumplen necesariamente, el movimiento natural es adoptar una
noción de comienzo topológica en lugar de métrica. Por lo tanto, un primer momento es el punto
que debe abordarse. Sin embargo, adoptar un primer momento como criterio para un comienzo
es admitir la derrota, en lo que se refiere a argumentar desde la singularidad al teísmo, porque
los dos movimientos plausibles relativos a la cosmología contemporánea (a saber, tomar el
espacio-tiempo para contener sólo puntos "después" de la singularidad o invocar alguna teoría
quizás actualmente desconocida que resuelve la singularidad, y así permite un pasado infinito)
carece de un primer momento. Dada la contingencia demostrable de la existencia y unicidad de
una métrica, y la relación contingente entre el tensor g μν y las longitudes físicas (que depende
de cómo se acopla la materia a la gravedad (Brown [2005]), no está claro por qué la edad métrica
finita es tan importante incluso para GTR.
Resulta que el Cuarto Concilio de Letrán de 1215 convirtió en una doctrina de fe, al menos para
los católicos romanos, que el mundo tuvo un comienzo temporal, e incluso escapa a la
preocupación convencionalista al postular un primer momento (McMullin [1981a], págs. 29, 54,
55) (véase Grant [1994], pág. 83; Leith [1982], pág. 57). La definición del concilio aparentemente
es de carácter topológico más que métrico, por lo que su inteligibilidad resiste los avances
matemáticos de los últimos 700 a 800 años. Independientemente de lo que se haga de la
relevancia contemporánea de los cánones del Cuarto Concilio de Letrán como liberación de la fe,
solo los católicos romanos tradicionales se sentirán obligados a aceptar las enseñanzas del
concilio, mientras que su estipulación de que los ángeles fueron creados en el mismo momento
(Leith [1982 ], pag.
Como observan McMullin y Aquino, la creación en el tiempo tiene algunas ventajas teológicas
sobre la creación eterna, incluso aparte de la adhesión a la parte relevante del relato del Génesis.
Por otro lado, la epistemología de la creación, al menos para el autor de la carta a los Hebreos en
el Nuevo Testamento, podría favorecer a Aquino más que a Buenaventura. Un pasaje clave es
Hebreos 11: 3: 'Por la fe entendemos que el universo fue creado por la palabra de Dios, de modo
que lo que se ve no fue hecho de cosas visibles' (ESV). A la luz de este pasaje (similar en otras
traducciones, aunque no en la RSV), quizás los cristianos deberían esperar que las
demostraciones filosóficas o científicas de la creación fracasen con el tiempo. En cualquier caso,
las demostraciones actuales de la singularidad del Big Bang fracasan.
[e] n las palabras de Hawking, el tiempo mismo debe tener un comienzo. [nota al pie omitida]
La prueba del comienzo de los tiempos puede ser el teorema teológicamente más significativo
de todos los tiempos, asumiendo la validez de la teoría general de la relatividad (Ross [2001],
p. 102).
Sin embargo, la condicionalización de GTR pronto desaparece con un respaldo rotundo de esa
teoría:
Hoy se puede decir que ninguna teoría de la física se ha probado jamás en tantos contextos
diferentes y tan rigurosamente como la relatividad general. El hecho de que la relatividad
general haya resistido todas estas pruebas tan notablemente implica que no queda ninguna
base para dudar de las conclusiones del teorema del espacio-tiempo (Ross [2001], p. 107).
Por el contrario, William Lane Craig argumenta con más cuidado y concluye de manera más
modesta. Craig formula el argumento cosmológico de Kalām a lo largo de estas líneas.
Este argumento es válido, al menos si no es problemático tratar el universo como una cosa, en
lugar de una colección de cosas; Supongo que aquí no hay ningún problema. La primera premisa
parece cierta (aparte de las preocupaciones sobre las partículas virtuales en la teoría cuántica de
campos, quizás), al menos en algunas lecturas de 'comienzo', incluida la que expuse
anteriormente, a saber, un primer momento, aunque ese no es el de Craig. leyendo. La verdad de
la segunda premisa, o más bien, la fuente de justificación de la segunda premisa, si es cierta, es
la cuestión clave. Muchos teístas afirmarán la segunda premisa y considerarán el argumento de
Kalām como sólido, pero ¿cuál es la razón para afirmar la segunda premisa? Claramente, uno no
persuadirá a los no teístas para que acepten el teísmo (o fortalezcan la fe del teísta con apoyo
científico), como se pretende que haga el argumento, si la justificación de la segunda premisa
proviene enteramente de una ostensible revelación divina. Si uno acepta, digamos, la Biblia como
divinamente inspirada, entonces ya ha aceptado el teísmo y mucho más.
Uno puede encontrar sentimientos similares en otros lugares con mucha facilidad entre los
trabajadores de la gravedad cuántica.
Leibniz podría o no tener derecho a su premisa de 'Dios no lo haría de esa manera'. Vivió en
una época todavía cristiana y se tomó a sí mismo para conocer muchas cosas por revelación
divina; muchos físicos contemporáneos no pueden decir lo mismo. Si uno está haciendo teología
natural en lugar de teología revelada, la premisa sobre lo que Dios haría o no haría parece difícil
de justificar. Así, Elliott Sober ha advertido recientemente contra este tipo de afirmación
teológica a priori sobre lo que Dios debería o debería hacer (Sober [2003], [2007]). Mientras que
Stephen Jay Gould parecía pensar que sabía que Dios (si hubiera existido) no habría hecho el
pulgar del panda como está, Sober niega que Gould supiera algo así sobre las disposiciones de la
deidad.
La intuición leibniziana de que el mundo no se derrumbaría después de un tiempo finito tiene
cierto atractivo para los físicos, pero la reflexión sugiere que podría ser difícil para el argumento
conseguir tracción con aquellos que aún no están dispuestos a aceptarlo, excepto quizás para los
racionalistas teístas como como Leibniz. Que esta intuición leibniziana (quizás despojada de su
justificación teísta) de hecho atraiga a los físicos puede reflejar el hecho, discutido en las teorías
de la ciencia por Thomas Kuhn, Imre Lakatos y otros (Laudan et al. [1986]), que el progreso
científico ordinario depende de una cierta fe en que las cosas van por buen camino y que el
progreso es posible; De hecho, las anomalías que podrían servir como pruebas contrarias no
suelen considerarse una amenaza para el paradigma o el núcleo duro del programa de
investigación. sino más bien como oportunidades para mostrar su excelencia, tarde o temprano,
triunfando sobre las dificultades, sin causar alarma mientras tanto. La intuición leibniziana bien
podría conducir a la verdad, pero es difícil argumentar a favor de esa conclusión. Este fenómeno
guarda cierta semejanza con el tipo de estancamiento que puede resultar en el debate entre
realismo científico y antirrealismo (Kukla [1998]). Sin embargo, el tipo de pesimismo intelectual
o empirismo fuerte que rechaza la intuición leibniziana, si se acepta, podría socavar el impulso
explicativo que motiva la aceptación de la premisa 1 del argumento de Kalām. Este fenómeno
guarda cierta semejanza con el tipo de estancamiento que puede resultar en el debate entre
realismo científico y antirrealismo (Kukla [1998]). Sin embargo, el tipo de pesimismo intelectual
o empirismo fuerte que rechaza la intuición leibniziana, si se acepta, podría socavar el impulso
explicativo que motiva la aceptación de la premisa 1 del argumento de Kalām. Este fenómeno
guarda cierta semejanza con el tipo de estancamiento que puede resultar en el debate entre
realismo científico y antirrealismo (Kukla [1998]). Sin embargo, el tipo de pesimismo intelectual
o empirismo fuerte que rechaza la intuición leibniziana, si se acepta, podría socavar el impulso
explicativo que motiva la aceptación de la premisa 1 del argumento de Kalām.
Dada esta sólida (aunque calificada) afirmación de la integridad general de los procesos
naturales, que probablemente fue compartida fuera de la tradición reformada que produjo los
estándares de Westminster, la afirmación de que Dios aniquila las estrellas colapsadas habría
parecido extraña incluso para los creyentes ortodoxos anteriores a la Ilustración (si podemos
imaginarlos informados sobre la física del siglo XX), para quienes los milagros no eran una
vergüenza. Si GTR fuera la única teoría posible para describir el gobierno divino del mundo en
asuntos gravitacionales, tal vez uno podría llegar a aceptar la conclusión de que Dios destruye
milagrosamente las estrellas colapsadas. Pero dada la subdeterminación de las teorías por los
datos y la consiguiente evitación de esa conclusión, esa inferencia parece ser una reductio ad
absurdum.
9 Apilado de la plataforma para GTR
Hay un movimiento engañosamente persuasivo realizado por los defensores del argumento del
Big Bang, apilando la baraja a favor de GTR y, por lo tanto, de la cosmología del Big Bang contra
rivales no singulares. El movimiento generalmente no se hace de manera explícita y detallada,
por lo que lo que sigue es una reconstrucción del proceso de razonamiento que subyacería a
cualquier buen argumento en las cercanías. A menudo se sugiere que los rivales potencialmente
no singulares de GTR son especulativos, mientras que GTR está bien confirmado, por lo que GTR
y su retrodicción de la singularidad del Big Bang deberían aceptarse como la visión
predeterminada que los retadores deben superar con mejores resultados empíricos. Hay una
pizca de verdad en esta afirmación: Algunas o quizás muchas de las teorías o modelos propuestos
realmente como rivales del Big Bang en la literatura más especulativa no forman parte de una
teoría bien probada que se sabe que reproduce los éxitos empíricos de GTR. Por lo tanto, algunos
de estos retadores podrían ser refutados por los datos que ya se tienen, si alguien piensa en hacer
los cálculos necesarios y aplicar los datos empíricos relevantes a los retadores. Si el conocimiento
físico de la comunidad física (o de sus miembros) se cerrara bajo una vinculación lógica, tales
aspirantes a desafiantes serían refutados incluso antes de la publicación; Por desgracia, la finitud
humana se entromete y, a veces, se necesita mucho trabajo para demostrar si una teoría es
coherente con el conocimiento empírico actual.
Sin embargo, la pizca de verdad en esta objeción a veces oculta la pizca de falsedad que también
contiene. Aunque no es del todo trivial, es posible construir teorías que reproduzcan los éxitos
empíricos de GTR en todos los regímenes probados hasta la fecha, pero que difieren en el
régimen de campo ultrafuerte relevante para la cosmología del Big Bang. Concediendo el éxito
de las pruebas de campo débil y medio de GTR que involucran flexión ligera, desplazamiento al
rojo gravitacional, retardo de tiempo y similares, ¿por qué pensar que GTR, en lugar de uno de
sus competidores (quizás aún no propuesto) que se ajuste a los datos actualmente disponibles,
Cuál es la extrapolación correcta? Por ejemplo, se sabe que las variantes masivas de GTR
(relacionadas con GTR como el electromagnetismo de Proca lo hace con el de Maxwell) están de
acuerdo con GTR solo en esos regímenes, mientras que discrepan en campos gravitacionales
fuertes (Visser [1998]; Babak y Grishchuk [2003]), incluidos los cercanos a la supuesta
singularidad cósmica. Sin embargo, la energía positiva aún no se ha probado y podría ser falsa
para variantes masivas de GTR (Boulware y Deser [1972]; Pitts y Schieve [2007]), por lo que los
apologistas de la singularidad del Big Bang todavía pueden esperar que las teorías masivas sean
viciosas. Los apologistas de (o mejor dicho, de) la singularidad necesitan esperar que una gran
cantidad de teorías epistémicamente posibles sean viciosas, de hecho, una esperanza que muy
probablemente decepcionará eventualmente, si es que aún no lo ha hecho.
La mayoría de la gente no tiene idea de lo que eso significa y, por lo tanto, no tiene idea de qué
tipo de plausibilidad asignar un orden de factor particular de la restricción hamiltoniana. Si
algunos de ellos creyeron en Dios debido al argumento de la singularidad del Big Bang, ¿deben
ahora ser capaces de refutar la elección de Bojowald de ordenar los factores para mantener esa
creencia de manera racional? Incluso si el argumento de la singularidad no pudiera refutarse de
manera decisiva, ¿podría establecer el teísmo en un grado significativo para cualquier persona
además de las pocas docenas de personas expertas en el ordenamiento de factores en la gravedad
cuántica? No está claro cómo. ¿Podrían incluso los juicios de los expertos permanecer
racionalmente lo suficientemente estables como para servir bien a la fe religiosa? Probablemente
no. Pero quizás la elección del orden de los factores no sea tan importante después de todo (Date
y Hossain [2005]); continúan las fluctuaciones basadas en premisas técnicas detalladas.4Si el
argumento de la singularidad a favor del teísmo proporciona alguna garantía para el teísmo, esa
garantía fluctúa enormemente para los expertos y no puede ser evaluada por los laicos.
Quizás ni el argumento de la singularidad ni ningún otro argumento sea la base de la fe
religiosa. Craig se aferra a algo parecido a la epistemología reformada (correspondencia privada
y Cowan et al. [2000]). Por lo tanto, el creyente religioso no necesita leer y comprender todos los
artículos relevantes en Physical Review D para mantener la creencia teísta de manera racional.
Quizás esta sea la forma correcta de entender la justificación de la creencia teísta. Pero si el
objetivo de hacer el argumento de la singularidad es proporcionar un argumento que
racionalmente debería persuadir a algunas personas del teísmo, entonces la epistemología
reformada es simplemente irrelevante para la tarea en cuestión. El carácter fluctuante (para los
expertos) o inaccesible (para los no expertos) de tal garantía (si la hubiera) como un argumento
de la singularidad al teísmo puede proporcionar,
Ni la cosmología del Big Bang ni alguna cosmología del mundo eterno tienen un comienzo en el
sentido relevante de un primer momento. Aquellos que estén dispuestos a insistir en un primer
momento real del (espacio) tiempo, quizás de acuerdo con el Cuarto Concilio de Letrán, tienen la
opción de cortar el borde frontal del modelo espacio-tiempo en alguna parte, ya sea en la
cosmología del Big Bang o en alguna cosmología del mundo eterno, en un ejercicio de
antirrealismo científico selectivo. (Tal borde frontal presumiblemente sería una superficie de
Cauchy, en todas partes similar al espacio, pero tal vez casi nula en algunos lugares si se desea.
Sin embargo, la cuestión de dónde cortar es irritante). Junto con CJS Clarke (Clarke [1993],
págs.8, 9), Earman critica implícitamente tal propuesta:
Las consideraciones metafísicas sugieren que para ser un candidato serio para describir la
actualidad, un espacio-tiempo debería ser máximo. Por ejemplo, que la Fuerza Creativa
actualice una subparte adecuada de un espacio-tiempo mayor parecería ser una violación de
los principios de razón y plenitud suficientes de Leibniz. Si uno adopta la imagen del espacio-
tiempo como generado o construido a medida que pasa el tiempo, entonces la versión
dinámica del principio de razón suficiente preguntaría por qué la Fuerza Creativa dejaría de
construirse si es posible continuar (Earman [1995], p. 32 ).
Por otra parte, el propio Leibniz sostenía (dejando de lado el anacronismo) que el espacio-
tiempo es máximo hacia el futuro, pero no es máximo hacia el pasado (Alexander [1956], p. 76).
Dios pudo haber creado el mundo de tal manera que eventos cualitativamente idénticos a los del
primer momento del mundo real hubieran sido precedidos por eventos anteriores. Pero si tal
aumento es razonable y agradable a la sabiduría de Dios, es otra cuestión a la que respondemos
negativamente; de lo contrario, Dios habría hecho tal aumento ”(Alexander [1956], p. 76).
Leibniz continúa citando a Horace acerca de unir a una cabeza humana el cuello de un caballo,
una analogía encantadora, pero no muy útil filosóficamente. Quizás la eficiencia juega un papel
aquí en la justificación de la no máximaidad hacia el pasado, o quizás la asimetría causal o el flujo
del tiempo es relevante. En todo caso,
Dadas las muchas dificultades involucradas en argumentar desde la cosmología del Big Bang
hasta la creación en el tiempo, es alentador tanto para los teístas como para los no teístas que el
Papa Juan Pablo II haya sugerido precaución en el uso apologético de la cosmología del Big Bang:
. . . algunos teólogos, al menos, deberían estar suficientemente versados en las ciencias para
hacer un uso auténtico y creativo de los recursos que las teorías mejor establecidas puedan
ofrecerles. Tal experiencia les impediría hacer un uso acrítico y apresurado con fines
apologéticos de teorías tan recientes como la del "Big Bang" en cosmología (Juan Pablo II
[1997], págs. M11, M12).
Cabe señalar que las preocupaciones planteadas en este artículo tienen poca relación directa con
la capacidad de persuasión de un argumento teleológico del ajuste fino cósmico (Manson
[2003]).
Expresiones de gratitud
Agradezco a William Lane Craig, Ernan McMullin, Don Howard, Samuel Conner, Scott Hawley,
Jeff Koperski, Alex Skiles, John Keller, Jennifer Jensen, Dilkushi de Alwis Pitts, William Pitts y Jan
Pitts por las discusiones u otra ayuda, y quizás otros. a quien no puedo recordar ni nombrar.
Todas las vistas y los errores restantes son míos. Una versión anterior de este artículo se
presentó en la reunión de la Sociedad de Filósofos Cristianos en la Universidad de Notre Dame
en 2006.
Notas
1. La densidad lagrangiana de la teoría de Bach-Weyl es el cuadrado del tensor de curvatura de Weyl . El tensor de
Weyl en su hábitat natural es un tensor (1, 3) y es concomitante de la densidad métrica conforme sin el determinante g = def
det (gαβ), por lo que en sí mismo es conforme invariante (Anderson [1967]; Wald [1984 ]). (Anderson tiene un error de
imprenta en la p. 84 sobre este mismo punto; debe elevarse un índice del tensor de Weyl, como en , o de lo contrario
el índice debería reducirse con ĝμν (no gμν), dando así un tensor de Weyl densitizado). Por lo tanto, la densidad lagrangiana
es (hasta un factor constante) . La ausencia de g se ha puesto de manifiesto mediante el uso de la densidad del tensor
métrico conforme inverso ĝμν, que tiene un peso de densidad y la forma primordial (1, 3) del tensor de Weyl. Al
igual que el término cinético electromagnético de Maxwell ĝμα ĝνβ Fμν Fαβ, la densidad de Bach-Weyl Lagrangiana es una
densidad escalar de peso 1 (como se requiere para un principio de acción estacionaria invariante de coordenadas), pero no
depende de g, por lo que es evidente que conformemente invariante.
2. Para otras métricas de espacio-tiempo, puede suceder que una singularidad se manifieste en la densidad métrica conforme
ĝμν (Tod y Lübbe [inédito]). El Big Bang habitual simplemente no es un caso así. Así, la singularidad del Big Bang no forma
una barrera infranqueable en la teoría de Bach-Weyl, por ejemplo, porque g está ausente de esa teoría.
3. Uno podría tener otras razones para dudar de que las singularidades existan como parte del espacio-tiempo si se enfatiza la
analogía entre la gravedad y otras fuerzas (Pitts y Schieve [2003]).
4. Habiendo dicho esto, tal vez sea apropiada una breve explicación del problema del orden de los factores (Komar [1979]). En
física clásica, la descripción hamiltoniana implica varios productos de coordenadas q y momentos p. En algunas teorías, cada
término es solo una potencia de q o de p, pero no ambas. Pero, ¿qué pasa si hay un término que involucra potencias tanto de
q como de p, como es cierto en la teoría de la gravedad de Einstein? Entonces, el orden en el que se escriben, como p 2 q 2 o q
2 p 2 o qppq, por ejemplo, aunque no tiene importancia clásica, tiene cierta importancia en la teoría cuántica.
Referencias
Adler, RJ, Bjorken, JD y Overduin, JM [inédito]: 'Finite Cosmology and a CMB Cold Spot', <arxiv.org/abs/gr-qc/0602102>.
Agnese, AG y Wataghin, A. [1971]: 'Factor de escala en modelos cosmológicos homogéneos', Lettere al Nuovo Cimento, 1, págs.
857-60.
Alexander, HG, ed. [1956]: Correspondencia Leibniz-Clarke, Manchester: Manchester University Press.
Anderson, JL [1967]: Principios de la física de la relatividad, Nueva York: Academic Press.
Ashtekar, A. [inédito]: 'Quantum Geometry and Gravity: Recent Advances', <arxiv.org/abs/gr-qc/0112038>. Informe de la charla
plenaria de la 16ª Conferencia Internacional sobre Relatividad General y Gravitación, celebrada en Durban, Sudáfrica, en julio
de 2001.
Ashtekar, A., Pawlowski, T. y Singh, P. [2006a]: 'Naturaleza cuántica del Big Bang: una investigación analítica y numérica',
Physical Review D, 73, págs. 1-33.
Ashtekar, A., Pawlowski, T. y Singh, P. [2006b]: 'Naturaleza cuántica del Big Bang: dinámica mejorada', Physical Review D, 74,
págs. 1–23.
Babak, SV y Grishchuk, LP [2003]: 'Gravedad de rango finito y su papel en ondas gravitacionales, agujeros negros y cosmología',
Revista Internacional de Física Moderna D, 12, págs. 1905–59.
Barceló, C. y Visser, M. [2002]: '¿Crepúsculo para las condiciones energéticas?', Revista Internacional de Física Moderna D, 11,
págs. 1553–60.
Bojowald, M. [2001a]: "Ausencia de singularidad en la cosmología cuántica de bucles", Physical Review Letters, 86, págs. 5227-
30.
Bojowald, M. [2001b]: 'El factor de escala inverso en geometría cuántica isotrópica', Physical Review D, 64, págs. 1-8.
Bojowald, M. [2002]: 'Cosmología cuántica de bucle isotrópico', Gravedad clásica y cuántica, 19, págs. 2717–41.
Bojowald, M. y Hinterleitner, F. [2002]: 'Cosmología cuántica de bucle isotrópico con materia', Physical Review D, 66, págs. 1-9.
Bojowald, M. y Kagan, M. [2006]: 'Singularidades en modelos de campos escalares no mínimos isotrópicos', Gravedad clásica y
cuántica, 23, págs. 4983–90.
Bondi, H. [1947]: 'Modelos esféricamente simétricos en la relatividad general', Avisos mensuales de la Royal Astronomical
Society, 107, págs. 410–25.
Boulanger, N. y Esole, M. [2002]: 'Una nota sobre la singularidad de D = 4, N = 1 Supergravedad', Gravedad clásica y cuántica, 19,
págs. 2107–24.
Boulware, DG y Deser, S. [1972]: "¿Puede la gravitación tener un rango finito?", Physical Review D, 6, págs. 3368-82.
Brooke, JH [1991]: Ciencia y religión: algunas perspectivas históricas, Cambridge: Cambridge University Press.
Brown, HR [2005]: Relatividad física: estructura del espacio-tiempo desde una perspectiva dinámica, Nueva York: Oxford University
Press.
Buchert, T. [2008]: 'Energía oscura de la estructura: un informe de estado', Relatividad general y gravitación, 40, págs. 467–527.
Buchert, T. y Carfora, M. [2002]: 'Promedio regional y escala en cosmología relativista', Gravedad clásica y cuántica, 19, págs.
6109-45.
Callan, C., Dicke, RH y Peebles, PJE [1965]: 'Cosmology and Newtonian Mechanics', American Journal of Physics, 33, págs. 105–8.
Cartin, D. y Khanna, G. [2005]: 'Ausencia de soluciones preclásicas en la cosmología cuántica de Bianchi I Loop', Physical Review
Letters, 94, págs. 1-4.
Catena, R., Pietroni, M. y Scarabello, L. [2007]: 'Marcos de Einstein y Jordan reconciliados: un enfoque de marco invariante a la
cosmología escalar-tensorial', Physical Review D, 76, págs. 1-11.
Cattoen, C. y Visser, M. [inédito]: 'Cosmography: Extracting the Hubble Series from the Supernova Data', <arxiv.org/abs/gr-
qc/0703122>.
Clarke, CJS [1993]: El análisis de las singularidades del espacio-tiempo, Cambridge: Cambridge University Press.
Coley, AA y Pelavas, N. [2006]: "Promedio de espaciotiempos esféricamente simétricos en relatividad general", Physical Review
D, 74, págs. 1-4.
Collins, FS [2007]: El lenguaje de Dios: Un científico presenta evidencia de creencias, Nueva York: Free Press.
Copan, P. y Craig, WL [2004]: Creación de la nada: una exploración bíblica, filosófica y científica, Grand Rapids, MI: Baker Academic.
Cowan, SB, Craig, WL, Habermas, GR, Feinberg, PD, Frame, JM y Clark, KJ [2000]: Cinco opiniones sobre la apologética, Grand
Rapids, MI: Zondervan.
Craig, WL [1979]: The Kalām Cosmological Argument, Nueva York: Barnes and Noble.
Craig, WL y Smith, Q. [1993]: Teísmo, ateísmo y cosmología del Big Bang, Oxford: Clarendon Press.
Date, G. y Hossain, GM [2005]: "Genérico de un gran rebote en la cosmología cuántica de bucle isotrópico", Physical Review
Letters, 94, págs. 1-4.
Deser, S. [1970]: "Auto-Interacción e invariancia de calibre", Relatividad general y gravitación, 1, págs. 9-18.
Drees, WB [1990]: Más allá del Big Bang: Cosmologías cuánticas y Dios, La Salle, IL: Open Court.
Dzhunushaliev, V. y Schmidt, H.-J. [2000]: 'Nuevas soluciones de vacío de la gravedad conformada de Weyl', Journal of
Mathematical Physics, 41, págs. 3007-15.
Earman, J. [1995]: Golpes, crujidos, gemidos y chillidos: singularidades y causalidades en los tiempos espaciales relativistas, Nueva
York: Oxford University Press.
Earman, J. [1996]: 'Tolerancia para las singularidades del espacio-tiempo', Fundamentos de la física, 26, págs. 623–40.
Earman, J. y Eisenstaedt, J. [1999]: 'Einstein and Singularities', Studies in History and Philosophy of Modern Physics, 30, págs.
185-235.
Earman, J. y Mosterin, J. [1999]: 'Una mirada crítica a la cosmología inflacionaria', Filosofía de la ciencia, 66, págs. 1-49.
Ellis, GFR [1984]: 'Cosmología relativista: su naturaleza, objetivos y problemas', en B. Bertotti, F. de Felice y A. Pascolini (eds),
Relatividad general y gravitación: artículos invitados e informes de debate de la X Conferencia Internacional sobre Relatividad
General y Gravitación, Padua, 3 al 8 de julio de 1983, Dordrecht: D. Reidel, págs. 215–88.
Ellis, G. [2008]: 'Patchy Solutions', Nature, 452, págs. 158–61.
Fang, J. y Fronsdal, C. [1979]: 'Deformations of Gauge Groups. Gravitation ', Journal of Mathematical Physics, 20, págs. 2264–
2471.
Faraoni, V. y Nadeau, S. [2007]: '(Pseudo) número del Conformal Frame Revisited', Physical Review D, 75, págs. 1-13.
Feynman, RP, Morinigo, FB, Wagner, WG, Hatfield, B., Preskill, J. y Thorne, KS [1995]: Conferencias Feynman sobre gravitación,
Reading, MA: Addison-Wesley. Original del Instituto de Tecnología de California, 1963.
Fiedler, B. y Schimming, R. [1980]: 'Soluciones exactas de las ecuaciones de campo de Bach de la relatividad general', Informes
sobre física matemática, 17, págs. 15–36.
Fierz, M. y Pauli, W. [1939]: "Sobre ecuaciones de onda relativistas para partículas de giro arbitrario en un campo
electromagnético", Actas de la Royal Society (Londres) A, 173, págs. 211–32.
Flew, A. y Varghese, RA [2007]: Hay un Dios: cómo el ateo más famoso del mundo cambió de opinión, Nueva York: HarperOne.
Ford, LH [2003]: "Los teoremas de la singularidad clásica y sus lagunas cuánticas", Revista Internacional de Física Teórica, 42,
págs. 1219–27.
Ford, LH y Roman, TA [2001]: 'Campos escalares clásicos y la segunda ley generalizada', Physical Review D, 64, págs. 1-12.
Gasperini, M. y Veneziano, G. [2003]: 'The Pre-Big Bang Scenario in String Cosmology', Physics Reports, 373, págs. 1-212.
Gilkey, L. [1959]: Creador del cielo y la tierra: La doctrina cristiana de la creación a la luz del conocimiento moderno, Garden City,
NY: Doubleday and Company. La referencia de la página es a la reimpresión de 1965 Anchor Books.
Giulini, D. [2007]: 'Some Remarks on the Noions of General Covariance and Background Independence', en E. Seiler y IO
Stamatescu (eds), Approaches to Fundamental Physics: An Assessment of Current Theoretical Ideas, Lecture Notes in Physics,
vol. 721, Nueva York: Springer, págs. 105–22.
Glymour, C. [1973]: 'Topología, cosmología y convención', en P. Suppes (ed.), Space, Time, and Geometry, Dordrecht: D. Reidel,
págs. 193-216.
Grant, E. [1994]: Planetas, estrellas y orbes: el cosmos medieval, 1200-1687, Cambridge: Cambridge University Press.
Grant, E. [1996]: Los fundamentos de la ciencia moderna en la Edad Media: sus contextos religiosos, institucionales e intelectuales,
Cambridge: Cambridge University Press.
Grünbaum, A. [1989]: 'El pseudo-problema de la creación en cosmología física', Filosofía de la ciencia, 56, págs. 373-94.
Gupta, SN [1954]: 'Gravitation and Electromagnetism', Physical Review, 96, págs. 1683–5.
Helm, P. [1997]: 'Eternal Creation: The Doctrine of the Two Standpoints', en CE Gunton (ed.), The Doctrine of Creation: Essays in
Dogmatics, History and Philosophy, Edimburgo: T&T Clark, págs. 29– 46.
Henneaux, M. y Teitelboim, C. [1992]: Quantization of Gauge Systems, Princeton, Nueva Jersey: Princeton University Press.
Hyman, A. y Walsh, JJ [1973]: Filosofía en la Edad Media: Las tradiciones cristianas, islámicas y judías, 2ª edición, Indianápolis,
MN: Hackett.
Infeld, L. y Schild, A. [1945]: "Un nuevo enfoque de la cosmología cinemática", Physical Review, 68, págs. 250–72.
Isham, CJ [1997]: 'Creación del universo como un proceso cuántico', en RJ Russell, WR Stoeger y GV Coyne (eds), Physics,
Philosophy, and Theology: A Common Quest for Understanding, tercera edición, Ciudad del Vaticano : Observatorio Vaticano /
Notre Dame, IN: Universidad de Notre Dame, págs. 375–408.
Jackson, JD [1975]: Classical Electrodynamics, 2ª edición, Nueva York: Wiley.
Jaki, SL [1980]: Cosmos y Creador. Edimburgo: Scottish Academic Press.
Juan Pablo II [1997]: 'Al Reverendo George V. Coyne, SJ, Director del Observatorio Vaticano, 1 de junio de 1988', en RJ Russell, W
R. Stoeger y GV Coyne (eds), Física, Filosofía y Teología : Una búsqueda común para el entendimiento, 3ª edición, Estado de la
Ciudad del Vaticano: Observatorio del Vaticano / Notre Dame, IN: Universidad de Notre Dame, págs. 15, 16, M1–14.
Kaloper, N. y Olive, KA [1998]: 'Singularidades en cosmologías escalar-tensorial', Physical Review D, 57, págs. 811–22.
Kazanas, D. y Mannheim, PD [1991]: "Estructura general de las ecuaciones gravitacionales de movimiento en la gravedad
conformada de Weyl", Astrophysical Journal Supplement Series, 76 (2), págs. 431–53.
Klein, O. [1971]: 'Arguments Concerning Relativity and Cosmology', Science, 171, págs. 339-45.
Komar, A. [1979]: "Orden de factores coherentes de las restricciones relativistas generales", Physical Review D, 20, págs. 830-3.
Kragh, H. [2004]: Materia y espíritu en el universo: preludios científicos y religiosos de la cosmología moderna, Londres: Imperial
College.
Kraichnan, RH [1955]: 'Derivación relativista especial de la teoría de la gravitación generalmente covariante', Physical Review,
98, págs. 1118–22.
Kuhn, TS [1978]: Teoría del cuerpo negro y la discontinuidad cuántica, 1894-1912, Oxford: Clarendon Press.
Kukla, A. [1998]: Estudios sobre realismo científico, Nueva York: Oxford University Press.
Küng, H. [2007]: El comienzo de todas las cosas: ciencia y religión. Grand Rapids, MI: William B. Eerdmans. Traducido por John
Bowden.
Larmer, R. [2002]: '¿Hay algo de malo en el razonamiento del “Dios de las brechas”?', Revista Internacional de Filosofía de la
Religión, 52, págs. 129–42.
Laudan, L., Donovan, A., Laudan, R., Barker, P., Brown, H., Leplin, J., Thagard, P. y Wykstra, S. [1986]: 'Scientific Change:
Philosophical Models and Historical Research ”, Synthese, 69, págs. 141–223.
Layzer, D. [1954]: "Sobre la importancia de la cosmología newtoniana", The Astronomical Journal, 59, págs. 268–70.
Leith, JH, ed. [1982]: Credos de las iglesias: un lector de doctrina cristiana desde la Biblia hasta el presente, 3ª edición, Louisville, KY:
John Knox.
Levy-Leblond, J.-M. [1990]: "¿Comenzó el Big Bang?", American Journal of Physics, 58, págs. 156–9.
Lindberg, DC y Numbers, RL eds [1986]: Dios y la naturaleza: Ensayos históricos sobre el encuentro entre ciencia y religión,
Berkeley, CA: Universidad de California.
Magnano, G. y Sokołowski, LM [1994]: "Equivalencia física entre las teorías de la gravedad no lineal y un campo escalar
autogravitante relativista general", Physical Review D, 50, págs. 5039-59.
Malament, D. [1977]: 'Observationally Indistinguishable Space-Times', en J. Earman C. Glymour y J. Stachel (eds), Foundations of
Space-Time Theories, Minneapolis, MN: University of Minnesota, págs. 61– 80.
Manson, NA, ed. [2003]: Dios y diseño: el argumento teleológico y la ciencia moderna, Londres: Routledge.
Mars, M. y Zalaletdinov, RM [1997]: 'Promedios del espacio-tiempo en la gravedad macroscópica y las coordenadas que
conservan el volumen', Journal of Mathematical Physics, 38, págs. 4741-57.
Mavrodes, GI [1989]: 'Enthusiasm', Revista Internacional de Filosofía de la Religión, 25, págs. 171–86.
McCabe, G. [2004]: 'La estructura e interpretación de la cosmología: Parte I - Cosmología relativista general', Estudios de historia
y filosofía de la física moderna, 35, págs. 549–95.
McCrea, W H. [1955]: "Sobre la importancia de la cosmología newtoniana", The Astronomical Journal, 60, págs. 271–4.
McMullin, E. [1981a]: 'How Should Cosmology Relate to Theology?', En AR Peacocke (ed.), The Sciences and Theology in the
Twentieth Century, Notre Dame, IN: Universidad de Notre Dame, págs. 17–57 .
McMullin, E. [1981b]: 'Is Philosophy Relevant to Cosmology?', American Philosophical Quarterly, 18, págs. 177–89.
Misner, C. W [1969]: "Cero absoluto del tiempo", Physical Review A, 186, págs. 1328-1333.
Misner, C., Thorne, K. y Wheeler, JA [1973]: Gravitation, Nueva York: Freeman.
Morriston, W [2003]: '¿Debe el tiempo metafísico tener un comienzo?', Faith and Philosophy, 20, págs. 288-306.
Narlikar, JV [1992]: 'Los conceptos de “comienzo” y “creación” en cosmología ”, Filosofía de la ciencia, 59, págs. 361-71.
Ogievetsky, VI y Polubarinov, IV [1965]: 'Interacting Field of Spin 2 and the Einstein Equations', Annals of Physics, 35, pp. 167-
208.
Olson, RG [2004]: Ciencia y religión, 1450-1900: De Copérnico a Darwin, Baltimore, MD: Johns Hopkins University Press.
Papapetrou, A. [1948]: 'Teoría de la gravitación y el espacio plano de Einstein', Actas de la Royal Irish Academy A, 52, págs. 11-
23.
Pitts, JB [2006]: 'Objetos absolutos y contraejemplos: polvo de Jones-Geroch, curvatura constante de Torretti, tetrad-spinor y
densidad escalar', Estudios de Historia y Filosofía de la Física Moderna, 37, págs. 347-71.
Pitts, JB y Schieve, WC [2001]: 'Gravitación ligeramente bimétrica', Relatividad general y gravitación, 33, págs. 1319–50.
Pitts, JB y Schieve, WC [2003]: 'No singularidad de modelos planos de Robertson-Walker en el enfoque relativista especial de las
ecuaciones de Einstein', Fundamentos de la física, 33, págs. 1315–21.
Pitts, JB y Schieve, WC [2007]: 'Gravedad masiva acoplada universalmente', Física teórica y matemática, 151, págs. 700-17.
Pío III [1952]: "La ciencia moderna y la existencia de Dios", La mente católica, 49, págs. 182–92. Discurso a la Pontificia Academia
de las Ciencias, 22 de noviembre de 1951.
Plantinga, A. [2000]: Creencia cristiana garantizada, Nueva York: Oxford University Press.
Polkinghorne, J. [1994]: Ciencia y creencia cristiana, Londres: SPCK.
Psillos, S. [1999]: Realismo científico: cómo la ciencia rastrea la verdad, Londres: Routledge.
Pullin, J. [2003]: 'Canonical Quantization of General Relativity: The Last 18 Years in a Nutshell', en M. Novello (ed.), Proceedings
of the Xth Brazilian School on Cosmology and Gravitation: AIP Conference Proceedings 668, American Instituto de Física, págs.
141–53.
Quinn, PL [1993]: 'Creación, conservación y el Big Bang', en J. Earman AI Janis, GJ Massey y N. Rescher (eds), Problemas
filosóficos de los mundos interno y externo: Ensayos sobre la filosofía de Adolf Grünbaum, Pittsburgh: Universidad de
Pittsburgh / Konstanz: Universitätsverlag Konstanz, págs. 589–612.
Ratzsch, D. [2001]: Naturaleza, diseño y ciencia: el estado del diseño en las ciencias naturales, Albany, NY: State University of New
York.
Redhead, M. [1996]: Revisión del teísmo, el ateísmo y la cosmología del Big Bang por William Lane Craig y Quentin Smith, British
Journal for the Philosophy of Science, 47, págs. 133–6.
Rosen, N. [1940]: 'Relatividad general y espacio plano. I, II ', Physical Review, 57, págs. 147–50, 150–3.
Ross, H. [1991]: The Fingerprint of God, 2ª edición, Orange, CA: Promise.
Ross, H. [2001]: El Creador y el Cosmos: Cómo los mayores descubrimientos científicos del siglo revelan a Dios, 3ª edición, Colorado
Springs: NavPress.
Russell, JB [1991]: Inventing the Flat Earth: Columbus and Modern Historians, Westport, CN: Praeger.
Russell, RJ [1996a]: 'Creación finita sin comienzo', en RJ Russell, N. Murphey y CJ Isham (eds), Cosmología cuántica y las leyes de
la naturaleza: Perspectivas científicas sobre la acción divina, 2a edición, Estado de la Ciudad del Vaticano: Observatorio
Vaticano / Berkeley, CA: Centro de Teología y Ciencias Naturales / Notre Dame, IN: Universidad de Notre Dame, págs. 291–
325.
Russell, RJ [1996b]: 't = 0: Is It Theologically Significant?', En WM Richardson y WJ Wildman (eds.), Religion & Science: History,
Method, Dialogue, Nueva York: Routledge, pp. 201-24 .
Santiago, DI y Silbergleit, AS [2000]: 'Sobre el tensor de energía-momento del campo escalar en las teorías de la gravedad del
tensor-escalar', Relatividad general y gravitación, 32, págs. 565–81.
Saunders, N. [2002]: Acción divina y ciencia moderna, Cambridge: Cambridge University Press.
Schimming, R. y Schmidt, H.-J. [1990]: "Sobre la historia de las teorías métricas de gravitación de cuarto orden", NTM
Schriftenreihe für Geschichte der Naturwissenschaften, Technik und Medizin, 27, págs. 41-8.
Schücking, EL [1967]: 'Cosmología', en J. Ehlers (ed.), Teoría de la relatividad y astrofísica: 1. Relatividad y cosmología,
Conferencias en matemáticas aplicadas, vol. 8, Providence, RI: American Mathematical Society, págs. 218–36.
Sexl, RU [1967]: 'Teorías de la gravitación', Fortschritte der Physik, 15, 269-307.
Sklar, L. [1985]: '¿Tienen derechos las hipótesis no nacidas?', En Filosofía y Física del Espacio-Tiempo, Berkeley, CA: Universidad
de California.
Smith, Q. [1992]: 'Un argumento cosmológico del Big Bang a favor de la inexistencia de Dios', Faith and Philosophy, 9, págs. 217–
37.
Smith, Q. [2000]: "Problemas con el intento de John Earman de reconciliar el teísmo con la relatividad general", Erkenntnis, 52,
págs. 1-27.
Smoller, J. y Temple, B. [2003]: 'Cosmología de ondas de choque dentro de un agujero negro', Actas de la Academia Nacional de
Ciencias de los Estados Unidos de América, 100, págs. 11216–8.
Snoke, D. [2001]: 'A favor del razonamiento del Dios de las brechas', Perspectivas sobre la ciencia y la fe cristiana, 53, págs. 152–
8.
Sober, E. [2003]: 'El argumento del diseño', en NA Manson (ed.), Dios y el diseño: el argumento teleológico y la ciencia moderna,
Londres: Routledge, págs. 27–54.
Sober, E. [2007]: 'What is Wrong with Intelligent Design?', Quarterly Review of Biology, 82, págs. 3–8.
Sotiriou, TP, Faraoni, V y Liberati, S. [2008]: 'Teoría de las teorías de la gravitación: un informe sin progreso', Revista
Internacional de Física Moderna D, 17, págs. 399–423.
Stanford, PK [2001]: "Rechazar el trato del diablo: ¿Qué tipo de subdeterminación deberíamos tomar en serio?", Filosofía de la
ciencia, 68, págs. S1-12. Actas de PSA 2000.
Stanford, PK [2006]: Exceeding Our Grasp: Science, History, and the Problem of Unconceived Alternatives, Nueva York: Oxford
University Press.
Sundermeyer, K. [1982]: Dinámica restringida: con aplicaciones a la teoría de Yang-Mills, relatividad general, espín clásico, modelo
de cuerda dual, notas de clase en física, vol. 169, Berlín: Springer.
Tauber, GE [1967]: "Universos en expansión en coordenadas planas conforme", Journal of Mathematical Physics, 8, págs. 118-23.
Thijssen, JMMH [1998]: 'La eternidad del mundo, vistas medievales de', en E. Craig (ed.), Enciclopedia de filosofía de Routledge.
Londres: Routledge. Consultado el 13 de noviembre de 2004 en <www.rep.routledge.com/article/B039>.
Tod, P. y Lübbe, C. [inédito]: 'An Extension Theorem for Conformal Gauge Singularities', <arxiv.org/abs/0710.5552>.
van Fraassen, B. [1989]: Leyes y simetría, Oxford: Clarendon Press.
van Nieuwenhuizen, P. [1973]: «Sobre lagrangianos tensores libres de fantasmas y gravitación lineal», Física nuclear B, 60, págs.
478-92.
Veltman, M. [1981]: 'Teoría cuántica de la gravitación', en Les Houches XXVIII 1975: Métodos en teoría de campos, Amsterdam:
Holanda Septentrional, págs. 265–327.
Visser, M. [1998]: 'Mass for the Graviton', Relatividad general y gravitación, 30, págs. 1717–28.
Wald, RM [1984]: Relatividad general, Chicago, IL: University of Chicago Press.
Weinberg, S. [1965]: «Fotones y gravitones en la teoría de la perturbación: derivación de las ecuaciones de Maxwell y Einstein»,
Physical Review, 138, págs. B988-1002.
Weinberg, S. [1972]: Gravitación y cosmología, Nueva York: Wiley.
Weinstein, S. [1996]: 'Extraños acoplamientos y estructura espacio-temporal', Filosofía de la ciencia, 63, págs. S63-70. Actas de
las reuniones bienales de 1996 de la Asociación de Filosofía de la Ciencia. Parte I: Documentos aportados.
White, AD [1896]: A History of the Warfare of Science with Theology in Christendom, Buffalo: Prometheus, reimpresión de 1993.
Will, CM [1993]: Teoría y Experimento en Física Gravitacional, edición revisada, Cambridge: Cambridge University Press.
Zalaletdinov, RM [1992]: "Promedio de las ecuaciones de Einstein", Relatividad general y gravitación, 24, págs. 1015–31.
3
Sobre los espaciotiempos no singulares y el comienzo
del universo
1.0 Introducción
El argumento más discutido en la teología natural actual es el llamado argumento cosmológico
kalām, que se originó en los intentos de ciertos filósofos antiguos de refutar la doctrina de
Aristóteles sobre la eternidad pasada del universo. 1El argumento adquirió gran importancia en
la teología islámica medieval, de la que deriva su nombre. En su Kitab al-Iqtisad, el teólogo
musulmán medieval al-Ghazali presentó el siguiente silogismo simple en apoyo de la existencia
de un Creador: “Todo ser que comienza tiene una causa para su comienzo; ahora el mundo es un
ser que comienza; por lo tanto, posee una causa para su comienzo ”[al-Ghazali, 1962, págs. 15-
16]. En defensa de la segunda premisa, Ghazali ofreció varios argumentos filosóficos para
mostrar la imposibilidad de una regresión infinita de los fenómenos temporales y, por tanto, de
un pasado infinito. El límite en el que termina el pasado finito, Ghazali lo llama “el Eterno” [al-
Ghazali, 1963, p. 32], que evidentemente considera un estado de atemporalidad. Dada la verdad
de la primera premisa, el pasado finito debe, por tanto, “Detente en un ser eterno del que debería
haberse originado el primer ser temporal” [al-Ghazali 1963, p. 33].
El argumento, entonces, es asombrosamente simple:
El análisis conceptual de lo que significa ser una causa del universo busca luego explorar la
relevancia de esta conclusión para el teísmo. Lo que hace que el argumento cosmológico kalām
sea científicamente interesante es que los proponentes contemporáneos del argumento han
reclamado apoyo de la cosmogonía astrofísica actual en defensa de (2). Sin embargo, varios
críticos recientes del argumento han negado que la cosmología física contemporánea brinde un
apoyo significativo a (2) porque el origen singular del espacio-tiempo predicho por el modelo
estándar es un artefacto de la Relatividad General (en adelante GTR) que bien puede ser resuelto
por modelos cosmológicos cuánticos.
Por ejemplo, Bradley Monton afirma:
La hipótesis del Big Bang es cierta dada la suposición de que GTR es cierta, pero no sabemos
si la hipótesis del Big Bang es cierta para el universo real. La teoría del Big Bang no tiene en
cuenta la teoría cuántica, y eso nos da razones para no creer en la teoría del Big Bang ... Porque
la física no nos dice qué sucede una vez que rastreamos la historia del universo hacia atrás
en el tiempo hasta estas altas energías, ni siquiera sabemos si hay una gran explosión en
absoluto [Monton, de próxima publicación].
El problema con esta reconstrucción sugerida del argumento, sin embargo, es que el argumento
sería entonces un hombre de paja que no ha sido defendido por nadie y difícilmente requeriría
21 páginas de argumentación sostenida para refutarlo. Las singularidades de los espaciotiempos
relativistas generales no son puntos espaciotemporales sino, a lo sumo, puntos, ya sean reales o
ideales, que se pueden unir al espaciotiempo como puntos limítrofes. Como tales, no son parte
del espacio-tiempo, como afirma (6). De hecho, en el enfoque habitual de las singularidades, ni
siquiera se les concede tanta realidad. Más bien, se dice que un espacio-tiempo es singular si es
esencialmente inextensible y, por lo tanto, geodésicamente incompleto [Earman, 1995, págs. 28-
37]. La pregunta que plantea Pitts es si una singularidad cosmológica inicial, ya sea en el sentido
de un punto límite pasado o de lo incompleto de las semicurvas geodésicas pasadas, da base para
pensar que el universo comenzó a existir. Hacer la pregunta de esta manera vuelve inteligible la
preocupación adicional de Pitts de si alguna teoría aún desconocida podría no resolver las
singularidades del espacio-tiempo clásico, una preocupación que se volvería superflua con
respecto a la reconstrucción propuesta anteriormente, porque incluso si una singularidad
cosmológica inicial implica el comienzo del universo, la pregunta sigue siendo si el espacio-
tiempo es realmente singular.
En consecuencia, podríamos ofrecer la siguiente reconstrucción del supuesto argumento de
singularidad para el comienzo del universo:
Puede entenderse entonces que Pitts niega (8) sobre la base de que, ya sea que la singularidad
inicial se entienda como un punto límite del pasado o como la incompletitud geodésica del
espacio-tiempo en el pasado, no hay un primer momento de la existencia del universo, que él
considera ser una condición necesaria para el comienzo de la existencia del universo, y socavar
(9) apelando a teorías aún no descubiertas que eliminan la singularidad. Esto nos parece una
reconstrucción comprensiva del argumento de la supuesta singularidad para el comienzo del
universo que también da sentido a la respuesta de dos puntas de Pitts [Pitts, 2008, p. 682].
Esto no es simplemente un brillo retórico por parte de Geroch. De hecho, el observador sería
"extinguido" a pesar de la falta de un punto final genuino para el espacio-tiempo. Entonces, si el
universo deja de existir en el Big Crunch, la paridad requiere que comience a existir en el Big
Bang, QED6
Finalmente, vale la pena señalar que la insistencia de Pitts en que la consideración crucial
sobre si el universo comenzó a existir es la necesidad de un primer instante lo lleva directamente
a las paradojas griegas antiguas de detenerse y comenzar [ver Sorabji, 1983, pp. 403-21].
Pensadores antiguos como Parménides argumentaron que si un objeto O está en reposo en el
tiempo t, es imposible que O comience a moverse, ya que para cualquier tiempo t´> t, si O está en
movimiento en t´, entonces hay un tiempo t <t * <t´ en el que O ya está en movimiento. Por tanto,
nada puede empezar a moverse. Si asumimos la continuidad del tiempo y el espacio, la solución
al acertijo de Parménides es que O puede comenzar a moverse sin que haya un punto de inicio
de su movimiento. La demanda de Pitts de un cierre topológico nos obligaría a la absurda
conclusión de que nada comienza a moverse.
Necesitamos, entonces, alguna razón convincente para pensar que la finitud admitida del
tiempo pasado no es suficiente para que el tiempo haya comenzado a existir, para pensar que un
primer instante de tiempo es también una condición necesaria. Las observaciones relevantes de
Pitts a este respecto surgen en respuesta a las definiciones de Copán y Craig que proporcionan
en preparación para su defensa de la premisa
3 *. La serie temporal de eventos físicos pasados no tuvo comienzo.
Ellos explican
Por "evento físico", nos referimos a cualquier cambio que ocurra dentro del universo espacio-
temporal. Dado que cualquier cambio lleva tiempo, no hay eventos instantáneos. Tampoco
podría haber un evento infinitamente lento, ya que tal 'evento' sería en realidad un estado
inmutable. Por lo tanto, cualquier evento tendrá una duración finita distinta de cero. Para que
todos los eventos tengan la misma duración, estipulamos arbitrariamente algún evento como
nuestro estándar.
Tomando como nuestro punto de partida el presente evento estándar, consideramos
cualquier serie de tales eventos estándar ordenados de acuerdo con la relación anterior a. La
pregunta es si esta serie de hechos tuvo un comienzo o no. Por "comienzo", uno significa un
primer evento estándar. Por tanto, no es relevante si la serie temporal tuvo un punto de inicio
(un primer instante temporal). La pregunta es si hubo en el pasado un evento que ocupaba
un intervalo temporal finito distinto de cero que fue absolutamente primero, no precedido
por ningún intervalo igual [Copan y Craig, 2004, p. 199].
La objeción de Pitts a este Ansatz es sorprendente. El escribe,
La teoría de la gravedad de Bach-Weyl muestra que una teoría física ni siquiera necesita
definir la longitud de una curva. En las teorías del tensor escalar u otras teorías con múltiples
métricas, la edad puede ser radicalmente ambigua. Por lo tanto, solo una noción topológica
de 'comienzo' en términos de un primer momento está disponible si el argumento de Kalam
tiene la intención de producir una verdad necesaria necesariamente no vacía ...
Copan y Craig quizás tomen su argumento de Kalam para expresar una verdad necesaria
que se aplica de manera no vacía a todas las teorías físicas posibles. Sin embargo, su criterio
para un comienzo no tiene sentido para una teoría de Bach-Weyl porque 'igual duración' no
tiene sentido en esa teoría ... Dado que ni la existencia ni la unicidad de una métrica (para
curvas de tipo temporal) se cumplen necesariamente, el movimiento natural es adoptar una
noción de comienzo topológica más que métrica. Por tanto, un primer momento es el punto
que hay que abordar [Pitts, 2008, págs. 677, 682].
La presunción de Pitts parece ser que Copan y Craig toman, no sólo las premisas del argumento
cosmológico kalām, sino más particularmente el criterio ofrecido para que haya un comienzo de
la serie de eventos pasados como verdades metafísicamente necesarias. Dado que existen
mundos posibles caracterizados por el convencionalismo métrico, es decir, mundos en los que
no existe un hecho objetivo, sean o no isócronos los intervalos temporales no anidados, el criterio
propuesto para un comienzo sería inaplicable a tales mundos, porque en tales mundos no hay
ningún hecho sobre si algún otro intervalo temporal es igual a la duración del evento estándar
estipulado arbitrariamente. Pitts reconoce, como se mencionó, que el mundo real se caracteriza
por una métrica objetiva; pero él insiste en que “una doctrina de la creación necesita ser lo
suficientemente rica en modalidades para acomodar la posibilidad de que Dios cree mundos con
leyes físicas sin una estructura métrica única o preferida para autorizar una respuesta de edad
'finita' o 'infinita'” [Pitts, 2008 p. 681].
La presunción de Pitts es incorrecta. El criterio propuesto estaba destinado a aplicarse
únicamente al mundo real. No hay intención ni necesidad de buscar su aplicación a otras palabras
metafísicamente posibles regidas por diferentes leyes de la naturaleza. 7Así, el criterio propuesto
para el inicio de la serie de hechos pasados es adecuado a su propósito. Establece una condición
suficiente para que el tiempo haya comenzado a existir.
En resumen, el intento de Pitts de desacreditar una condición de tiempo suficiente
intuitivamente plausible y el hecho de que el universo haya comenzado a existir en términos de
finitud métrica pasada se basa en una presunción infundada sobre el estado modal de la
condición ofrecida y sustituiría a una condición topológica que, si aceptado, tendría
consecuencias muy inverosímiles. Por tanto, no presenta ninguna objeción seria a (8).
La consideración crucial aquí no será la preocupación de Pitts de que una teoría exitosa de la
gravedad cuántica resolverá la singularidad cosmológica inicial presentada en el modelo
estándar en una situación que está bien definida físicamente, sino más bien si, como él dice, esa
situación " admite la extrapolación a épocas aún anteriores, ad infinitum ". Dado que es esa
consideración, más que la verdad de (9), lo que es crucial para la evidencia de (2), pasemos a un
examen de esa consideración. ¿Los modelos que presentan una era "antes del Big Bang" implican
un pasado sin comienzo?
2. Los modelos de gravedad cuántica deben replicar el comportamiento observado que los
modelos más primitivos del universo (léase GTR) buscan modelar. Isaac Asimov, en un artículo
titulado "La relatividad de lo incorrecto" [Asimov, 1989], señaló la falacia de creer que los
modelos "primitivos" actuales carecen de utilidad porque están "equivocados", dado que una
teoría futura siempre está por encima de la horizonte para revertir el actual. Hay grados de
"incorrección", y las teorías que son menos incorrectas que sus predecesoras lo son porque
tienen en cuenta lo que es empíricamente correcto en sus antepasados. Es simplemente un error
pensar que los fenómenos predichos y analizados por GTR (especialmente los fenómenos
observables indirectamente como los agujeros negros) a través de cosas como los teoremas de
singularidad dejan de ser relevantes porque algún día un formalismo matemático diferente
puede llegar a ser de uso general. Puede que no existan singularidades, per se, en un futuro
formalismo de gravedad cuántica, pero los fenómenos que GTR se esfuerza por describir de
manera incompleta deben, no obstante, ser manejados por el formalismo refinado, si ese
formalismo tiene la ambición de describir nuestro universo. Esto se puede ver en el ejemplo
anterior del enfoque de Wheeler-Dewitt descrito por Kiefer. Los universos de Big Bang
Friedmann con una coordenada de tiempo significativa son recuperables en la teoría (como
muestra Kiefer) pero se describen como una aproximación WKB semiclásica que invoca un
mecanismo llamado decoherencia. De hecho, deben ser recuperables porque eso es lo que vemos.
Si el comportamiento similar al de Big Bang Friedmann no fuera recuperable, eso en sí mismo
sería motivo para rechazar la teoría más amplia.
3. La preservación del tiempo como propiedad fundamental del universo es posible dentro de un
enfoque de gravedad cuántica. Como ejemplos, véanse [Mersini-Houghton, 2009], [Smolin,
2009], [Sorkin y Rideout, 2004], [Carroll, 2008] y [Loll, 2008]. Mersini-Houghton defiende un eje
temporal sin flechas pero sin embargo global y sin principio dentro de un multiverso más grande.
Carroll quiere un tiempo global con una flecha que apunte hacia una mayor entropía dado
cualquier punto de partida arbitrario dentro del multiverso. Smolin defiende una visión similar
en su postulación de múltiples universos nacidos en una secuencia temporal a través de
incubadoras de agujeros negros. Su artículo "The Unique Universe" es un intento en toda regla
de refutación de un multiverso atemporal. Sin embargo, su defensa del concepto de tiempo
fundamental no es una defensa del tiempo métrico de GTR. Más bien defiende la temporalidad
dentro del contexto de las teorías de la gravedad cuántica independientes del trasfondo (es decir,
el espacio-tiempo emergente). Un ejemplo de este enfoque es el trabajo de Renate Loll que
discutimos brevemente en la sección 5.0. Otro enfoque que incluye explícitamente la propiedad
del tiempo y al menos la mitad de la doctrina del presentismo (es decir, la tesis de que el futuro
no existe) es la "teoría de conjuntos causales" de Rafael Sorkin, David Rideout y otros teóricos
prominentes, como como Faye Dowker.
En nuestra opinión, estos enfoques tienen una ventaja sobre los enfoques de gravedad cuántica
multiverso atemporal precisamente porque son consistentes con la veridicidad de nuestra
experiencia del tiempo y el tiempo. Para justificar una afirmación tan extraordinaria como la
irrealidad del tiempo, la evolución y la ilusión de nuestra experiencia del mismo, el multiverso
atemporal necesita algo más allá de la demostración como un formalismo de gravedad cuántica
"consistente".
4. La posición atemporalista concuerda con la nuestra con respecto al hecho de que diferentes
universos dentro de un multiverso son ahora inconmensurables con respecto a una medida
temporal. Por último, la posición atemporalista puede llegar a apoyar el hecho de la finitud del
pasado, si su intento de eliminar el tiempo como medida resultara tener éxito sólo en parte.
Supongamos, por ejemplo, que el concepto de "tiempo emergente" resulta ser significativo junto
con la objetividad del tiempo. (Discutimos esto en la sección 4.6.) El impacto en las supuestas
cosmogonías “anteriores al Big Bang” puede ser enorme, si uno ya no puede extender un tiempo
significativo hacia atrás “a través” de la “singularidad” del Big Bang. Si la fase A del universo es
inconmensurable con respecto al tiempo con la fase B del universo, entonces es simplemente
falso sugerir que la fase A precede a la fase B. Si suponemos que el tiempo es un concepto local
significativo dentro de A y B, entonces la implicación es que tanto A como B tienen orígenes
temporales. Esto apoya la finitud del pasado y, por tanto, el comienzo del universo.
Borde y col. sugieren que las geodésicas temporales y nulas se desplazan al rojo en energía a
medida que se extienden en un espacio en expansión. Mirando hacia atrás en el tiempo, están
desplazados al azul. El desplazamiento hacia el azul se vuelve infinito en una cantidad finita de
tiempo adecuado (o parámetro afín para geodésicas nulas). En GTR, el desplazamiento infinito
hacia el azul sugiere una condición singular.
La conclusión de BGV se aplica más allá de la clase de modelo inflacionario. Cualquier universo
(incluidos los universos modelados por cosmología de dimensiones superiores, cosmología
anterior al Big Bang, etc.) que, en promedio, se expande tiene que conectarse, en un tiempo finito,
a una frontera pasada.11Según Vilenkin, este resultado es independiente de las modificaciones de
las ecuaciones de Einstein (que podrían ser el resultado de correcciones de "baja energía"
provenientes de un enfoque de gravedad cuántica) o las características particulares de la
cosmogonía propuesta. Si el universo (o multiverso) se expande (en promedio), entonces tiene
un comienzo, un período.
Es posible objetar que el teorema BGV es un resultado clásico que carece del rigor de un
enfoque de gravedad cuántica completo. La objeción es que BGV se basa en tensores métricos,
que se podría afirmar que no existirían en una teoría "completa" de la gravedad cuántica.
Como se discutió en la sección 4.1, creemos que la objeción carece de fundamento. Agregamos
que Borde, Guth y Vilenkin no guardan silencio sobre el tema de la gravedad cuántica. Indican
que sus resultados demuestran un límite en el que será necesaria una teoría de la gravedad
cuántica para describir más la física. Por lo tanto, la dinámica clásica gobernada por su teorema
es adecuada para describir el universo en estados de energía "baja", incluida su historia pasada
aproximadamente hasta la época de Planck. Entonces hay un cálculo de la gravedad cuántica:
¿Qué puede haber más allá de este límite? Se han discutido varias posibilidades, una de las
cuales es que el límite de la región de inflado corresponde al comienzo del Universo en un
evento de nucleación cuántica. El límite es entonces una hipersuperficie cerrada similar a un
espacio que se puede determinar a partir del instante apropiado.
Cualesquiera que sean las posibilidades para el límite, está claro que a menos que la
condición de expansión promediada pueda evitarse de alguna manera para todas las
geodésicas dirigidas al pasado, la inflación por sí sola no es suficiente para proporcionar una
descripción completa del Universo, y es necesaria alguna nueva física para poder determinar
las condiciones correctas en el límite. Este es el principal resultado de nuestro artículo
[Borde, Guth y Vilenkin, 2003, p. 4].
Nos preguntamos si se debe tomar a Bach-Weyl como un enfoque realista del modelado. Bien
puede entenderse mejor instrumentalmente.13Observamos que algunos teóricos parecen
preferir un uso más modesto de la invariancia conforme. La Cosmogonía Conformal Cíclica de
Roger Penrose (ver sección 4.5), por ejemplo, usa exactamente el formalismo de Bach-Weyl para
modelar el límite entre oscilaciones consecutivas. Pero Bach-Weyl requiere que todo el
contenido del universo sea conforme invariante. Las partículas sin masa como el fotón y el
gravitón cumplen este criterio. En Bach-Weyl uno divide una métrica en una parte libre de escala
y otra parte que mide el espacio y los intervalos de tiempo. Pero las partículas sin masa (solo) no
experimentan el paso del tiempo. Entonces, si el universo contuviera solo partículas sin masa, se
podría argumentar (como hace Pitts) que se podría eliminar la parte de la métrica que representa
intervalos. Pero donde existe masa, no existe invariancia conforme. Entonces, para todas las fases
del universo donde existe masa (que en el universo real es prácticamente todas las épocas
posteriores al Big Bang), se necesita la métrica completa. Penrose divide así su modelo en dos
épocas: una consistente con la invariancia conforme y otra sin ella.
De manera similar, Gerard't Hooft, un defensor del enfoque de Bach-Weyl, describe otras
partes necesarias de una cosmogonía que no son invariantes en la escala y, por lo tanto, son
problemáticas para una metodología de Bach-Weyl “pura”. En un artículo que defiende la
existencia del espacio-tiempo (como una característica objetiva de la naturaleza) a expensas de
las teorías del "tiempo emergente", afirma:
Describir la materia en una métrica ĝµυ seguirá siendo posible siempre que nos limitemos a
las teorías de campo invariantes conforme, lo que quizás no sea una restricción tan mala al
describir la física en la escala de Planck. Por supuesto, eso nos deja la pregunta de dónde
provienen los términos de masa de la Naturaleza, pero un problema aún más urgente es
encontrar las ecuaciones para el campo gravitacional en sí mismo f, considerando el hecho
de que la constante GN de Newton no es invariante de escala en absoluto. La acción de
Einstein-Hilbert no es invariante de escala. Aquí, no podemos usar la curvatura de Riemann
o sus componentes de Ricci, pero el componente de Weyl es independiente de ω, por lo que
de alguna manera debe usarse. ['t Hooft 2009, pág. 8, énfasis añadido]
't Hooft cree en última instancia que las escalas se introducen en la naturaleza a través de los
procesos fundamentales de transferencia de información. Resume su artículo argumentando: "La
densidad de este flujo de información bien puede definir la longitud de Planck a nivel local, y con
eso todas las escalas en la naturaleza". Por lo tanto, apoya la idea de que las escalas (intervalos
de tiempo y espacio) son características objetivamente reales de la naturaleza.
Por tanto, nos parece que el mero hecho del enfoque de Bach-Weyl (que es todo lo que ofrece
Pitts) prueba poco. Puede describir mundos posibles que son totalmente invariantes de
conformidad, pero estamos interesados en un modelo que pueda representar el universo lleno
de materia que vemos a nuestro alrededor.
Entonces, ¿cuál ha sido la recepción del teorema BGV por parte de la comunidad física? Esto,
así como sus implicaciones, es en gran parte indiscutible. 14En cambio, se ha producido una nueva
ronda de construcción de modelos basada en posibles excepciones a este teorema. Se presentan
cuatro alternativas:
Dejando de lado (4) por el momento, consideremos universos que, en promedio, no se expanden
a lo largo de sus historias pasadas.
En primer lugar, entonces, estos modelos se encuentran con el importante problema del ajuste
fino de una causa. Uno afirma no solo la contingencia bruta, sino también una forma muy curiosa
de la misma. Ante el aparente ajuste fino, los físicos suelen preferir ofrecer algún tipo de
explicación. Por ejemplo, los cosmólogos están buscando ávidamente una explicación para el
aparente ajuste fino de los parámetros del modelo estándar (como las constantes de
acoplamiento de fuerzas) en la forma de un multiverso o una teoría del todo superdeterminista.
O uno piensa en la resolución inflacionaria de Guth del problema del horizonte (equilibrio
termodinámico pasado). Si vamos a renunciar a la explicación, ¿qué hay de malo en dejar la
cosmología como estaba antes de 1980, es decir, el modelo estándar del Big Bang caliente (con
el desglose asociado de la física en la singularidad)? 15
El segundo problema es que el colapso se vuelve caótico a medida que se acerca a la
singularidad. Esto producirá una condición de inicio previa a la expansión que se sabe que es
dramáticamente diferente de nuestro Big Bang real. Este fenómeno se conoce como “caos BKL”
en honor a sus descubridores [Belinsky, Khalatnikov y Lifshitz, 1970]. El mismo problema
aparecerá para todos los intentos de una línea de tiempo pasado-eterno que busquen introducir
una fase anterior al Big Bang que “rebota” en la expansión presente. De hecho, la implicación real
de BKL bien puede ser que es físicamente imposible "rebotar" a través de una "singularidad". dieciséis
Entonces, la opción (1) no es prometedora.
¿Debería juzgarse infinito el pasado con tal enfoque? Hay una afirmación de sus autores sobre
una posible eternidad pasada: “El universo sufre una serie de oscilaciones no singulares en una
fase (posiblemente) pasada-eterna con el campo evolucionando monótonamente a lo largo del
potencial” [Mulryne et al. 2005, pág. 6].
Similar a los modelos Emergentes anteriores de Ellis et al., Que propusieron un punto ESS ideal
"alcanzado" en el pasado infinito, el modelo de Mulryne et al. propone que cualquier punto que
esté cerca del punto de equilibrio estable podría servir como un estado "inicial" para el modelo.
El tamaño del universo, entonces, oscila alrededor de este estado inicial, manteniendo siempre
un valor positivo distinto de cero. Esta oscilación tiene una amplitud que está asociada con un
tamaño máximo del universo (por oscilación) que llamaremos amax i (ver [Bojowald y Tavakol
2008a, figura 2] y [Mulryne et al. 2005, figura 7]). En ausencia de la propiedad de auto-
interacción del campo escalar φ, se dice que esta condición es perpetua. Pero la energía potencial
en el sistema debe crecer, obligando a amax a crecer con cada ciclo subsiguiente. Se dice que esto
introduce una flecha cosmológica del tiempo, que se basa en el aumento evolutivo de amax.
Consideraremos que la ecuación amax (t) es fundamental; el potencial V (φ) y el campo escalar
φ (t) se someten a ingeniería inversa para producirlo; ver [Ellis, Murugan y Tsagas 2004, texto
de la sección II y figura 1], [Mulryne et al. 2005, figura 5].
En el límite t → -∞, se desea que el cambio en ax (llamé mosle ∆a evolución) entre ciclos
asíntotas a cero. Nótese que el intervalo de tiempo entre un ciclo con amplitud máxima amax i +
∆a (con ∆a arbitrariamente pequeño) y el presente es finito; esto se muestra en el análisis
numérico en [Mulryne et al. 2005]. Entonces, si el proceso inicial para alcanzar amax i + ∆a tiene
una línea de tiempo finita, la línea de tiempo completa hasta el presente es finita.
Ahora, considere una fluctuación cuántica del factor de escala, ∆ una fluctuación. Este es un
mecanismo instantáneo separado por el cual el universo puede alcanzar un tamaño mayor. Para
el universo en amax [Bojowald y Tavakol 2008a, figura 2 y ecuaciones 32 y 33], y en el límite
asintótico pasado de un estado cuántico no comprimido,18la fluctuación es aproximadamente
proporcional a amax. Entonces, mirando al pasado infinito, ∆una fluctuación será >> ∆ una
evolución.
Esto sugiere dos cosas. Primero, cuando uno mira hacia el pasado, el tamaño (típico) de las
fluctuaciones del factor de escala eventualmente excede y domina el aumento evolutivo (en
amax) entre ciclos. Como podría describirlo Vaas, no existe una flecha cosmológica del tiempo
en esta región. En segundo lugar, no parece razonable afirmar que el universo necesitará una
cantidad infinita de tiempo para crecer de un axi a una amplitud de amax i + ∆a (donde ∆a puede
ser arbitrariamente pequeño). La probabilidad debe ser la unidad de que alcance ese objetivo
mediante una transición instantánea y discreta en un tiempo finito, en oposición al crecimiento
evolutivo continuo durante un tiempo infinito.
Además, dado que la fase inicial de este modelo presenta un universo oscilante, también
encuentra una objeción de entropía a la eternidad pasada (ver sección 4.5). Parece, entonces, que
la naturaleza eterna pasada de este modelo es un artefacto matemático. No es necesario rechazar
el modelo; uno simplemente nota que debe haber un origen temporal de algún tipo en el pasado
finito.
En resumen, aquí hay un contraejemplo de la noción de Pitts de que un pasado que carece de
una singularidad debe ser necesariamente eterno.19 Los modelos emergentes que presentan
(solo) un ESS basado en GTR son metaestables.20Una mejora del modelo emergente resuelve esta
inestabilidad proporcionando modificaciones basadas en cuántica a la ecuación de Friedmann.
Como dicen los autores, esto proporciona una mejora "parcial" de la objeción de metaestabilidad
y la objeción de ajuste fino [Mulryne et al., 2005, resumen]. Pero la naturaleza de las
fluctuaciones cuánticas exige que no se pueda tener una línea de tiempo infinita durante la cual
se produzca una evolución continua y arbitrariamente pequeña en el factor de escala. Nos parece
que esta objeción se aplicaría, en general, a construcciones asintóticamente estáticas. 21
Hasta ahora, entonces, sugerimos que existen buenos argumentos para creer que los modelos
de universo contemporáneos anteriores al Big Bang que se contraen, son estáticos o se expanden
(en promedio) implican un comienzo o son insostenibles. Los modelos en expansión obedecen a
un teorema de singularidad recién descubierto (BGV) y probablemente tengan un comienzo de
naturaleza cuántica. Los modelos de contratación presentados en la alternativa (1) parecen no
ser prometedores y no agregan nada al modelo estándar de Big Bang desde el punto de vista de
la explicación. Los modelos estáticos presentados en la alternativa (2) implican un comienzo,
pero no necesariamente describen cómo llegó a existir ese estado.
Penrose admite que su punto de vista es heterodoxo en el sentido de que, para que se obtenga
este escenario previsto, todos los fermiones masivos y las partículas masivas cargadas deben
desaparecer a la radiación, incluidos, por ejemplo, los electrones libres. Admite que
(actualmente) no hay justificación para plantear esto.
La Cosmogonía Conformal Cíclica se basa en la Hipótesis de la Curvatura de Weyl (WCH) y la
implementación de Paul Tod de esta idea dentro de GTR [Tod, 2003]. WCH se define de la
siguiente manera:
La curvatura de Weyl es el tipo de curvatura cuyo efecto sobre la materia es de naturaleza
distorsionante o de marea, en lugar del reductor de volumen de las fuentes materiales ... La
conjetura física a la que me refiero como hipótesis de la curvatura de Weyl afirma que (en
algunos casos apropiados sentido) la curvatura de Weyl está restringida a cero (o al menos
muy pequeña) en las singularidades iniciales, en el universo físico real [Penrose 2005, págs.
765, 768].
Penrose describe la técnica matemática necesaria para unir una singularidad a una expansión de
De Sitter máximamente extendida:
Una falla potencial de este enfoque es la supuesta correspondencia entre la curvatura de Weyl y
la entropía. La correspondencia parece lo suficientemente clara cuando se considera la
estructura de la singularidad inicial del Big Bang, dado su pequeño estado de entropía que se
desvanece. Pero mientras que el estado final del universo similar a De Sitter también minimiza
la curvatura de Weyl, su entropía se maximiza. Como un agujero negro que obedece a la ley de
entropía de Hawking-Bekenstein, un espacio de De Sitter tiene un horizonte cosmológico con
entropía proporcional a su área. Generalmente se cree que este estado representa la máxima
entropía que puede caber dentro del horizonte.
Penrose ha optado recientemente por considerar la entropía del horizonte cosmológico como
falsa e invocar la pérdida no unitaria de información en los agujeros negros para igualar la
entropía (extremadamente pequeña) en el límite [Penrose 2009, p. 15]. Penrose atribuye la gran
entropía en los últimos tiempos del universo (pero antes de la desintegración significativa de la
población de agujeros negros del universo) a los grados de libertad internos de los agujeros
negros. Luego sugiere que en CCC la entropía del universo se "renormaliza", de modo que
podamos descontar la contribución de entropía del horizonte cuando todos los agujeros negros
se hayan evaporado.
Por otro lado, parece, a pesar de Penrose, que la entropía del horizonte cosmológico debe tener
un significado físico, ya que la entropía del sistema similar a De Sitter fuera de un agujero negro
debe ser mayor que la del propio agujero negro. Porque si no fuera así, la física de la
desintegración del agujero negro (de la que depende el escenario de Penrose) no funcionaría
correctamente. La desintegración del agujero negro es en realidad un sistema dinámico que es
la suma de la energía perdida por la radiación de Hawking más la energía ganada por la absorción
de materia local creada por las fluctuaciones térmicas debidas a la temperatura de De Sitter
Gibbons-Hawking. El mero hecho de estas fluctuaciones térmicas sugiere que la entropía del
horizonte cosmológico es una manifestación física real en contraposición a un truco contable.
Como experimento mental, uno puede imaginar lo que sucede a medida que se agrega más y
más materia externa (además de la agregada por las fluctuaciones térmicas del entorno externo)
a un agujero negro. ¿Existe un tamaño máximo? A medida que el agujero negro se agranda, su
temperatura desciende, acercándose a la del fondo cósmico. De hecho, en cierto punto, el agujero
negro se vuelve físicamente indistinguible de un horizonte cósmico y puede identificarse como
tal. En ningún momento se vuelve irreal. Por lo tanto, parece injustificado abrazar la última
posición de Penrose (2009), y muy pocos físicos han sido persuadidos por la marca no unitaria
de física cuántica de Penrose.
En resumen, mientras que la curvatura de Weyl es la misma entre los dos estados que Penrose
desea decir que son idénticos, la entropía no lo es. Nos parece, entonces, que los dos estados no
pueden ser idénticos. Por lo tanto, cuestionamos la viabilidad de CCC.
Parece, entonces, que los modelos cíclicos no evitan la conclusión de que el tiempo tuvo un
comienzo. Las objeciones termodinámicas a los modelos cíclicos, cuyas anticipaciones "clásicas"
se vieron en los primeros trabajos de Richard Tolman en la década de 1930 [Tolman, 1934],
todavía parecen encontrar apoyo. La entropía debería aumentar de ciclo a ciclo, lo que implica
que (1) ahora deberíamos estar en una “muerte por calor” termodinámica (que no lo estamos) y
(2) el tamaño máximo (factor de escala) del universo debería crecer con cada ciclo. Este
comportamiento "clásico" a gran escala probablemente termina cuando (mirando hacia el
pasado) el tamaño del ciclo se reduce a la física de Planck. Si se niega la ganancia de entropía,
entonces la observación empírica de una constante cosmológica de tamaño suficiente para
conducir a una expansión abierta en lugar de una contracción futura (este parece ser el destino
de nuestro universo) también implica que no puede haber habido un ciclo anterior. Si nuestro
futuro incluye un regreso a una condición singular, entonces, como afirma Banks (recordando
nuestra discusión anterior sobre el caos de BKL), “Parece tonto imaginar que, incluso si [una
condición singular futura para el universo] es seguida por una re-expansión, que uno comenzaría
esa expansión con un estado inicial de baja entropía, o que uno tenía algún control sobre el estado
inicial ”[pers. com. 17 de octubre de 2008]. incluso si [una condición singular futura para el
universo] es seguida por una re-expansión, que uno comenzaría esa expansión con un estado
inicial de baja entropía, o que uno tuviera algún control sobre el estado inicial en absoluto ”[pers.
com. 17 de octubre de 2008]. incluso si [una condición singular futura para el universo] es
seguida por una re-expansión, que uno comenzaría esa expansión con un estado inicial de baja
entropía, o que uno tuviera algún control sobre el estado inicial en absoluto ”[pers. com. 17 de
octubre de 2008].
La razón intuitiva por la que la inflación de De Sitter no puede ser eterna es que, en el espacio
completo de De Sitter, la expansión exponencial está precedida por una contracción
exponencial. Esta fase de contracción no forma parte de los modelos inflacionarios estándar
y no parece ser coherente con la física de la inflación. Si las regiones termalizadas fueran
capaces de formarse hasta el infinito pasado en el espacio-tiempo en contracción, todo el
universo se habría termalizado antes de que pudiera comenzar la expansión inflacionaria
[Borde, Guth y Vilenkin, 2003, p. 1].
Para obtener un resultado diferente, Aguirre y Gratton optan por interpretar el espacio de Sitter
de acuerdo con un procedimiento sugerido por primera vez por Erwin Schrödinger en 1956.
Utilizando el “espacio elíptico de Sitter”, reasignan el reloj de arena dividiéndolo en dos a lo largo
de una línea desde la parte superior. izquierda a la parte inferior derecha. Para todos los efectos,
estos son dos universos separados. Maulik Parikh explica cómo se ve esto para los observadores
antípodas en lados opuestos de la división:
El mapa antípoda, XI → −XI, [donde 'I' es un ı́ndice dimensional] cambia el signo de la
coordenada temporal del espacio de inserción, y también el de la dirección del tiempo en el
espacio de De Sitter. El espacio cociente resultante, dS / Z2, no es, en consecuencia, orientable
en el tiempo: aunque uno puede distinguir localmente el pasado y el futuro, no existe una
dirección global del tiempo. Este hecho claramente cambia muchas nociones estándar sobre
el espacio y el tiempo a las que estamos acostumbrados. Por ejemplo, es imposible elegir una
superficie de Cauchy para el espacio elíptico de Sitter que divide el espacio-tiempo en una
región futura y una pasada [Parikh et al., 2002, p. 6, énfasis añadido].
Como puede verse, ninguna región del espacio reasignado se encuentra en una relación anterior
a la otra. No existe una definición global de tiempo. Como señala Parikh anteriormente, es
imposible determinar una región pasada y futura (al considerar el reloj de arena completo). Un
asunto de cierta importancia es que no hay comunicación; no hay causalidad por definición de
una región a otra. Por lo tanto, se puede decir que no existe un pasado eterno que se haya
convertido en nuestro presente. De modo que el uso de Aguirre y Gratton del término "pasado
eterno" parece ser idiosincrásico en el sentido de que interpretan la capacidad de uno para
dibujar geodésicas "completas" (que significa "de un extremo del espacio-tiempo al otro",
aunque ningún observador o cadena causal pudo atravesarlos) de un extremo a otro en un
gráfico para ser una condición suficiente de "eterno".
Aguirre y Gratton concluyen: “Sospechamos que una construcción como la que aquí se propone
puede ser necesaria en cualquier modelo razonable de un universo eterno que evite el comienzo
del tiempo” [Aguirre y Gratton, 2002, p. 6]. Sugerimos, por el contrario, que si tienen razón,
entonces se ha demostrado el comienzo de los tiempos. En lugar de un universo eterno pasado,
uno tiene un multiverso finito pasado. Este modelo es un ejemplo perfectamente viable de un
modelo cosmológico que evita los teoremas de singularidad pero todavía "comienza a existir", a
pesar de una extensibilidad técnica pasada a través de la frontera.
Podemos reanudar aquí nuestra discusión de modelos cíclicos en la sección 4.5. Martin
Bojowald ha argumentado recientemente que los eventos de rebote de un modelo cíclico en
realidad representan un escenario similar al “doble Big Bang” de Aguirre-Gratton descrito
anteriormente. Las mediciones de un estado del universo "después" de un rebote no se pueden
utilizar de manera realista para derivar el conocimiento del estado del universo "antes" del
rebote. Por tanto, el modelo contiene el "olvido cósmico" como una característica destacada. De
manera similar, un observador justo “antes” de un rebote encontraría que los intentos de
predecir el futuro posterior al rebote también sufren de olvidos cósmicos. Bojowald interpreta
la situación de la siguiente manera:
El tipo de olvido cósmico realizado en este modelo proporciona una orientación del tiempo,
diciéndonos no solo qué propiedades antes del big bang pueden olvidarse, sino también qué
dirección es "antes del big bang". Un observador después del rebote sería incapaz de
reconstruir el estado completo antes del rebote, pero podría predecir fácilmente el desarrollo
futuro hacia un volumen mayor. Esta flecha concuerda con la noción estándar.
Ahora, preguntando cómo un observador antes del Big Bang experimentaría la misma
situación, la respuesta también es clara: tal observador sería incapaz de determinar el estado
preciso en valores más grandes de φ [que es un campo de materia utilizado en el papel de un
reloj ] más allá del rebote, pero podría extrapolar fácilmente el estado a valores más
pequeños de φ [la dirección que se aleja del 'rebote']. Se puede predecir el estado con valores
más pequeños de φ, mientras que el estado con valores grandes de φ se olvida una vez que
se penetra el rebote. Dado que uno no puede olvidar el futuro, a ese observador se le debe
atribuir una flecha de tiempo invertida, apuntando hacia φ más pequeño. En el rebote,
emergerían dos flechas apuntando en direcciones opuestas en lo que respecta a φ. En este
sentido, el modelo se parece a [Aguirre-Gratton y sugerencias similares de otros dos equipos
de modelado utilizando métodos diferentes]… ..
Tomar los modelos más simples de la cosmología cuántica de bucles al pie de la letra a
menudo se ve como una sugerencia de que la transición del Big Bang debe verse como un
rebote suave, como un elemento más no solo en una larga historia del universo en sí, sino
también en una larga historia de rebotes. modelos cosmológicos. Sin embargo, algunas
indicaciones sugieren lo contrario. El escenario floreciente de la cosmología cuántica de
bucles bien puede ser el siguiente: un universo a cuya prehistoria invertida en el tiempo no
podemos acceder, pero que captamos en la forma de condiciones iniciales que proporciona
para nuestra parte accesible; un pseudo-comienzo; un universo huérfano, mostrado el
trasero por lo que lo precedió (y posiblemente lo creó) [Bojowald 2009, p. 15 (énfasis
agregado).
Desde este punto de vista, un enfoque cuántico de bucle predice un origen a partir del cual surge
un multiverso. La continuación a través del límite de "rebote" en realidad representa otros
universos en expansión física. Zeh y Claus Kiefer llegan a una conclusión similar argumentando
directamente a partir de la ecuación de Wheeler-DeWitt dentro del formalismo de la
geometrodinámica cuántica.
Uno podría preguntarse qué sucede en el caso de los modelos que describen clásicamente
cosmologías rebotantes: el Universo pasaría entonces por muchos, quizás infinitos, ciclos de
expansión y colapso. ¿Qué pasaría con la entropía en estos casos? Si la entropía estuviera
realmente correlacionada con el factor de escala, como sugiere el escenario discutido
anteriormente, la flecha del tiempo no continuaría a través de un punto de inflexión. Por
tanto, los modelos de rebote no tendrían sentido en cosmología cuántica; uno solo tendría
ramas de la función de onda en las que la flecha apuntaría de un universo pequeño a grande
y donde el tiempo terminaría al acercarse a un punto de inflexión clásico [Kiefer 2009, p. 9].
Las diferentes ramas cuasiclásicas de la función de onda que están conectadas por
"dispersión cuántica" en el punto de inflexión deben interpretarse como que todas representan
diferentes universos en expansión. , que desaparecen en el punto de inflexión por medio de
una interferencia destructiva (similar a su aparición como ramas separadas de Everett de un
estado inicial simétrico en el Big Bang) [Zeh y Kiefer, 1994, p. 4152, énfasis añadido].
Aquí, la física de Wheeler-DeWitt (con una condición de frontera de una función de onda que
desaparece) parece predecir la creación ex nihilo de un multiverso de Everett en lugar de un
colapso.
Recordando el modelo de Penrose, supongamos que concedemos su inversión en entropía
cuando uno mira hacia el futuro lejano del universo. También se puede interpretar que su
modelo tiene una flecha invertida del tiempo cuando se mira al "pasado" de una singularidad del
Big Bang, para obedecer una segunda ley de la termodinámica. Como tal, mostraría precisamente
el comportamiento citado anteriormente por los enfoques Aguirre-Gratton, Bojowald y Zeh-
Kiefer. Físicamente, la pregunta es si, en nuestro universo, se alinean varias flechas del tiempo
(termodinámica, cosmológica, electromagnética, psicológica). Filosóficamente, la cuestión es si
existe un tiempo metafísico subyacente que los tiempos físicos se manifiestan de diversas
formas.24 La extensibilidad, según este entendimiento, sería un artefacto técnico más que una
indicación de la eternidad pasada.
Situar el comienzo del tiempo clásico en un límite del pasado puede tener una implicación
dramática señalada por primera vez por el filósofo Quentin Smith. Los comentarios de Smith
estaban dirigidos a la interpretación de Hawking del tiempo imaginario que aparece en la
cosmogonía de la gravedad cuántica de Hartle-Hawking. Hawking estaba intentando postular
una fase de tiempo "imaginaria" para el universo que pasó a una fase de tiempo "normal"
posterior. Smith dice:
… .. tal interpretación es implícitamente lógicamente contradictoria [al presentar un eje de
'tiempo' que comienza como una dimensión espacial, pero luego se transforma en sus
propiedades familiares]. El problema aparece en la afirmación de que el espacio
tetradimensional se une al espacio-tiempo real (Lorentziano) 'una vez' (es decir, después)
los efectos de difuminado cuántico desaparecen: 'Entonces surge la pregunta sobre la
geometría del espacio tetradimensional que de alguna manera tiene que unirse suavemente
al espacio-tiempo más familiar una vez que los efectos de difuminado disminuyan ''. Si el
espacio de cuatro dimensiones no posee un valor de tiempo real, ¿cómo puede estar en
relación con el espacio-tiempo de cuatro dimensiones de ser anterior a él? Si el espacio de
cuatro dimensiones no está en tiempo real (Lorentziano), entonces no es realmente antes,
después de, o simultánea con la variedad de espacio-tiempo de cuatro dimensiones. En
consecuencia, es falso que la 4-esfera se una al espacio-tiempo familiar una vez (es decir,
después en tiempo real) que los efectos cuánticos se disipen [Smith, 1993, p. 318].
Smith más tarde demostró [Smith, 1997; 2000] que estas dos (en realidad tres; hay una región
de transición) "etapas" del modelo HH podrían coexistir coherentemente en el mismo modelo
sólo si se encontraban en un contexto "topológico" más primitivo. relación, 25en lugar de
temporal. Por lo tanto, si dos etapas de una cosmogonía no estuvieran en el mismo eje de tiempo,
entonces sería falso atribuirles una relación anterior o posterior a, aunque existiera la
extensibilidad entre las fases relevantes del universo. Recuerde, por ejemplo, que Penrose niega
un valor en tiempo real a su límite como una necesidad física. Cuando Penrose dice, "el futuro
remoto de una fase del universo se convierte en el Big Bang de la siguiente", su afirmación es
posiblemente incoherente en el contexto de su modelo.
Nos parece que la percepción de Smith se aplica en general a los modelos cosmológicos, ya
sean modelos relativistas generales clásicos (que por tanto incluyen singularidades) o modelos
de gravedad cuántica (que incluyen “regiones cuánticas fuertes”). La "primera" fase (que,
alternativamente, podría ser un límite de "transición" entre diferentes espaciotiempos clásicos
o semiclásicos) por definición no posee un valor de tiempo. Como señala Smith, debido a que una
fase del modelo que carece de un valor en tiempo real no es anterior, simultánea o posterior a
cualquier otro estado del universo (con respecto a una fase que sí tiene valores en tiempo real),
no es correcto decir que el universo evolucionó de algún estado "en" el límite a algún estado con
un valor en tiempo real.
Los propios teóricos cuánticos de bucles utilizan un lenguaje muy similar. 26Desde el punto de
vista de Smith (de manera similar, Ashtekar et al.), Parece correcto ver esta era como una
variedad primitiva con relaciones topológicas solo entre los "ciclos". Los ciclos de la era "más
temprana" parecen ser un conjunto de espaciotiempos desconectados que carecen de un orden
temporal. Uno podría igual de bien navaja27estos fuera. Uno se queda con un espacio-tiempo con
una línea de tiempo pasada finita y sin primer momento, que se convierte en un universo
macroscópico similar al nuestro.
Por tanto, parece que las «singularidades» se resuelven o no. Si es así, uno tiene un modelo
anterior al Big Bang y enfrenta problemas como una flecha del tiempo que desaparece, una flecha
del tiempo invertida y / o problemas de entropía. Si no (lo que significa que el tiempo se
'disuelve'), entonces no hay fases 'previas al Big Bang', ya que esas fases son inconmensurables
con respecto a nuestro universo similar a FRW.
Se recuerda la insistencia de Pitts en un primer momento como condición necesaria del
comienzo de los tiempos [Pitts, 2008, p. 677]. Precisamente la situación contraria puede darse,
genéricamente, en modelos de los tipos discutidos, a pesar de la extensibilidad técnica de las
geodésicas a través de la frontera. Sugerimos que esta situación representa una creación ex
nihilo tan seguramente como la singularidad del Big Bang en la cosmología estándar representa
en sí misma un comienzo absoluto.28
En resumen, entonces, nos parece que se puede argumentar fuertemente a favor de un
comienzo del universo con respecto a las cosmogonías anteriores al Big Bang (solo algunas de
las cuales involucran modelos no singulares), por lo que (9) es prescindible por lo que en lo que
respecta a la premisa (2) del argumento cosmológico kalām, independientemente de cuán crítico
pueda ser para el argumento de la singularidad imaginada de Pitts.
Hartle y Hawking también afirman que su modelo cosmogónico se puede interpretar de tal
manera que, según esa interpretación, el universo nació de la "nada":
Se puede interpretar que la integral funcional de todas las cuatro geometrías compactas
limitadas por una geometría tres dada da la amplitud para que esa geometría tres surja de
una geometría cero tres; es decir, un solo punto. En otras palabras, el estado fundamental es
la probabilidad de que el Universo aparezca de la nada [Hartle y Hawking, 1983, p. 2961].
Según estos modelos, el universo claramente tiene un comienzo; pero ¿qué significa "nuclearse
de la nada"? Nos parece que hay cuatro formas posibles de interpretar esta noción:
1. La topología nula "inicial"30representa la nada literal. Uno podría imaginar que "nada", tal
como lo empleó Hartle-Hawking, tiene exactamente el significado relevante para el
argumento cosmológico kalām, a saber, la afirmación positiva del no ser. Si esto es lo que
se quiere decir aquí, entonces los modelos de este tipo presentan una creatio ex nihilo
inequívoca. Se mantiene la segunda premisa del argumento cosmológico kalām, y el
debate se desplaza hacia la primera premisa.
2. La topología nula "inicial" debe interpretarse de forma puramente instrumental. El propio
Hawking parece dar una buena base para tratar a Hartle y su propuesta como un enfoque
FAPP (es decir, "para todos los propósitos prácticos") solamente. El formalismo HH
considera una superposición de todas las geometrías cuánticas posibles, con nuestro
universo emergiendo como el más probable, y utiliza el enfoque de "suma sobre
historias" de Richard Feynman a la mecánica cuántica para predecir los observables del
universo. Este formalismo trata el tiempo, en la era de la gravedad cuántica, como una
cuarta dimensión espacial. Pero en su colaboración con Roger Penrose, La naturaleza del
espacio y el tiempo, Hawking emplea el mismo enfoque matemático (continuación
analítica) para describir la producción de pares de pares de electrones / positrones en un
campo eléctrico fuerte [Hawking y Penrose, 1996, p. 54]. Esta es una técnica matemática
estándar que a veces se usa cuando las funciones analíticas complejas se comportan
mejor en un determinado dominio que sus contrapartes reales. Sin embargo, no implica
un compromiso ontológico con la descripción alternativa. Nos parece que dada la
ininteligibilidad de la región del “tiempo imaginario” en estos modelos, es más razonable
tratar este régimen como una ficción útil. Por tanto, el modelo sólo sirve para reforzar la
segunda premisa del argumento cosmológico kalām.
3. La topología nula "inicial" es literalmente algo. Los intentos de tomar la interpretación del
tiempo imaginario de manera realista pueden tropezar con problemas similares a los que
señaló Smith [Smith 1993, 1997]. De hecho, un trabajo más reciente que utiliza
simulaciones por computadora de la evolución del espacio-tiempo sugiere que el espacio-
tiempo clásico no puede haber surgido de un espacio 4 euclidiano como el que se
visualiza en el modelo HH. Renate Loll, Jan Ambjorn y Jerzy Jurkiewicz explican:
Algunas de las ideas más creídas sobre la gravedad cuántica son, de hecho, erróneas. Por
ejemplo, Stephen Hawking y otros solían argumentar que la estructura causal no era
esencial y que los cálculos se podían hacer en gravedad cuántica ignorando las diferencias
entre el tiempo y el espacio (diferencias que existen incluso en la teoría de la relatividad)
y tratando el tiempo como si fuera otro. dimensión del espacio [tiempo imaginario]… .. Los
resultados de Ambjorn y Lolle muestran que esta idea es incorrecta.
… .. En particular, se demostró… .. que si no se pone ninguna restricción con respecto a la
causalidad, no surge la geometría clásica del espacio-tiempo… ..
Una de las reglas que imponen Loll y Ambjorn es que cada espacio-tiempo cuántico debe
verse como una secuencia de posibles espacios que se suceden, como los tics de un reloj
universal. La coordenada de tiempo, se argumenta, es arbitraria, como en GTR, pero el
hecho de que la historia del mundo pueda verse como una sucesión de geometrías que se
suceden no lo es [Smolin 2006, pp. 242–43].
Curiosamente, la trayectoria de la investigación de la gravedad cuántica tiende a corregir el
enfoque del "tiempo imaginario" y, al hacerlo, a afirmar la importancia de las relaciones
consistentes antes / después de y la causalidad fundamental.
4. La topología nula "inicial" está mal concebida. J. Richard Gott y Li Xin Li han criticado el
enfoque creatio ex nihilo de Vilenkin (y Hartle-Hawking) por dos motivos. Primero, las
transiciones en QM son siempre entre estados clásicos permitidos. Pero el enfoque de
Vilenkin y Hartle-Hawking tiene una transición de una región clásicamente prohibida a
una región clásicamente permitida. En segundo lugar, los enfoques de Vilenkin y Hartle-
Hawking deberían contener campos de energía realistas (algo más cercano a lo que
realmente vemos en la naturaleza). Si lo hicieran, entonces el principio de incertidumbre
de Heisenberg requeriría que el estado inicial de sus modelos tuviera una energía finita y
distinta de cero. Si ese es el caso, entonces los modelos cuánticos semiclásicos como los
de Vilenkin y Hartle-Hawking realmente comienzan en un estado metaestable
clásicamente permitido, en lugar de "nada". Gott y Li elaboran:
Por lo tanto, parece que tenemos el mismo tipo de situación que encontramos con respecto al
modelo Emergente con su ESS metaestable asociada. El universo no puede ser más allá de la
eternidad porque el estado metaestable inicial sólo puede haber tenido una vida finita. La
interpretación de Gott-Li parece ser una opción razonable para una interpretación realista de
estos modelos.31Emplea interpretaciones conocidas y significativas de los fenómenos físicos de
la teoría cuántica "clásica" y las extiende a los modelos de gravedad cuántica. Se evitan los
problemas asociados con la novedad de afirmar una condición de energía cero para el estado
inicial (negada por el principio de incertidumbre de Heisenberg), la novedad de afirmar una
transición cuántica de un estado prohibido a uno clásicamente permitido (la teoría cuántica
normal incluye solo transiciones sobre o a través de regiones prohibidas de un estado permitido
a otro), y es consistente con campos de energía más realistas. Esta alternativa, por supuesto,
también es consistente con la segunda premisa del argumento cosmológico kalām.
Expresiones de gratitud
Agradecemos a Martin Bojowald, Thomas Banks, George Ellis, Alexander Vilenkin, Donald Page,
Quentin Smith, Timothy McGrew, Rüdiger Vaas y Christian Böhmer por sus útiles discusiones y
comentarios.
Notas
1. Escribiendo en Cambridge Companion to Atheism, Quentin Smith informa, “un recuento de los artículos en las revistas de
filosofía muestra que se han publicado más artículos sobre… .. el argumento de Kalām que los que se han publicado sobre la
formulación contemporánea de cualquier otro filósofo de un argumento a favor de La existencia de Dios ”[Smith, 2007, p.
183]. Para la historia del argumento, ver Craig [1980]; para literatura y una defensa reciente del argumento, ver Craig y
Sinclair [2009].
2. En algunos lugares, Pitts reconoce esto: “La verdad de la segunda premisa [del argumento cosmológico kalām], o más bien,
la fuente de justificación para la segunda premisa, si es cierta, es la pregunta clave” [Pitts, 2008, p. 687; cf. pag. 676].
3. Entonces, argumentar (evitando la falacia de la composición) sería desafiar la verdad, no de (2), sino de (1), del argumento
cosmológico kalām. A veces, Pitts combina lo que en realidad son desafíos a (1) con objeciones putativas a (2). Por ejemplo,
su mención del tetradimensionalismo como una interpretación del espacio-tiempo “autoexplicativo” [Pitts, 2008, p. 688] es
un ejemplo de ello. Una vez más, el argumento del Destructor Cósmico de Pitts es realmente una objeción a (1): si la llegada a
la existencia del universo debe tener una causa, entonces también debe tener su cese de ser.
4. De paso, uno no puede evitar preguntarse cómo la imposición de restricciones topológicas a la doctrina de la creación en el
tiempo, como haría Pitts, es modalmente enriquecedora, como él afirma, ya que entonces hay mundos posibles (como,
aparentemente, el mundo real) en que el universo carece de un primer momento y, por lo tanto, no se puede decir, según
Pitts, que haya sido creado en el tiempo por Dios.
5. Es digno de mención que Earman, cuya objeción se hace eco de Pitts, al final no niega la aceptabilidad de nuestra explicación
de "comienza a existir", sino que simplemente advierte que en tal premisa de lectura (1) "no es una" verdad metafísica "obvia;
" en particular (1) no se sigue del principio de que todo evento tiene una causa, que se satisface en la cosmología relativista
general [Earman, 1995, p. 208].
6. NB, tanto el argumento de Pitts como nuestra respuesta se limitan a un universo falso donde GTR es la teoría fundamental
de la gravedad.
7. También notamos que no hay una buena razón para pensar que el convencionalismo métrico se mantenga en el mundo real.
Como se ha argumentado en otra parte [Craig, 2001, cap. 2], el convencionalismo métrico es una tesis inverosímil para la que
no existen buenos argumentos.
8. Al menos vale la pena señalar que Pitts, no contento con la promesa de la cosmología cuántica actual, llega a defender los
derechos de los no nacidos y, de hecho, las hipótesis no concebidas como base para el escepticismo sobre (9):
El conjunto relevante de competidores para GTR incluye el conjunto de teorías que concuerdan con GTR en todos los
experimentos hasta la fecha, ya sea que ya se hayan entretenido en la Tierra o no. Este conjunto podría ser infinito, bien
podría ser grande, probablemente contiene varios miembros y es casi seguro que tenga al menos un miembro, una
teoría cuántica de la gravedad. Lo más probable es que el conjunto tenga al menos un miembro que resuelva las
singularidades de GTR. Por lo tanto, en el régimen de campo fuerte no está del todo claro por qué uno debe tomarse en
serio a GTR [Pitts, 2008, p. 696].
La sentencia final de Pitts es non sequitur. Como ha señalado Timothy McGrew en una conversación personal, para montar un
desafío significativo a GTR no es suficiente mostrar que es probable que exista una teoría desconocida de la gravedad cuántica
que comparte la adecuación empírica de GTR hasta la fecha y resuelve las singularidades de GTR. Pitts también necesita
demostrar que esta teoría competidora desconocida tiene, en comparación con GTR, una probabilidad previa no despreciable.
Porque puede haber otros factores primordiales que sean relevantes para su probabilidad, por ejemplo, su falta de
simplicidad o elegancia. Dado que estas teorías no son concebidas, es difícil ver cómo Pitts puede saber tal cosa. En todo caso,
como comentamos en el texto, la cuestión importante no es si esa teoría desconocida resuelve las singularidades de GTR, sino
si el universo físico descrito por la teoría es infinitamente extrapolable al pasado. Lo que uno quiere de Pitts es alguna
evidencia o argumento de que existe una teoría desconocida de la gravedad cuántica que cumple con todos los desiderata.
9. Nuestra intención es proporcionar una actualización complementaria a la discusión en [Craig & Sinclair 2009]. Así, por
ejemplo, el material del ensayo original tenía un contenido significativo sobre cosmogonías basadas en cuerdas que no se
repetirá aquí.
10. También nos permite considerar los registros del pasado, como nuestros propios recuerdos, como reliquias de una realidad
verdadera, en contraposición a una ilusión. Sostendremos que la luz de las estrellas que aparece en nuestros telescopios en
el presente en realidad provino de una estrella distante en un pasado real. Las llamadas interpretaciones 'de arriba hacia
abajo' del enfoque integral de la trayectoria de Feynman para la gravedad cuántica [Hawking, 2003], o 'historias
decoherentes' (ver [Hartle 1998] y [Dowker & Kent, 1996], son ejemplos de enfoques de gravedad cuántica que negaría la
realidad objetiva de un pasado único que evolucionó hacia el presente. Esto no significa, necesariamente, que estos enfoques
deban ser rechazados. Más bien, rechazamos la interpretación del formalismo. Hawking, en la referencia anterior, dice acerca
de su propia teoría que "Uno puede interpretar esto en la imagen de abajo hacia arriba como la creación espontánea de un
universo inflado de la nada". Desde este punto de vista, tenemos precisamente la creación ex nihilo que presta evidencia
hacia la segunda premisa de kalām.
11. Esta implicación fue afirmada por Vilenkin en una comunicación personal el 4 de marzo de 2004. Nótese que esta conclusión
se aplicaría a la conocida cosmogonía Ekpyrotic de Paul Steinhardt y Neil Turok mencionada por Monton. Su modelo tiene
un límite pasado genuino y por lo tanto concuerda con la segunda premisa del argumento cosmológico kalām. Consulte [Craig
y Sinclair, 2009] para obtener una explicación más detallada.
12. Véase también la colección de artículos de Brett McInnis [McInnis, 2007a], [McInnis, 2007b], [McInnis, 2008]. McInnis
proporciona un argumento alternativo de por qué la inflación debe tener un origen último. Sugiere que en la teoría de cuerdas
(por razones puramente geométricas), la flecha del tiempo solo puede originarse en un evento de creación topológica "de la
nada", como en la propuesta de Vilenkin (ver la sección 5 de nuestro artículo). Los universos burbuja subsiguientes, ya sean
espaciales-tiempos incrustados o distintos desconectados (ver [Carroll y Chen 2004]), tendrán una flecha del tiempo solo si
la heredan de su madre. Por lo tanto, dada nuestra flecha observada del tiempo, sabemos que tenemos una "madre" última
que nació a través de la creación ex nihilo.
13. Para ilustrar, uno de los autores participó una vez en un ejercicio similar mientras trabajaba en la industria de Defensa. El
autor señaló que un modelo particular de combate aire-aire incluía explícitamente vuelos de misiles contra objetivos aéreos.
Se construyó un modelo mucho más elegante (y eficiente) derivando un conjunto de ecuaciones mediante las cuales los
intervalos de tiempo y distancia podían eliminarse del formalismo. El combate podría describirse mediante una secuencia
de impacto de salvas de misiles que no hace referencia a los intervalos de tiempo o espacio entre las llegadas de las salvas.
Ahora bien, ¿el mero hecho de la existencia de este modelo (y su superioridad en términos de simplicidad, alcance explicativo,
etc.) implicaría que los intervalos de tiempo y espacio no existen? Esta sería una conclusión ridícula, como lo demostraría
cualquier experiencia como aviador de combate. La superioridad aérea se mantiene al tener el misil de alcance superior (un
intervalo de distancia) o el vuelo más corto (intervalo de tiempo) de modo que el misil llegue primero. Son precisamente los
intervalos los que producen el orden de impacto de las salvas y, por tanto, la superioridad aérea. La vida y la muerte
individuales, incluso el surgimiento y la caída de los imperios, se basan en esta conclusión. Uno recuerda el consejo de
Einstein de que deberíamos hacer nuestros modelos lo más simples posible, pero no demasiado simples.
14. Ver [Aguirre 2007] para un intento detallado de eludir BGV a favor de una cosmogonía no singular invertida en el tiempo o
"emergente". Estas sugerencias de Aguirre se consideran en las secciones 4.4 y 4.6.
15. Véase, por ejemplo, [Earman y Mosterin, 1999] para un argumento relacionado.
dieciséis. Véase también [Damour y Henneaux, 2000] cuyos resultados actualizan BKL para considerar cosmologías de cuerdas
cuánticas: “… .. nuestros hallazgos sugieren que la inhomogeneidad espacial aumenta continuamente hacia una singularidad,
ya que todos los parches cuasi-uniformes del espacio se dividen en los más pequeños por la evolución oscilatoria caótica. En
otras palabras, la estructura del espacio-tiempo tiende a desarrollar una especie de 'turbulencia' ”.
17. Ellis sí indica que un pasado finito es una forma posible aceptable para un modelo emergente [Ellis y Maartens, 2004, sección
V, p. 5].
18. El estado cuántico no debe exprimirse infinitamente para que sea semiclásico (ver sección 4.5); el punto de equilibrio central
sólo existe si se cumple el supuesto semiclásico.
19. Ver [Craig & Sinclair 2009] para una discusión extensa de otra cosmogonía asintóticamente estática, el modelo de inflación
pre-Big Bang basado en cuerdas de Maurizio Gasperini & Gabrielle Veneziano. Véase [Kaloper et al. 1998] por una crítica
similar basada en la fluctuación del campo dilatón.
20. Ver también [Tavakol y Carneiro, 2009]. El argumento es que el pasado es infinito. Pero un método sugerido para dejar la
EEE estabilizada para permitir una expansión inflacionaria invoca un túnel cuántico desde un mínimo local en potencial (EEE
estabilizada) a un mínimo global (inflación abierta). Pero este mínimo local es un estado metaestable con una vida útil finita.
Por tanto, el modelo no es más allá del infinito.
21. Ejemplos en la literatura reciente de cosmogonías no singulares asintóticamente estáticas incluyen, por ejemplo, [Falciano
y Pinto-Neto, 2009], [Seahra y Böhmer, 2009] y [Barrow y Tsagas, 2009]. El primero compara las predicciones de tales
modelos con las perturbaciones escalares cuánticas observadas en la radiación de fondo cósmico a través de la sonda de
anisotropía de microondas Wilkinson y arroja dudas sobre su viabilidad última. El segundo y el tercero investigan la
viabilidad de un modelo de ESS eterno pasado. El artículo de Seahra y Böhmer muestra que un ESS es inestable a algún tipo
de perturbación para las teorías genéricas de la gravedad cuántica y la ecuación de estado genérica (es decir, el tipo de
materia / energía que reside en el universo) para las teorías de la gravedad f (R). El artículo de Barrow y Tsagas explota una
región de estabilidad para ESS para universos de materia "fantasma" o "fantasma". Ver [Craig y Sinclair,
22. Banks se queja,
“Tengo un problema con TODAS las cosmologías cíclicas ... La fase de colapso de estos modelos siempre tiene un
hamiltoniano dependiente del tiempo para las fluctuaciones del campo cuántico alrededor del fondo clásico. Además,
los trasfondos clásicos se están volviendo singulares. Esto significa que las teorías de campo se excitarán a estados de
energía cada vez más altos (defina la energía de alguna manera adiabática durante la era en la que la cosmología todavía
varía bastante lentamente, y use esto para clasificar los estados, aunque no se conserve). Los estados de alta energía en
la teoría de campos tienen la propiedad ergódica: se termalizan rápidamente, en el sentido de que el sistema explora
todos sus estados. Willy Fischler y yo propusimos que en esta situación tenderías de nuevo a maximizar la entropía. A
esto lo llamamos Black Crunch y sugerimos que la ecuación del estado de la materia volvería a tender hacia p = r. Parece
tonto imaginar que, incluso si esto es seguido por una re-expansión, que uno comenzaría esa expansión con un estado
inicial de baja entropía, o que uno tuviera algún control sobre el estado inicial ”(com. Pers., 12 de octubre de 2008) .Una
advertencia importante es que nunca se ha logrado una descripción general de la entropía en presencia de la gravedad
(ya sea en GTR o en la gravedad cuántica aún no descubierta). Pero hay algunos casos especiales que la mayoría de los
cosmólogos consideran confiables [ver Carroll, 2007, diapositivas 11 y 12], como la entropía de un gas térmico, agujeros
negros y horizontes cósmicos (este último relacionado con una constante cosmológica positiva ). Se cree que estos tres
casos representan los contribuyentes de entropía dominantes al universo durante tres eras diferentes: el universo
temprano (gas térmico), el presente (agujeros negros) y el futuro lejano (un horizonte cósmico "puro" parecido a De
Sitter). . Si estos casos especiales son precisos, demuestran que la entropía aumenta a medida que el universo envejece,
proporcionando así alguna prueba de una segunda ley generalizada de la termodinámica.
23. Véase también [Coule 2008], donde se sugiere que la máxima entropía está limitada por el límite holográfico (entropía del
horizonte cósmico para un universo de De Sitter), y que la entropía de un rebote viola esta restricción.
24. Un filósofo que simpatice con una teoría del tiempo tensa tendría un fundamento adicional para creer que tales modelos
realmente representan un multiverso que se propaga desde un origen común. Habría una razón por la cual las flechas
cosmológica, termodinámica, electromagnética y psicológica del tiempo se alinearían todas; son manifestaciones físicas del
mismo devenir temporal subyacente del tiempo metafísico.
25. Tenga en cuenta que Smith y Pitts están interesados en diferentes características topológicas del espacio-tiempo. La
preocupación de Pitts es si el universo tiene un primer momento. La preocupación de Smith es si la topología de una variedad
espaciotemporal (p. Ej., Hoja ininterrumpida, toro, figura en ocho, etc.) es más fundamental que sus aspectos métricos.
26. “… .. la cuestión de si el universo tuvo un comienzo en un tiempo finito ahora está 'trascendida'. Al principio, la respuesta
parece ser "no" en el sentido de que la evolución cuántica no se detiene en el Big Bang. Sin embargo, dado que la geometría
del espacio-tiempo se 'disuelve' cerca del big-bang, ya no existe una noción de tiempo, o de 'antes' o 'después' en el sentido
familiar. Por lo tanto, estrictamente, la pregunta ya no tiene sentido. El paradigma ha cambiado y las preguntas significativas
ahora deben formularse de manera diferente, sin utilizar nociones ligadas a los espacios-tiempos clásicos ”[Ashtekar,
Bojowald y Lewandowski, 2003, pág. 263, énfasis nuestro].
27. "¿Y por qué no aplicaríamos la navaja de Occam a la prehistoria?" (Bojowald 2009, pág.16)
28. Una creación ex nihilo tiene más sentido que postular la emergencia del tiempo "desde" un estado cuántico puro. Agustín
parece haber tenido una idea similar hace 1600 años:
“Podemos decir correctamente: 'Hubo un tiempo en que Roma no existía: hubo un tiempo en que Jerusalén, o Abraham,
o el hombre, o algo de este tipo no existió'. De hecho, podemos decir: 'Hubo un tiempo en que el mundo no existía', si
es cierto que el mundo no fue creado al principio de los tiempos, sino algún tiempo después. Pero decir, 'Hubo un tiempo
en que el tiempo no existía', es tan absurdo como decir, 'Hubo un hombre cuando no existía ningún hombre', o, 'Este
mundo existió cuando el mundo no existía' ”[Agustín, 1984, Ciudad de Dios, Libro XII, cap. 16].
29. Consulte también [Mcinnis 2007a, 2007b, 2008] para obtener un modelo basado en cadenas de este tipo.
30. “La creación de un universo a partir de la nada ... es una transición del sector topológico nulo que no contiene universos en
absoluto al sector con un universo de topología S3” [Vilenkin 1994, p. 23].
31. En [Craig y Sinclair, 2009], perfilamos el propio intento de Gott y Li de resolver el problema de los orígenes de la cosmología
basándose en el postulado de curvas cerradas en forma de tiempo (una máquina del tiempo). Desafortunadamente, pueden
evitar la conjetura de protección cronológica de Stephen Hawking sólo afirmando un vacío cósmico "inicial" que mide cero
con respecto a todas las configuraciones posibles. En otras palabras, su modelo está infinitamente ajustado.
Referencias
Aguirre, Anthony y Steve Gratton. (2002): “Inflación eterna en estado estable”, Physical Review D65 (2002) 083507,
preimpresión:http://arxiv.org/abs/astro-ph/0111191v2.
Aguirre, Anthony (2007): “Inflación eterna, pasado y futuro”, en Beyond the Big Bang Ed. R. Vaas, Heidelberg: Springer Verlag,
preimpresión:http://arxiv.org/abs/0712.0571
Al-Ghazali (1962). Kitab al-Iqtisad fi'l-Iqtiqad. Ankara: Prensa de la Universidad de Ankara.
Al-Ghazali (1963). Tahafut al-Falasifah. Trans. SA Kamali. Lahore: Congreso Filosófico de Pakistán.
Ashtekar, A, Bojowald, M y Lewandowski, J (2003): “Estructura matemática de la cosmología cuántica de bucles”, en
Adv.Theor.Math.Phys. 7 233–268, preimpresión:http://arxiv.org/abs/gr-qc/0304074
Ashtekar, Abhay, Pawlowski, Tomasz y Singh, Parampreet (2006), "Naturaleza cuántica del Big Bang", en Phys. Rev. D 74,
084003, Preimpresión:http://arxiv.org/abs/gr-qc/0602086v2
Asimov, Isaac (1989): “The Relativity of Wrong”, en The Skeptical Inquirer, volumen 14 No. 1, otoño de 1989, disponible en la
web en: http://chem.tufts.edu/AnswersInScience/RelativityofWrong.htm
Agustín. (1984) Ciudad de Dios, Londres, Penguin Books.
Banks, T. y Fischler, W. (2002): "Black Crunch", preimpresión: http://arxiv.org/abs/hep-th/0212113v1
Barrow, J. y Dabrowski, M. (1995): “Universos oscilantes”, Avisos mensuales de la Royal Astronomical Society 275, 850–62.
Barrow, J. y Tsagas, C. (2009) “On the Stability of Static Ghost Cosmologies”, consultado en la web en:
http://arxiv.org/abs/0904.1340v1 (21 de mayo de 2009).
Belinsky, VA, Khalatnikov, IM y Lifshitz, EM (1970): “Enfoque oscilatorio de un punto singular en la cosmología relativista”,
Advances in Physics 19, 525–73.
Bojowald, M., Maartens, R. y Singh, P. (2004): "La gravedad cuántica de bucles y el universo cíclico", Phys.Rev. D70 (2004)
083517, preimpresión:http://arxiv.org/abs/hep-th/0407115
Bojowald, M., Date, G. y Hossain, G. (2004), “El modelo Bianchi IX en Cosmología Cuántica de Bucles”, en Clase. Quant. Grav. 21,
3541, preimpresión:http://arxiv.org/abs/gr-qc/0404039
Bojowald, M. (2005): “Preguntas originales”, Nature 436, 920–1.
Bojowald, M. (2006): “Escenarios del universo a partir de la gravedad cuántica de bucles”, en Annalen Phys. 15: 326–341,
preimpresión:http://arxiv.org/abs/astro-ph/0511557v1
Bojowald, M. (2007): “Teoría efectiva a gran escala para los rebotes cosmológicos”, en Phys Rev D 74, 081301, preimpresión:
http://arxiv.org/abs/gr-qc/0608100v2
Bojowald, M. y Tavakol, R. (2008a): “Recollapsing de cosmologías cuánticas y la cuestión de la entropía”, en Phys. Rev. D 78,
023515, Preimpresión:http://arxiv.org/abs/0803.4484v1
Bojowald, M. y Tavakol, R. (2008b): “Cosmología cuántica de bucles: teorías efectivas y universos oscilantes” en Beyond the Big
Bang. Ed. R. Vaas, Heidelberg: Springer Verlag, Preprint:http://arxiv.org/abs/0802.4274v1
Bojowald, M. (2009): “Una flecha momentánea del tiempo”, en La flecha del tiempo, Ed. L. Mersini-Houghton, Heidelberg:
Springer Verlag.
Borde, A., Guth, A. y Vilenkin, A. (2003): "Los espaciotiempos inflacionarios no son pasados completos", Physical Review Letters
90, 151301, preimpresión: http://arxiv.org/abs/gr-qc/0110012.
Carroll, Sean (2008): “What if Time Really Exists?”, Concurso de ensayos de FXQI sobre la naturaleza del tiempo, disponible en la
web en: http://www.fqxi.org/community/forum/topic/318
Carroll, Sean et al (2007) "Por qué el pasado es diferente del futuro: el origen del universo y la flecha del tiempo", disponible en la
web en: http://preposterousuniverse.com/talks/time-colloq-07/
Carrol, Sean y Chen, Jennifer (2004): "La inflación espontánea y el origen de la flecha del tiempo", preimpresión:
http://arxiv.org/abs/hep-th/0410270v1
Coleman, S. y De Luccia, F. (1980): "Efectos gravitacionales sobre y del decaimiento del vacío", Physical Review D21, 3305.
Copan, P. y Craig, Wm. L. (2004): Creación de la nada. Grand Rapids, Michigan: Baker.
Coule, DH (2008), "La holografía restringe el rebote cuántico", preimpresión: http://arxiv.org/abs/0802.1867
Craig, Wm. L. (2006): "Naturalismo y cosmología". En Filosofía analítica sin naturalismo. Ed. A. Corradini, S. Galvan y EJ Lowe,
págs. 97-133. Estudios de Routledge en Filosofía Contemporánea. Nueva York: Routledge.
Craig, Wm. L. (1980). El argumento cosmológico de Platón a Leibniz. Londres: Macmillan & Co.
Craig, Wm. L. (2001): El tiempo y la metafísica de la relatividad. Serie de estudios filosóficos 84. Dordrecht: Kluwer Academic
Publishers.
Craig, Wm. L. y Sinclair, Jas. (2009): "El argumento cosmológico de Kalām". En Blackwell Companion to Natural Theology, págs.
101–201. Ed. Wm. L. Craig y JP Moreland. Oxford: Blackwell.
Damour, T. y Henneaux, M. (2000): “Caos en la cosmología de supercuerdas”, Physical Review Letters 85, 920-3, preimpresión:
http://aps.arxiv.org/abs/hep-th/0003139.
Dowker, F. y Kent, A. (1996): "Sobre el enfoque de historias consistentes en la mecánica cuántica", J.Statist.Phys. 82 (1996) 1575–
1646, preimpresión:http://arxiv.org/abs/gr-qc/9412067v2
Earman, J. (1995): Golpes, crujidos, gemidos y chillidos: singularidades y causalidades en los espaciotiempos relativistas. Nueva
York: Oxford University Press.
Earman, J. y Mosterin, J. (1999): “Una mirada crítica a la cosmología inflacionaria”, Filosofía de la ciencia 66, 1-49.
Ellis, GFR, Murugan, Jeff y Tsagas, Christos (2004): "The Emergent Universe: An Explicit Construction", In Class.Quant.Grav.21:
233-250, preimpresión: http://arxiv.org/abs/gr-qc/0307112
Ellis, GFR y Maartens, R. (2004) "El universo emergente: cosmología inflacionaria sin singularidad", Gravedad clásica y cuántica
21, 223, preimpresión: http://arxiv.org/abs/gr-qc/0211082.
Falciano, FT y Pinto-Neto, N. (2009): “Perturbaciones escalares en cosmología cuántica de campo escalar”, Physical Review D79:
023507, 2009, preimpresión: http://arxiv.org/abs/0810.3542
Geroch, R. (1978): GR From A to B, Chicago & London, University of Chicago Press.
Gott, JR III y Li, LX. (1998): "¿Puede el universo crearse a sí mismo?" Revisión física D 58: 2, 023501–1.
Hartle, J. (1998): "Pastas cuánticas y la utilidad de la historia", Phys.Scripta T76 (1998) 67, preimpresión:
http://arxiv.org/abs/gr-qc/9712001v1
Hawking, S. (2003): “Cosmology from the Top Down”: Charla presentada en Davis Inflation Meeting, 2003, preimpresión:
http://arxiv.org/abs/astro-ph/0305562
Hawking, S. y Hartle, J. (1983) "La función de onda del universo", Physical Review D 28: 12, 2960–75.
Hawking, S. y Penrose, R. (1970) "Las singularidades del colapso gravitacional y la cosmología", Actas de la Royal Society of
London A 314, 529-48.
Hawking, S. y Penrose, R. (1996) La naturaleza del espacio y el tiempo. Princeton, Nueva Jersey: Princeton University Press.
Jurkiewicz, J., Loll, L. & Ambjorn, J. (2008): “Using Causality to Solve the Puzzle of Quantum Spacetime”, Scientific American, julio,
que se encuentra en la web en: http://www.scientificamerican.com/article.cfm?id=the-self-organizing-quantum-universe.
Kaloper, N., Linde, A. & Bousso, R. (1998) “Pre-Big-Bang Requires the Universe to be Exponentially Large From the Very
Beginning,” Physical Review D, Volume 59, 043508, accessed online at hep-th/9801073.
Kiefer, C. y Zeh, HD (1995): “Flecha del tiempo en un universo cuántico recolpándose”,
Phys.Rev. D51 4145–4153, preimpresión: http://arxiv.org/abs/gr-qc/9402036v2
Kiefer, Claus (2008): "Does Time Exist in Quantum Gravity?", Concurso de ensayos FXQI sobre la naturaleza del tiempo,
disponible en la web: www.fqxi.org/data/essay-contest-files/Kiefer_fqx.pdf
Kiefer, Claus (2009): “¿Puede entenderse la flecha del tiempo desde la cosmología cuántica?”, En The Arrow of Time, Ed. L.
Mersini-Houghton, Heidelberg: Springer Verlag, preimpresión:http://arxiv.org/abs/0910.5836v1
Loll, R. (2007): “The Emergence of Spacetime, or, Quantum Gravity en su escritorio”, en Classical Quantum Gravity Volumen 25,
número 11 114006, disponible en la web en: http://arxiv.org/abs/0711.0273v2
Mersini-Houghton, Laura (2009): “Notes on Time's Enigma”, conferencia FXQI a tiempo, Azores, 2009, disponible en la web en:
http://arxiv.org/abs/0909.2330v1
McInnis, Brett (2007a): “Flecha del tiempo en la teoría de cuerdas”, en Nucl.Phys. B782: 1–25,
preimpresión:http://arxiv.org/abs/hep-th/0611088v3
McInnis, Brett (2007b): “La flecha del tiempo en el paisaje”, A aparecer en R. Vaas (ed.): Más allá del Big Bang. Springer:
Heidelberg 2010, preimpresión:http://arxiv.org/abs/0711.1656v2
McInnis, Brett (2008): "Condiciones iniciales para universos burbuja", en Phys.Rev.D77: 123530, preimpresión:
http://arxiv.org/abs/0705.4141v5
Monton, Bradley (de próxima publicación). "Prolegómenos a cualquier metafísica futura basada en la física". Estudios de Oxford
en Filosofía de la Religión 3.
Mulryne, David, Reza Tavakol, James E. Lidsey y George FR Ellis (2005): “An Emergent Universe From a Loop”, Physical Review D
71, 123512 (2005), preimpresión: http://arxiv.org/abs/astro-ph/0502589v1
Oppy, G. (2006): Discutiendo sobre dioses. Cambridge: Cambridge University Press.
Overbye, D. (2006): "Se informó de una 'energía oscura' de 9 mil millones de años". The New York Times, 15 de enero de 2008.
Parikh, M., Ivo Savonije y Erik Verlinde. (2003): "Elliptic de Sitter Space", Physical Review D67 (2003) 064005,
preimpresión:http://arxiv.org/abs/hep-th/0209120v2.
Penrose, Roger (2005): The Road to Reality, Nueva York: Alfred A. Knopf.
Penrose, R. (2006): “Antes del Big Bang: una nueva perspectiva escandalosa y sus implicaciones para la física de partículas”,
Actas de la Conferencia europea sobre aceleradores de partículas (EPAC) 2006. Edimburgo, Escocia, págs. la web en:
http://accelconf.web.cern.ch/AccelConf/e06/PAPERS/THESPA01.PDF.
Penrose, R. (2009): “Agujeros negros, teoría cuántica y cosmología”, en J. Phys .: Conf. Ser. 174 01 2001, disponible en la web
en:http://iopscience.iop.org/1742–6596/174/1/012001/pdf/1742–6596_174_1_012001.pdf
Pitts, JB (2008): "Por qué la singularidad del Big Bang no ayuda al argumento cosmológico de Kalām a favor del teísmo". Revista
británica de filosofía de la ciencia: 59, 675–708.
Quine, WV (1969): "Epistemología naturalizada". En Relatividad ontológica y otros ensayos, págs. 69–90. Nueva York: Columbia
University Press.
Rea, Michael C. (2002): Mundo sin diseño: las consecuencias ontológicas del naturalismo. Oxford: Clarendon Press.
Seahra, Sanjeev S. y Böhmer, CG (2009): “Los universos estáticos de Einstein son inestables en modelos genéricos f (R)”, Physical
Review D 79: 064009,2009, preimpresión: http://arxiv.org/abs/0901.0892
Smith, Q. (1985): "On the Beginning of Time". Noûs 19, págs. 579–84.
Smith, Q. (1993): "La función de onda de un universo sin Dios". En Theism, Atheism and Big Bang Cosmology, pág. 301–37. Ed.
Quentin Smith y William Lane Craig. Oxford: Clarendon Press
Smith, Q. (1997): "La interpretación ontológica de la función de onda del universo". The Monist, vol. 80, núm. 1, págs. 160–185.
Smith, Q. (2000): "La teoría del origen del agujero negro del universo: fronteras de la cosmología física especulativa actual".
Encontrado en la web
en:http://www.faculty.umb.edu/gary_zabel/Courses/Parallel%20Universes/Texts/the_black_hole_origin_theory_of_the_unive
rse_frontiers_of_s.htm
Smith, Q. (2007): "Kalam Cosmological Arguments for Atheism". En The Cambridge Companion to Atheism, págs. 182–98. Ed. M.
Martin. Compañeros de Cambridge a la filosofía. Prensa de la Universidad de Cambridge.
Sorabji, R. (1983): Tiempo, creación y el continuo. Ithaca, Nueva York: Cornell University Press.
Sorkin, RD & Rideout, DP (1999): “Dinámica clásica de crecimiento secuencial para conjuntos causales”, en Physical Review D,
Volumen 61, 024002, disponible en la web en: http://arxiv.org/abs/gr-qc/9904062v3
Smolin, L. (2006): El problema con la física. Nueva York, NY: Houghton Mifflin.
Smolin, Lee (2009): "The unique universe", en PhysicsWorld, junio de 2009, disponible en la web en:
http://physicsworld.com/cws/article/print/39306
Tavakol, R. y Carneiro S. (2009): “Estabilidad del universo estático de Einstein en presencia de energía del vacío”, En Physical
Review D 80, 043528, preimpresión: http://arxiv.org/abs/0907.4795v2
't Hooft, Gerard (2009): "Gravedad cuántica sin singularidades del espacio-tiempo ni horizontes", presentado en la Eric
Summerschool of Subnuclear Physics, disponible en la web en: http://arxiv.org/abs/0909.3426
Tod, KP (2003): Clase. Gravedad cuántica 20, 521-534.
Tolman, RC (1934): Relatividad, termodinámica y cosmología. Oxford: Clarendon Press.
Vaas, R. (2004): “Tiempo antes del tiempo: clasificaciones de universos en la cosmología contemporánea y cómo evitar la
antinomia del comienzo y la eternidad del mundo”. En W. Löffler y P. Weingartner (eds.), Knowledge and Belief. Artículos del
26º Simposio Internacional de Wittgenstein, 351-3. Kirchberg am Wechsel: Sociedad austriaca Ludwig Wittgenstein,
preimpresión:http://arXiv.org/abs/physics/0408111.
Veneziano G. y Gasperini, M. (2002): "El escenario anterior al Big Bang en la cosmología de cuerdas", Physics Reports 373, 1,
preprint: http://arxiv.org/abs/hep-th/0207130.
Vilenkin, A. (1982): “Creación de universos a partir de la nada”, Phys. Letón. 117B, 25-28
Vilenkin, A. (1994): "Aproximaciones a la cosmología cuántica", Physical Review D 50, 2581–94, preimpresión:
http://lanl.arxiv.org/abs/gr-qc/9403010v1.
Vilenkin, A. (2002): "Cosmología cuántica e inflación eterna". En The Future of Theoretical Physics and Cosmology, Proceedings
of the Conference in Honor of Stephen Hawking's 60th birthday, preprint:http://arxiv.org/abs/gr-qc/0204061
Vilenkin, A. (2006): Muchos mundos en uno. Nueva York: Hill & Wang.
Zeh, HD (2009): “Preguntas abiertas sobre la flecha del tiempo”, en The Arrow of Time, Ed. L. Mersini-Houghton, Heidelberg:
Springer Verlag, preimpresiónhttp://arxiv.org/abs/0908.
4
El comienzo del universo
Alexander Vilenkin
Vivimos después de una gran explosión, el big bang, que ocurrió hace 13.700 millones de años.
En el momento del Big Bang, el universo estaba lleno de una bola de fuego, una densa mezcla de
partículas energéticas y radiación. Durante casi un siglo, los físicos han estado estudiando cómo
la bola de fuego se expandió y enfrió, cómo las partículas se combinaron para formar átomos y
cómo las galaxias y las estrellas fueron unidas gradualmente por la gravedad. Esta historia ahora
se comprende con gran detalle cuantitativo y está respaldada por abundantes datos de
observación.1
Sin embargo, la pregunta sigue siendo si el Big Bang fue realmente el comienzo del universo.
¿Un comienzo en qué? ¿Causado por qué? ¿Causado por qué? ¿Y determinado por qué o quién?
Estas preguntas han llevado a los físicos a hacer todo lo posible por evitar un comienzo cósmico.
En este ensayo, repaso dónde nos encontramos ahora.
Inflación eterna
La inflación es un período de expansión súper rápida y acelerada en la historia temprana del
universo. En una fracción de segundo, una pequeña región subatómica explota a dimensiones
mayores que todo el universo actualmente observable. La expansión es impulsada por un falso
vacío.
Por lo general, se piensa en un vacío como un espacio vacío, pero según la física de partículas
moderna, lo que está vacío no es nada. El vacío es un objeto físico, dotado de densidad de energía
y presión. Puede ser en varios estados diferentes o vacua. Las propiedades y tipos de partículas
elementales difieren de un vacío a otro.
La fuerza gravitacional inducida por un falso vacío es inusual porque es repulsiva. Cuanto
mayor sea la energía del vacío, más fuerte será la repulsión. Este tipo de vacío es inestable. Se
descompone en un vacío de baja energía y el exceso de energía produce una bola de fuego de
partículas y radiación. Los falsos vacíos no se inventaron con el propósito de inflar. Su existencia
se deriva de la física de partículas y la relatividad general.
La teoría de la inflación asume que en algún momento temprano de su historia el universo
ocupó un falso vacío de alta energía. Las fuerzas gravitacionales repulsivas provocaron una
expansión exponencial y ultrarrápida del universo. Hay un tiempo característico en el que el
tamaño del universo se duplica. Dependiendo del modelo, los tiempos de duplicación pueden ser
tan cortos como 10-37 segundos. En aproximadamente 330 veces, el universo crece en un factor
de 10100. No importa su tamaño inicial, el universo se vuelve enorme muy rápidamente. Debido
a que el falso vacío es inestable, eventualmente decae, produciendo una bola de fuego que marca
el final de la inflación. La bola de fuego continúa expandiéndose por inercia y evoluciona a lo
largo de las líneas de la cosmología estándar del Big Bang.
La inflación explicó algunas características del universo que de otro modo serían
desconcertantes, cuestiones que la cosmología del Big Bang se vio obligada a asumir. Explicó la
expansión del universo, su alta temperatura y su homogeneidad observada. La teoría
inflacionaria predijo que la geometría euclidiana describe el universo en las escalas más grandes.
También predijo un espectro casi independiente de escala de perturbaciones de pequeña
densidad causadas por fluctuaciones cuánticas durante la inflación. Estas predicciones se han
confirmado.
La teoría de la inflación ha llevado a una revisión de nuestra visión del universo. La inflación
no acaba en todas partes a la vez. Las regiones donde el falso vacío decae un poco más tarde son
recompensadas por una mayor expansión inflacionaria, por lo que las regiones de falso vacío
tienden a multiplicarse más rápido de lo que decaen. En nuestro vecindario cósmico, la inflación
terminó hace 13,7 mil millones de años; en partes remotas del universo todavía continúa.
Regiones como la nuestra se forman constantemente. Este proceso interminable se llama
inflación eterna. La inflación eterna es genérica; y predicho por la mayoría de los modelos.
La caída de vacío falsa depende del modelo. En este ensayo, me centro en modelos en los que
ocurre a través de la nucleación de burbujas. La descomposición por vacío es similar a la
ebullición del agua. Las regiones de baja energía aparecen como burbujas microscópicas e
inmediatamente comienzan a crecer a un ritmo que se acerca rápidamente a la velocidad de la
luz. Las burbujas se separan luego por la expansión inflacionaria, dejando espacio para más
burbujas. Vivimos en una de estas burbujas, pero solo podemos observar una pequeña parte de
ella. No importa qué tan rápido viajemos, no podemos alcanzar el límite en expansión de nuestro
universo.
El nuestro es un universo autónomo.
La inflación eterna plantea una posibilidad intrigante. Si la inflación continúa y continúa en el
futuro, ¿podría haber continuado también en el pasado? 7 Un universo sin principio haría
innecesario preguntar cómo empezó.
Como suele ocurrir en la física, una fuerza irresistible está ahora a punto de encontrar una
obstrucción inamovible.
El teorema de Borde-Guth-Vilenkin
La obstrucción se puede encontrar en el teorema de Borde-Guth-Vilenkin (BGV).8Hablando
libremente, nuestro teorema establece que si el universo, en promedio, se está expandiendo,
entonces su historia no puede continuar indefinidamente en el pasado. Más precisamente, si la
tasa de expansión promedio es positiva a lo largo de una línea de mundo dada, o geodésica,
entonces esta geodésica debe terminar después de una cantidad de tiempo finita. Diferentes
geodésicas, diferentes tiempos. El punto importante es que la historia pasada del universo no
puede estar completa. En el Apéndice se proporciona un resumen de la prueba.
El teorema BGV permite algunos períodos de contracción, pero en promedio gana la expansión.
El volumen del universo aumenta con el tiempo. La inflación no puede ser eterna y debe tener
algún tipo de comienzo.
El teorema de BGV es generalizado. No hace suposiciones sobre la gravedad o la materia. La
gravedad puede ser atractiva o repulsiva, los rayos de luz pueden converger o divergir, e incluso
la relatividad general puede caer en desuso: el teorema aún se mantendría.
Varios físicos han construido modelos de un universo eterno en el que el teorema BGV ya no
es pertinente. George Ellis y sus colaboradores han sugerido que un universo cerrado y finito, en
el que el espacio se cierra sobre sí mismo como la superficie de una esfera, podría haber existido
para siempre en un estado estático y luego estallar en expansión inflacionaria. 9Promediada
durante un tiempo infinito, la tasa de expansión sería cero y el teorema de BGV no se aplicaría.
Ellis construyó un modelo clásico de un universo cerrado estable y proporcionó un mecanismo
que desencadenó el inicio de la expansión. Ellis no afirmó que su modelo fuera realista; fue
pensado como una prueba de concepto, mostrando que un universo eterno es posible. No tan. Un
universo estático es inestable con respecto al colapso cuántico. 10Puede ser estable según las leyes
de la física clásica, pero en la física cuántica un universo estático puede hacer una transición
repentina a un estado de tamaño que desaparece y densidad infinita. No importa cuán pequeña
sea la probabilidad de colapso, el universo no podría haber existido durante una cantidad infinita
de tiempo antes del inicio de la inflación.
Hay otra forma en que el universo podría ser eterno en el pasado. Podría haber pasado por una
sucesión infinita de expansiones y contracciones. Esta noción fue brevemente popular en la
década de 1930, pero luego fue abandonada debido a su aparente conflicto con la segunda ley de
la termodinámica. La segunda ley requiere que la entropía aumente en cada ciclo de evolución
cósmica. Si el universo ya hubiera completado un número infinito de ciclos, habría alcanzado un
estado de equilibrio térmico y, por lo tanto, un estado de máxima entropía. Toda la energía del
movimiento ordenado se habría convertido en calor, prevaleciendo una temperatura uniforme
en todo momento.
No nos encontramos en tal estado.
La idea de un universo cíclico fue revivida recientemente por Paul Steinhardt y Neil
Turok.11Sugirieron que en cada ciclo la expansión es mayor que la contracción, por lo que el
volumen del universo aumenta. La entropía del universo que podemos observar ahora podría
ser la misma que la entropía de alguna región similar en un ciclo anterior; sin embargo, la
entropía total del universo habría aumentado porque el volumen del universo es ahora mayor
que antes. A medida que pasa el tiempo, tanto la entropía como el volumen total crecen sin
límites y nunca se alcanza el estado de máxima entropía. No hay una entropía máxima. 12
El problema con este escenario es que, en promedio, el volumen del universo aún crece y, por
lo tanto, se puede aplicar el teorema BGV. Esto lleva inmediatamente a la conclusión de que un
universo cíclico no puede ser eterno en el pasado.
Prueba de dios
Los teólogos han acogido con satisfacción cualquier evidencia del comienzo del universo como
evidencia de la existencia de Dios. "En cuanto a la primera causa del universo", escribió el
astrofísico británico Edward Milne, "esto queda para que el lector la inserte, pero nuestra imagen
está incompleta sin Él".13Algunos científicos temían que un comienzo cósmico no pudiera
describirse en términos científicos. "Negar la duración infinita del tiempo", afirmó Walter Nernst,
"sería traicionar los fundamentos mismos de la ciencia". 14
Richard Dawkins, Lawrence Krauss y Victor Stenger han argumentado que la ciencia moderna
no deja lugar para la existencia de Dios. Se ha organizado una serie de debates ciencia-religión,
con ateos como Dawkins, Daniel Dennett y Krauss debatiendo con teístas como William Lane
Craig.15 Ambos lados han apelado al teorema de BGV, ambos lados apelando a mí —¡de todas las
personas! - para una mejor comprensión.
Un misterio irresoluble
La respuesta a la pregunta: "¿Tuvo el universo un comienzo?" es, "Probablemente lo hizo". No
tenemos modelos viables de un universo eterno. El teorema BGV nos da razones para creer que
tales modelos simplemente no se pueden construir.
Cuando los físicos o teólogos me preguntan sobre el teorema BGV, estoy feliz de complacerlo.
Pero mi propia opinión es que el teorema no nos dice nada sobre la existencia de Dios. Queda un
profundo misterio. Las leyes de la física que describen la creación cuántica del universo también
describen su evolución. Esto parece sugerir que tienen alguna existencia independiente.
Qué significa exactamente esto, no lo sabemos.
¿Y por qué estas leyes son las que tenemos? ¿Por qué no otras leyes?
No tenemos forma de comenzar a abordar este misterio.
Esto implica que cualquier geodésica temporal dirigida por el pasado que no se comporte
satisfaga la condición debe tener una longitud adecuada finita y, por lo tanto, debe ser
un pasado incompleto.
No se puede apelar a la homogeneidad y la isotropía en un espacio-tiempo arbitrario. Imagine
que el universo está lleno de una congruencia de geodésicas comovivas, que representan
partículas de prueba y considere un observador geodésico no comovivo descrito por una línea
de mundo. 20 Dejar y designar las 4 velocidades de las partículas de
prueba y el observador.
Entonces el factor de Lorentz del observador relativo a las partículas es
Para caracterizar la tasa de expansión en el espacio-tiempo general, basta con centrarse en las
geodésicas de partículas de prueba que cruzan la línea del mundo del observador.
Considere dos geodésicas de este tipo que se encuentran con el observador en los momentos t
y .
Definir el parámetro
dónde es la velocidad relativa de las partículas en la dirección de movimiento del
observador, y es la separación de la partícula. Ambas cantidades se calculan en el marco
de reposo de una de las partículas.
Para un universo homogéneo e isotrópico, esta definición se reduce al parámetro de Hubble.
El parámetro de expansión se puede expresar como una derivada total,
La integral de H a lo largo de la línea del mundo del observador sigue estando dada por la
diferencia de en sus puntos finales. Las conclusiones sobre los universos homogéneos e
isotrópicos se trasladan inmediatamente a los universos genéricos.
Queda el observador nulo descrito por una geodésica nula. El papel del tiempo adecuado t lo
desempeña entonces un parámetro afín. BGV mostró que, con una normalización adecuada de t,
la tasa de expansión está dada por
Notas
1. Véase, por ejemplo, Viatcheslav Mukhanov, Physical Foundations of Cosmology (Cambridge: University Press Cambridge,
2005).
2. En la relatividad general, el espacio y el tiempo están unificados en una sola entidad de cuatro dimensiones, llamada espacio-
tiempo.
3. Roger Penrose, “Colapso gravitacional y singularidades del espacio-tiempo”, Physical Review Letters 14, no. 57 (1965): 57–
59.
4. Matemáticamente, la condición de convergencia nula requiere que el tensor de curvatura de Ricci se satisfaga para todos los
vectores nulos. (Un vector nulo es un vector de norma cero,.)
5. Lawrence Ford, "Densidades de energía negativa en la teoría cuántica de campos", Revista Internacional de Física Moderna
A A25, no. 2355 (2010).
6. Para una revisión de la inflación cósmica, ver Alan Guth, The Inflationary Universe (Nueva York: Basic Books, 1998);
Alexander Vilenkin, Many Worlds in One (Nueva York: Hill y Wang, 2006).
7. Esto no está excluido por el teorema de la singularidad de Penrose, ya que la condición de convergencia nula que Penrose
usó en la demostración generalmente es violada por fluctuaciones cuánticas en un falso vacío.
8. Arvind Borde, Alan Guth y Alexander Vilenkin, “Los espaciotiempos inflacionarios son incompletos en direcciones pasadas”,
Physical Review Letters 90 (2003): 1–4.
9. George Ellis, Jeff Murugan y Christos Tsagas, "El universo emergente: una construcción explícita", Gravedad clásica y cuántica
21 (2004): 233–50.
10. Audrey Mithani y Alexander Vilenkin, "Inestabilidad de un universo emergente", Revista de cosmología y física de
astropartículas 1405 (2014).
11. Paul Steinhardt y Neil Turok, "Un modelo cíclico del universo", Science 296 (2002): 1.436–39.
12. Para una distribución uniforme (en promedio) de materia, la entropía es proporcional al volumen; si el volumen crece sin
límites, la entropía también es ilimitada.
13. Edward Milne, Cosmología moderna y la idea cristiana de Dios (Oxford: Clarendon Press, 1952).
14. Como se cita en Carl Friedrich von Weizsäcker, The Relevance of Science: Creation and Cosmology (Nueva York: Harper,
1964).
15. “Daniel Dennett sobre William Lane Craig”, YouTube (12 de agosto de 2009); “William Lane Craig sobre Daniel Dennett”,
YouTube (14 de diciembre de 2012); “Dawkins Vs Creationist”, YouTube (15 de enero de 2014).
dieciséis. William Craig, "Críticas teístas del ateísmo", en The Cambridge Companion to Atheism, ed. Michael Martin (Cambridge:
Cambridge University Press, 2007), págs. 69–85.
17. Esto se puede ilustrar con el siguiente ejemplo newtoniano. Considere un sistema de dos masas que interactúan
gravitacionalmente. La energía total del sistema es la suma de las energías cinéticas de su movimiento y la energía
gravitacional. (No tengo en cuenta la energía en reposo de las masas, que permanece constante para un movimiento mucho
más lento que la velocidad de la luz). Suponga que las masas comienzan en reposo a una gran distancia entre sí. Tanto la
energía cinética como la gravitacional son entonces iguales a cero, por lo que la energía total es cero. A medida que las masas
se aceleran entre sí bajo la acción de la gravedad, su energía cinética crece y, según la ley de conservación de la energía,
también crece la energía gravitacional, pero con signo opuesto.
18. La idea de la creación cuántica de universos a partir de la nada fue sugerida en mi artículo de 1982, y más tarde, en una
forma algo diferente, por James Hartle y Stephen Hawking, y también por Andrei Linde. Véase Alexander Vilenkin, “Creación
de universos a partir de la nada”, Physics Letters B 117 (1982): 25-28; James Hartle y Stephen Hawking, "Función de onda
del universo", Physical Review D 28, no. 12 (1983): 2960–75; Andrei Linde, “Creación cuántica del universo inflacionario”,
Lettere al Nuovo Cimento 39, no. 17 (1984): 401–5.
19. David Albert, "On the Origin of Everything", New York Times, 23 de marzo de 2012.
20. De hecho, la congruencia geodésica debe definirse solo a lo largo de la línea del mundo del observador.
5
Un universo moribundo: el destino a largo plazo y la
evolución de los objetos astrofísicos
I. Introducción
El futuro a largo plazo del universo y su contenido es un tema de profunda importancia científica
y filosófica. Con nuestro conocimiento actual de la física y la astrofísica, muchas de las preguntas
sobre el destino final del universo ahora pueden abordarse cuantitativamente. Nuestro objetivo
es resumir y continuar el desarrollo de una teoría cuantitativa del futuro.
Las investigaciones del universo primitivo a energías accesibles e inaccesibles se han
convertido en un lugar común, y se ha logrado un gran progreso dentro de esta disciplina (ver,
por ejemplo, Weinberg, 1972, 1977; Kolb & Turner, 1990; Linde, 1990; Peebles, 1993;
Zuckerman y Malkan, 1996). Por otro lado, relativamente poco trabajo se ha centrado en el
futuro del universo. Los detalles del ardiente desenlace que le espera a un universo cerrado han
sido esbozados por Rees (1969), mientras que una descripción general del escenario
aparentemente más probable en el que el universo es abierto o plano y, por lo tanto, se expande
para siempre, se estableció en el artículo seminal Time Without End (Dyson, 1979). El desarrollo
de un universo abierto también fue considerado en detalle por el Islam (1977, 1979). El espíritu
del trabajo de Rees, Islam y Dyson inspiró varios estudios de seguimiento (ver también Rees,
1981). La próxima evolución de las estrellas de muy baja masa ha sido discutida en términos
generales por Salpeter (1982). Se estudiaron los efectos de la aniquilación de la materia en el
universo tardío (Page y McKee, 1981ab), y se han explorado algunos aspectos de la
desintegración de protones (Dicus et al., 1982; Turner, 1983). Finalmente, se ha propuesto la
posibilidad de que los dominios inflacionarios se reproduzcan a sí mismos (Linde, 1988). Sin
embargo, en general, el futuro del universo no se ha investigado exhaustivamente con cálculos
rigurosos. Se ha propuesto la posibilidad de que los dominios inflacionarios se reproduzcan a sí
mismos (Linde, 1988). En general, sin embargo, el futuro del universo no se ha investigado
exhaustivamente con cálculos rigurosos. Se ha propuesto la posibilidad de que los dominios
inflacionarios se reproduzcan a sí mismos (Linde, 1988). En general, sin embargo, el futuro del
universo no se ha investigado exhaustivamente con cálculos rigurosos.
Debido a que el futuro del universo tiene un gran interés intrínseco, varios libros populares
recientes han abordado el tema (por ejemplo, Davies, 1994; Dyson, 1988; Barrow y Tipler, 1986;
Poundstone, 1985). Los autores también se han enfrentado a las intrigantes perspectivas de la
continuación de la vida, tanto humana como de otro tipo, en un futuro lejano (p. Ej., Dyson, 1979;
Frautschi, 1982; Barrow & Tipler, 1986; Linde, 1988, 1989; Tipler, 1992; Gott, 1993 ; Ellis y
Coule, 1994). Nuestro objetivo, sin embargo, es proceder de la manera más cuantitativa posible.
Aplicamos principios físicos conocidos para investigar el futuro del universo en escalas
planetarias, estelares, galácticas y cósmicas. El tema de la vida, por atractivo que sea, no se
considera aquí.
En la cosmología estándar del Big Bang, las épocas evolutivas generalmente se expresan en
términos de corrimiento al rojo. Sin embargo, al considerar el futuro lejano, el tiempo en sí
mismo suele ser la medida evolutiva más relevante. El inmenso rango dinámico de escalas de
tiempo τ involucradas en el sujeto sugiere una conveniente unidad logarítmica de tiempo η,
definida por
(1,1)
Nos referimos a un valor entero particular de η como una "década cosmológica". Por ejemplo, la
edad actual del universo corresponde a η ≈ 10.
El artículo de fe inherente a nuestra discusión es que las leyes de la física son constantes en el
tiempo, al menos en el rango de escalas de tiempo 10 <η <100 bajo consideración. No hay
garantía general de que se mantenga esta suposición. Sin embargo, la cosmología moderna
sugiere que las leyes físicas se han mantenido constantes desde la época de Planck hasta el
presente, es decir, durante décadas cosmológicas que abarcan el rango −50 ≤ η ≤ 10, y hay pocas
razones para esperar que no continúen haciéndolo. También asumimos implícitamente que se
conoce toda la física relevante (con plena conciencia del hecho de que nuestra versión del futuro
estará sujeta a revisión a medida que mejore la comprensión física).
Este artículo está organizado en un orden cronológico aproximado, pasando de eventos en un
futuro relativamente cercano a eventos en el futuro lejano. En la sección §II, discutimos los
procesos físicos que afectan la evolución estelar convencional; estos procesos tendrán lugar en
el rango de tiempo 10 <η <15. En §III, discutimos eventos que conducen a la interrupción y
muerte de la galaxia; estos procesos se desarrollan en un rango de tiempo 15 <η <25. Avanzando
en el tiempo, en §IV, discutimos el destino de los objetos estelares frente a procesos a muy largo
plazo, incluida la desintegración de protones (30 <η <40), y radiación de Hawking (60 <η <100).
En §V, ampliamos nuestro alcance y nos centramos en la evolución a largo plazo del universo en
su conjunto. Concluimos, en §VI, con una descripción general de nuestros resultados. Dado que
la escatología física sigue siendo embrionaria,
(2.1a)
donde el índice α ≈ 3 - 4 para estrellas de baja masa. En términos de décadas cosmológicas η,
obtenemos
(2.1b)
Así, por ejemplo, η * ≈ 13 para una estrella pequeña con M * = 0,1 Me. De hecho, en la actualidad,
solo las estrellas con masas M *> 0.8Me han tenido tiempo de experimentar una evolución
significativa posterior a la secuencia principal. Por lo tanto, una gran fracción,
(2,2)
de todas las estrellas que se han formado todavía tienen que experimentar una evolución
significativa (aquí, dN / dm es la distribución de masa - ver §II.E). Efectivamente, todavía estamos
en medio de las fases iniciales transitorias de la época estelífera.
Se ha prestado muy poca atención al desarrollo posterior a la secuencia principal de estrellas
que son lo suficientemente pequeñas como para sobrevivir a la edad actual del universo. Un
ensayo de Salpeter (1982) contiene una discusión cualitativa sobre la evolución de las estrellas
M (especialmente con respecto a la producción de 3He) pero las secuencias evolutivas estelares
detalladas no se han presentado en la literatura. Sin embargo, existe una colección considerable
de artículos que discuten las propiedades de pre-secuencia principal y secuencia principal de
estrellas de muy baja masa (por ejemplo, Kumar, 1963; Copeland, Jensen y Jorgensen, 1970;
Grossman y Graboske, 1971; D 'Antona y Mazzitelli, 1985; Dorman, Nelson y Chau, 1989). La
mejor familia completa de modelos que abarca las enanas M y las enanas marrones es
probablemente la de Burrows et al. (1993). Esos autores dedican atención a las fases de
enfriamiento formativo, así como a la masa exacta de la estrella de masa mínima (que para su
entrada física ocurre en M * = 0.0767 M e). No se consideró la evolución más allá de los 20 mil
millones de años (ver también Burrows y Liebert, 1993).
Recientemente se ha abordado la escasez de información sobre el destino de las enanas M
(Laughlin, Bodenheimer y Adams, 1996). Hemos realizado una serie detallada de cálculos de
evolución estelar que siguen la pre-secuencia principal hasta la evolución post-secuencia
principal de enanas M tardías, produciendo la siguiente imagen de lo que les espera a las estrellas
de baja masa.
Las estrellas recién formadas que contienen menos masa que M * ~ 0.25M e son
completamente convectivas en la mayor parte de su estructura. La capacidad de estas estrellas
para mezclar completamente sus contenidos tiene varias consecuencias importantes. En primer
lugar, estas estrellas M tardías mantienen el acceso a toda su reserva inicial de hidrógeno, lo que
prolonga en gran medida su vida útil en comparación con las estrellas más pesadas como el sol,
que ven su suministro de combustible restringido por núcleos radiativos estratificados. En
segundo lugar, como lo reconoció Salpeter (1982), la convección total impide la acumulación de
gradientes de composición que son en última instancia responsables (en parte) del ascenso de
una estrella por la rama de la gigante roja. Las estrellas de menor masa queman todo su
hidrógeno en helio en una escala de tiempo η = 13, y luego se desvanecen silenciosamente de la
prominencia como enanas blancas de helio. Este escenario evolutivo general se detalla en la
Figura 5.
Figura 5.1El diagrama de Hertzsprung-Russell para estrellas de baja masa para escalas de tiempo mucho más largas que la edad
actual del universo. Las curvas etiquetadas muestran las pistas evolutivas de estrellas de masas variables, desde 0,08 M◉ a 0,25
M◉, así como la pista de la enana marrón para un objeto subestelar con masa M * = 0,06 M◉. La figura insertada muestra las vidas
de la secuencia principal en función de la masa estelar.
Al emerger de su núcleo de nube madre, la estrella de menor masa capaz de quemar hidrógeno
(M * ≈ 0.08M e) desciende por la trayectoria convectiva de Hayashi y llega a la secuencia principal
con una luminosidad L * ~ 10−4 L e. La fase de la secuencia principal se caracteriza por un
aumento gradual y prolongado tanto de la luminosidad como de la temperatura superficial
efectiva a medida que se consume hidrógeno. Debido a la temperatura predominante
relativamente baja en el núcleo estelar (T c ≈ 4 × 106 K), la cadena de reacción nuclear protón-
protón se desacopla del equilibrio estadístico y la concentración de 3He aumenta de manera
constante hasta η = 12,6, momento en el que una Se ha alcanzado la fracción de masa máxima del
16% de 3He. A medida que se agota el suministro inicial de hidrógeno, la estrella se calienta y se
contrae, quema el 3He, aumenta su luminosidad en un factor de 10 y más que duplica su
temperatura efectiva. Después de ~ 11 billones de años, cuando la estrella se ha convertido en
un 90% de 4He en masa, finalmente se desarrolla un núcleo radiativo. La escala de tiempo
evolutivo comienza a acelerarse y el hidrógeno se agota con relativa rapidez en el centro de la
estrella. Cuando la combustión nuclear dentro de la modesta fuente de capa resultante ya no
puede proporcionar los requisitos de energía de montaje de la estrella, la estrella comienza a
contraerse y enfriarse y finalmente se convierte en una enana blanca de helio. Las estrellas con
masas de hasta ~ 0,20 M e siguen esencialmente este mismo escenario evolutivo. A medida que
aumenta la masa estelar, los núcleos radiativos se desarrollan antes y las estrellas realizan
excursiones hacia el azul cada vez más dramáticas en el diagrama HR. y el hidrógeno se agota
con relativa rapidez en el centro de la estrella. Cuando la combustión nuclear dentro de la
modesta fuente de capa resultante ya no puede proporcionar los requisitos de energía de
montaje de la estrella, la estrella comienza a contraerse y enfriarse y finalmente se convierte en
una enana blanca de helio. Las estrellas con masas de hasta ~ 0,20 M e siguen esencialmente este
mismo escenario evolutivo. A medida que aumenta la masa estelar, los núcleos radiativos se
desarrollan antes y las estrellas realizan excursiones hacia el azul cada vez más dramáticas en el
diagrama HR. y el hidrógeno se agota relativamente rápido en el centro de la estrella. Cuando la
combustión nuclear dentro de la modesta fuente de capa resultante ya no puede proporcionar
los requisitos de energía creciente de la estrella, la estrella comienza a contraerse y enfriarse y
finalmente se convierte en una enana blanca de helio. Las estrellas con masas de hasta ~ 0,20 M
e siguen esencialmente este mismo escenario evolutivo. A medida que aumenta la masa estelar,
los núcleos radiativos se desarrollan antes y las estrellas realizan excursiones hacia el azul cada
vez más dramáticas en el diagrama HR.
Una estrella con una masa ligeramente mayor, M * = 0.23 M e, experimenta el inicio de un
núcleo radiativo cuando la fracción de masa de hidrógeno cae por debajo del 50%. Los gradientes
de composición que siguen son suficientes para conducir brevemente a la estrella a una
temperatura efectiva más baja a medida que aumenta la luminosidad. En este sentido, las
estrellas con masa M * = 0.23M e representan los objetos de menor masa que pueden convertirse
en “Gigantes Rojas” convencionales. Sin embargo, en estas masas bajas, la fase gigante completa
no se completa. Las estrellas con masa inicial M * <0.5 M e no podrán generar las altas
temperaturas centrales (Tc ~ 108 K) requeridas para el destello de helio; estas estrellas abortan
su ascenso por la rama gigante al virar hacia la izquierda en el diagrama HR de la manera
sugerida por la Figura 5.1.
Los aumentos constantes de luminosidad experimentados por el envejecimiento de las enanas
M tendrán un efecto considerable en la relación masa / luz de la galaxia. Por ejemplo, a medida
que evoluciona una estrella de 0,2 M e, hay una época relativamente fugaz (en η ≈ 12) durante la
cual la estrella tiene aproximadamente el mismo radio y luminosidad que el sol actual. Dado que
las enanas M constituyen la fracción principal de todas las estrellas, la luminosidad total de la
galaxia seguirá siendo respetablemente grande, L gal ~ 1010 L e, en esta fecha futura. Esta
luminosidad es aproximadamente comparable a la luminosidad característica L * = 3,4 × 1010 L
e mostrada por las galaxias actuales (Mihalas y Binney, 1981).
(2,3)
donde M * es la masa estelar y X es la fracción de masa de hidrógeno. Para estrellas de masa
relativamente baja, la luminosidad L obedece a la relación de escala
(2,4)
donde μ es el peso molecular medio de la estrella y donde κ0 es la constante de proporcionalidad
que aparece en la relación de opacidad habitual para las estrellas (Clayton, 1983). Por lo tanto,
para una masa estelar dada M *, la vida útil se escala de acuerdo con
(2,5)
Para evaluar la relación de escala de vida estelar, es necesario saber cómo los parámetros κ0, X
y μ varían con la metalicidad. La constante de opacidad κ0 depende aproximadamente de forma
lineal de la metalicidad, es decir,
(2,6)
El peso molecular medio μ se puede escribir aproximadamente en la forma
(2,7)
donde Y es la fracción de masa de helio (p. ej., véase Clayton, 1983). Por definición, las fracciones
de masa obedecen a la relación
(2,8)
Finalmente, para este modelo simple, escribimos la abundancia de helio Y en la forma
(2,9)
donde YP es la abundancia primordial y el factor f explica el aumento de la abundancia de helio
a medida que aumenta la metalicidad. Las consideraciones de la nucleosíntesis del Big Bang
indican que YP ≈ 1/4 (Kolb & Turner, 1990), mientras que f ≈ 2 se basa en el enriquecimiento
solar en Y y Z en relación con los valores primordiales. Combinando los resultados anteriores,
obtenemos una relación de escala para la dependencia de las vidas estelares de la metalicidad,
(2,10)
donde hemos definido las constantes a ≡ 4 (1 + f) / 3 ≈ 4 yb ≡ 8/9 + 20f / 27 ≈ 64/27. Este
resultado implica que las vidas estelares tienen un valor máximo. En particular, encontramos
que las estrellas nacidas con metalicidad Z ≈ 0.04 viven más tiempo. Para valores más altos de Z,
la reducción del combustible nuclear y el cambio en la composición superan la disminución de la
luminosidad que prolonga la vida útil derivada del aumento de la opacidad.
Un conjunto reciente de cálculos de la evolución química galáctica (Timmes, 1996) ha
investigado mucho en la época estelífera. Las mejores indicaciones sugieren que el conjunto de
abundancia galáctica se acercará a una composición asintóticamente constante (X ~ 0,2, Y ~ 0,6
y Z ~ 0,2) en una escala de tiempo η ~ 12. Como consecuencia, cualquier generación de estrellas
formada después de η ~ 12 sufrirá tiempos de vida significativamente más cortos que el máximo
teórico implícito en la ecuación [2.10].
, (2,11)
donde k es la constante de Boltzmann y a es la constante de radiación. La cantidad μ es
nuevamente el peso molecular medio y se puede escribir en la forma de la ecuación [2.7]. En
equilibrio hidrostático, la presión central requerida para soportar una estrella de masa M * se
puede expresar como
, (2,12)
donde ρ C es la densidad central (ver Phillips, 1994).
Al igualar las dos expresiones anteriores [2.11] y [2.12], podemos resolver la masa para
encontrar
(2,13)
donde hemos establecido β = 1/2 para obtener el valor numérico. Por tanto, la masa estelar
máxima depende de forma algo sensible del peso molecular medio μ, que a su vez es función de
la metalicidad. Aplicando las aproximaciones [2.7], [2.8] y [2.9], se puede escribir la masa
máxima en la forma
(2,14)
Por lo tanto, para el valor asintótico esperado de la metalicidad, Z = 0.2, la estrella de masa
máxima es solo M * ≈ 30M e.
La metalicidad en continuo aumento del medio interestelar también tendrá implicaciones para
las estrellas de baja masa. Una metalicidad más alta conduce a un enfriamiento más efectivo, lo
que conduce a temperaturas más bajas, lo que a su vez favorece la formación de estrellas menos
masivas (por ejemplo, ver la teoría reciente de la función de masa inicial de Adams y Fatuzzo,
1996). El FMI del futuro debería inclinarse aún más dramáticamente a favor de las estrellas más
débiles.
Los próximos aumentos de la metalicidad también pueden disminuir la masa de la estrella de
secuencia principal de masa mínima como resultado de los efectos de opacidad (cf. las revisiones
de Stevenson, 1991; Burrows y Liebert, 1993). También pueden ocurrir otros efectos
inesperados. Por ejemplo, cuando la metalicidad alcanza varias veces el valor solar, los objetos
con masa M * = 0,04 M e pueden, muy posiblemente, detener su enfriamiento y contracción y
aterrizar en la secuencia principal cuando se forman espesas nubes de hielo en sus atmósferas.
Tales "estrellas congeladas" tendrían una temperatura efectiva de T * ≈ 273 K, mucho más fría
que las actuales estrellas de secuencia principal de masa mínima. La luminosidad de estos
objetos frugales sería más de mil veces menor que las estrellas más tenues de hoy, con aumentos
proporcionales en la longevidad.
. (2,16)
Para las típicas galaxias de disco, esta escala de tiempo es comparable a la edad actual del
universo; KTC cita un rango τ R ≈ 5 - 15 Gyr. La escala de tiempo real para el agotamiento (total)
del gas será más larga porque se espera que la tasa de formación de estrellas disminuya a medida
que disminuye la masa en el gas. Por ejemplo, si asumimos que la tasa de formación de estrellas
es proporcional a la masa actual en gas, obtenemos un tiempo de agotamiento total de la forma
(2,17)
donde M 0 es la masa inicial en gas y MF es la masa final. Para las típicas galaxias de disco, la
masa de gas inicial es M 0 ~ 1010 M e (consulte la Tabla 5 de KTC). Por lo tanto, si tomamos el
caso extremo de MF = 1 M e, el tiempo total de agotamiento del gas es solo τ ≈ 23τ R ≈ 120 - 350
Gyr. En términos de décadas cosmológicas, el tiempo de agotamiento del gas se convierte en η D
= 11,1 - 11,5.
Varios efectos tienden a extender la escala de tiempo de agotamiento del gas más allá de esta
simple estimación. Cuando las estrellas mueren, devuelven una fracción de su masa al medio
interestelar. Este efecto de reciclaje de gas puede prolongar la escala de tiempo de agotamiento
del gas en un factor de 3 o 4 (KTC). Se puede agregar gas adicional a la galaxia a través de la caída
en el disco galáctico, pero este efecto debería ser relativamente pequeño (cf. la revisión de Rana,
1991); la masa total agregada al disco no debe aumentar la escala de tiempo en más de un factor
de 2. Finalmente, si la tasa de formación de estrellas disminuye más rápidamente con la
disminución de la masa de gas que la ley lineal simple utilizada anteriormente, entonces la escala
de tiempo de agotamiento se vuelve correspondientemente más grande. Dadas estas
complicaciones, esperamos que el tiempo real de agotamiento del gas caiga en el rango
(2,18)
Por lo tanto, en la década cosmológica η ≈ 14, esencialmente toda la formación normal de
estrellas en las galaxias habrá cesado. Casualmente, las enanas M de masa baja tienen
expectativas de vida que son comparables a esta escala de tiempo. En otras palabras, tanto la
formación estelar como la evolución estelar llegan a su fin aproximadamente en la misma década
cosmológica.
Hay algunos indicios de que la formación de estrellas puede apagarse aún más drásticamente
de lo que se describió anteriormente. Una vez que la densidad del gas cae por debajo de una
densidad superficial crítica, la formación de estrellas puede apagarse por completo (como en las
galaxias elípticas y S0). El gas puede calentarse por completo mediante su lenta acumulación en
un agujero negro central.
Estos resultados indican que la evolución estelar se limita a un rango razonablemente estrecho
de décadas cosmológicas. Es presumiblemente imposible que las estrellas formen y quemen
hidrógeno antes de la época de recombinación en el universo (con un corrimiento al rojo z ~
1000 y, por tanto, η ~ 5,5). Por lo tanto, existirá un número significativo de estrellas solo dentro
del rango
(2,19)
La época actual (η ~ 10) se encuentra cerca del centro de este rango de escalas de tiempo
(logarítmicas). Por otro lado, si usamos una escala de tiempo lineal, la época actual se encuentra
muy cerca del comienzo de la era estelífera.
(2,20)
donde A, m C y 〈σ〉 son constantes. A lo largo de esta discusión, las masas estelares se escriben
en unidades solares, es decir, m º M * / (1M e). Esta forma general para el FMI está motivada
tanto por la teoría actual de la formación de estrellas como por consideraciones estadísticas
generales (Adams y Fatuzzo, 1996; Zinnecker, 1984; Larson, 1973; Elmegreen y Mathieu, 1983).
Además, esta forma es (aproximadamente) consistente con las observaciones (Miller y Scalo,
1979), que sugieren que los parámetros de forma tienen los valores 〈σ〉 ≈ 1.57 ym C ≈ 0.1 para
el FMI actual (ver también Salpeter, 1955; Scalo, 1986; Rana, 1991). La constante A establece la
normalización general de la distribución y no es de interés aquí.
Para una función de masa inicial dada, debemos encontrar las masas finales m F de los objetos
degenerados resultantes de las estrellas progenitoras con una masa m dada. Para la gama de
masas progenitoras de la enana marrón, m <m H, los objetos estelares no evolucionan a través
de procesos nucleares y, por lo tanto, m F = m. Aquí, la escala m H ≈ 0.08 es la masa estelar mínima
requerida para que tenga lugar la combustión del hidrógeno.
Las estrellas progenitoras en el rango de masa m H ≤ m ≤ m SN eventualmente se convierten
en enanas blancas, donde la escala de masa m SN ≈ 8 es la masa estelar mínima requerida para
que la estrella explote en una supernova (tenga en cuenta que la escala de masa m SN puede
depender sobre la metalicidad - ver Jura, 1986). Por lo tanto, para la porción de la población de
enanas blancas, debemos especificar la transformación entre la masa del progenitor my la masa
de la enana blanca m WD. Los resultados de Laughlin et al. (1996) indican que las estrellas con
masas de secuencia principal m <0,4 sufrirán una pérdida de masa insignificante al convertirse
en enanas blancas de helio. Desafortunadamente, esta relación permanece algo mal definida en
masas más altas, principalmente debido a las incertidumbres en las tasas de pérdida de masa de
la gigante roja (por ejemplo, ver Wood, 1992). En aras de la precisión, adoptamos la siguiente
transformación entre masa progenitora y masa enana blanca,
(2,21)
con α = 1,4 y β = 1/15. Esta fórmula es consistente con los modelos de Wood (1992) sobre el
rango de masa apropiado y se acerca a la forma esperada m WD = m en el límite de masa baja.
Las estrellas con grandes masas iniciales, m> m SN, terminan su vida en explosiones de
supernovas y dejan una estrella de neutrones (aunque, en principio, también se pueden producir
agujeros negros). Se espera que la masa de la estrella de neutrones remanente esté cerca del
límite de Chandrasekhar m Ch ≈ 1.4, como se confirmó en el caso del púlsar binario (Manchester
y Taylor, 1977).
Para calcular la FMF, se convoluciona la función de masa inicial con las transformaciones de
estrellas progenitoras en enanas blancas y estrellas de neutrones. La función de masa final
resultante se muestra en la figura 5.2. A modo de comparación, también se muestra la función de
masa inicial (como la curva discontinua). Observe que las dos distribuciones son similares para
masas menores que la masa de Chandrasekhar (~ 1.4 M e) y completamente diferentes para
masas más grandes.
Figura 5.2La función de masa final (FMF) para estrellas. La curva sólida muestra la distribución prevista m (dN / dm) para las
masas de los objetos estelares degenerados (enanas marrones, enanas blancas y estrellas de neutrones) que permanecen en la
época cosmológica en la que ha cesado la formación estelar convencional. La curva punteada muestra la distribución de masa de
la población progenitora inicial (la función de masa inicial).
Una vez que se ha determinado la FMF, se puede estimar el número y las fracciones de masa
de los diversos constituyentes de la FMF. Definimos N BD como la fracción de enanas marrones
por número y M BD como la fracción de enanas marrones por masa, con fracciones análogas para
enanas blancas (N WD y M WD) y estrellas de neutrones (N NS y M NS). Para un IMF de la forma
[2.20] con valores actuales para los parámetros de forma, obtenemos las siguientes fracciones
numéricas:
(2,22)
De manera similar, para las fracciones de masa se encuentra
(2,23)
Por lo tanto, se espera que las enanas marrones estén presentes en cantidades sustanciales, pero
la mayor parte de la masa residirá en forma de enanas blancas. Las estrellas de neutrones harán
una contribución relativamente pequeña a la población estelar total. Los valores anteriores para
N NS y M NS se obtuvieron bajo el supuesto de que todas las estrellas m> m SN ~ 8 producen
estrellas de neutrones. En realidad, una parte de estas estrellas de gran masa puede colapsar
para formar agujeros negros, pero esta complicación no afecta materialmente la imagen básica
descrita anteriormente.
(3,1)
donde R es el tamaño del sistema, υ es la velocidad aleatoria típica y N es el número total de
estrellas (para una discusión más detallada, ver Lightman y Shapiro, 1978; Shu, 1982; Binney y
Tremaine, 1987). El factor logarítmico que aparece en el denominador tiene en cuenta los efectos
de muchas desviaciones de ángulos pequeños de estrellas a través de encuentros distantes. La
escala de tiempo para que las estrellas se evaporen fuera del sistema está aproximadamente
dada por
(3,2)
(3,3)
Así, las estrellas escapan de la galaxia con una escala de tiempo característica η ≈ 19 - 20 (ver
también Islam, 1977; Dyson, 1979).
La evolución dinámica estelar de la galaxia es más complicada que la simple imagen descrita
anteriormente. Primero, es probable que la galaxia tenga un halo extendido de materia oscura,
gran parte de la cual puede estar en forma no bariónica. Dado que este halo oscuro no participa
completamente en el proceso de relajación dinámica, el halo tiende a estabilizar el sistema y hace
que la escala de tiempo de evaporación estelar sea algo más larga que la simple estimación dada
anteriormente.
Otras cuestiones dinámicas también pueden ser importantes. En los cúmulos globulares, por
ejemplo, la segregación masiva ocurre mucho antes de que la evaporación estelar y el
calentamiento de las estrellas binarias jueguen un papel importante (realmente dominante) en
la evolución a largo plazo. Por otro lado, la ecuación [3.1] es formalmente válida sólo si las
estrellas no están ligadas a sistemas binarios o triples. Los efectos de interacción binaria pueden
ser importantes para la evolución a largo plazo del componente estelar de la galaxia. En
particular, la presencia de binarios puede aumentar la sección transversal de interacción efectiva
y puede conducir a una variedad de tipos adicionales de interacciones. Son posibles tanto las
interacciones de tres cuerpos como las interacciones binario-binario. Como regla general, las
interacciones conducen a que los binarios duros se vuelvan más difíciles y los binarios anchos se
vuelvan más suaves o incluso se interrumpan ("ionizados"). Los binarios que se vuelven lo
suficientemente duros (cercanos) pueden girar en espiral hacia adentro, convertirse en sistemas
de transferencia de masa y eventualmente explotar como supernovas. Estos efectos recién ahora
se están entendiendo en el contexto de la evolución de los cúmulos globulares (para una
discusión más detallada de estos problemas dinámicos, ver, por ejemplo, Chernoff y Weinberg,
1990; Hut et al., 1992).
Las galaxias en general, y nuestra galaxia en particular, viven en grupos o cúmulos. Estos
sistemas de mayor escala también se someterán a procesos de relajación dinámica análogos a
los discutidos anteriormente. Sin embargo, un problema más inmediato que puede afectar a
nuestra galaxia en un futuro relativamente cercano es la posibilidad de fusionarse con otras
galaxias del grupo local, en particular con Andrómeda (M31). Las órbitas de las galaxias cercanas
han sido objeto de mucho estudio (p. Ej., Peebles, 1994), pero persisten grandes incertidumbres.
Para la separación actual entre la Vía Láctea y M31 (d = 0,75 Mpc) y la velocidad radial (υ r = 120
km / s), las dos galaxias experimentarán un encuentro cercano en un momento Δt = 6 × 109 años
en el futuro ( es decir, en η = 10,2). Si este encuentro conducirá a una colisión / fusión o
simplemente a un pasaje distante depende del componente de velocidad tangencial, que no está
bien determinado. Los modelos de Peebles (1994) sugieren que la distancia de aproximación
más cercana estará en el rango de 20 a 416 kpc, con más modelos prediciendo valores cerca del
extremo superior de este rango. Por lo tanto, se necesita más trabajo para determinar si la Vía
Láctea está destinada a colisionar con M31 en un futuro relativamente cercano.
Sin embargo, incluso si nuestra galaxia no choca con M31 en el primer paso, las dos galaxias
son claramente un par binario ligado. Las órbitas de los pares de galaxias binarias decaen con
relativa rapidez a través de la fricción dinámica (p. Ej., Binney y Tremaine, 1987; Weinberg,
1989). Por lo tanto, incluso si no ocurre una colisión en el primer paso, M31 y la Vía Láctea no
sobrevivirán mucho tiempo como galaxias espirales individuales. En una escala de tiempo de
aproximadamente η = 11 - 12, todo el grupo local se fusionará en un gran sistema estelar.
(3,4)
donde τ = 2πR / υ es el tiempo de órbita. Para una galaxia, la curva de rotación es casi plana con
una velocidad casi constante υ ~ 200 km / s. La escala de tiempo τ GR para la radiación
gravitacional viene dada por
(3,5)
donde R 0 = 10 kpc es una escala de longitud de referencia para la galaxia. Obtenemos así la
estimación
(3,6)
Esta escala de tiempo corresponde a ~ 1016 órbitas alrededor del centro galáctico. Observe que
si las estrellas están irradiando incoherentemente con un potencial casi uniforme, la escala de
tiempo se vuelve más larga en un factor de M gal / M *, donde M * es la masa de la estrella y M
gal es la masa galáctica efectiva. Tenga en cuenta también que la desintegración orbital
gravitacional toma sustancialmente más tiempo que la evaporación estelar de la galaxia
(consulte la sección anterior). Por lo tanto, la evolución de la galaxia estará dominada por el
proceso sin colisiones y, por lo tanto, la mayoría de los remanentes estelares serán eyectados al
espacio intergaláctico en lugar de terminar en el núcleo galáctico (ver también Islam, 1977;
Dyson, 1979; Rees, 1984 ).
La radiación gravitacional también hace que las órbitas de las estrellas binarias pierdan
energía y se descompongan. De particular importancia es la desintegración de las estrellas
enanas marrones binarias. La eventual coalescencia de estos sistemas puede conducir a la
formación de una nueva estrella ardiente de hidrógeno, siempre que la masa de todo el sistema
sea mayor que el límite de combustión de hidrógeno MH ~ 0.08M e. La escala de tiempo τ OD
para la desintegración orbital se puede escribir
(3,7)
donde M * es la masa de las estrellas y R 0 es la separación orbital inicial. Insertando valores
numéricos y escribiendo el resultado en términos de décadas cosmológicas, obtenemos el
resultado
(3,8)
Este resultado también se aplica a las órbitas planetarias (ver §III.F a continuación).
(3,9)
donde N es el número de enanas marrones en una galaxia con volumen V, σ es la sección
transversal de colisión (ver más abajo) y υ es la velocidad relativa típica. Esta ecuación se puede
integrar para obtener
(3,10)
donde τ C es la escala de tiempo característica
(3,11)
o equivalente,
(3,12)
Para obtener este valor numérico para la escala de tiempo, hemos asumido que la sección
transversal de la colisión viene dada por la sección transversal geométrica de las enanas
marrones; esta suposición se justifica a continuación. También tenemos los valores numéricos
utilizados V ~ (20kpc) 3 y υ ~ 200 km / s que son característicos del halo galáctico.
La estimación de las tasas de colisión que se da aquí es algo conservadora. Los encuentros
estelares cercanos pueden conducir a la formación de binarios a través de la excitación de
mareas de modos en las estrellas (ver Press y Teukolsky, 1977; Lee y Ostriker, 1986). Estos
binarios pueden eventualmente decaer y, por lo tanto, dar lugar a colisiones estelares
adicionales.
La escala de tiempo [3.12] es el tiempo necesario para que cambie la población de halo de
enanas marrones. Observe que esta escala de tiempo es mayor que la escala de tiempo de
evaporación calculada en §III.A. Este orden tiene sentido porque los encuentros distantes (que
conducen a la evaporación) deben ser mucho más frecuentes que las verdaderas colisiones. Para
η <η C, la tasa de colisión de las enanas marrones para toda la galaxia viene dada por Γtot = N /
τ C ~ 10−11 yr − 1. El resultado tı́pico de una colisió n enana marró n será la producció n de un
objeto estelar con masa M * ~ 0.1M e, lo suficientemente grande como para quemar hidrógeno.
La vida estelar (secuencia principal) de una estrella de este tipo es de aproximadamente 2,5 ×
1013 años. Esta escala de tiempo evolutiva estelar es más larga que la escala de tiempo en la que
se forman las estrellas. Como resultado,
Tenga en cuenta que la escala de tiempo para producir estrellas a través de colisiones de
enanas marrones es generalmente mucho más corta que el tiempo de desintegración de la órbita
para las binarias de enanas marrones. Para la desintegración orbital, la ecuación [3.8] implica
que η ~ 22.5 + 4log10 (R / 1AU). Por lo tanto, las colisiones de enanas marrones proporcionan
el mecanismo dominante para la formación continua de estrellas mientras la galaxia permanece
intacta.
(3,13)
donde b es el parámetro de impacto. Cuando las dos enanas chocan y forman una estrella
compuesta de masa ~ 2 m, el momento angular se puede escribir
(3,14)
donde R es el radio estelar, Ω es la velocidad de rotación y f es una constante numérica de orden
unitario que depende de la estructura interna de la estrella. A continuación, invocamos la
restricción de que la tasa de rotación del estado final debe ser menor que la velocidad de ruptura,
es decir,
(3,15)
Combinando los resultados anteriores, obtenemos un límite en el parámetro de impacto b que
puede conducir a un sistema final limitado. Así obtenemos
(3,16)
que se puede utilizar para estimar la sección transversal,
(3,17)
Usando valores numéricos típicos, encontramos que b ~ R ~ 1010 cm, que es aproximadamente
comparable al radio de la enana marrón (por ejemplo, Burrows et al., 1993).
Figura 5.3Simulación numérica de una colisión entre dos enanas marrones. Los dos objetos iniciales tienen masas menores que
las requeridas para la combustión del hidrógeno; el producto final de la colisión es una verdadera estrella y es capaz de una fusión
sostenida de hidrógeno. Las dos estrellas chocan con una velocidad relativa de 200 km / sy un parámetro de impacto de ~ 1 radio
estelar. La serie superior de paneles muestra la colisión desde una vista lateral; la serie inferior de paneles muestra la vista
superior.
El tipo más común de colisión es entre dos enanas blancas de baja masa: la función de masa
final alcanza un pico en la escala de masa M * ≈ 0.13M e. Estos objetos de baja masa tendrán una
composición de helio casi pura. Si el producto final de la colisión tiene una masa mayor que la
masa mínima requerida para quemar helio (M He ≈ 0.3M e), entonces la estrella producto podría
aterrizar en la secuencia principal de helio (ver, por ejemplo, Kippenhahn y Weigert, 1990 ). Para
que la estrella queme helio, la colisión debe ser lo suficientemente enérgica para impartir
suficiente energía térmica a la estrella; de lo contrario, la estrella se convertirá en otra enana
blanca de helio. Existe otra posibilidad de colisiones entre enanas blancas de masas ligeramente
mayores. Si el producto de la colisión tiene una masa menor que la masa de Chandrasekhar y
mayor que la masa mínima para quemar carbono (0. 9M e ≤ M * ≤ 1.4M e), la estrella del producto
podría aterrizar en la secuencia principal de carbono. Por lo tanto, este modo de formación
estelar tardía puede conducir a una variedad interesante de objetos estelares.
(3,18)
donde V = R 3 es el volumen de la galaxia, υ es la velocidad típica de los objetos en la galaxia (υ
~ 200 km / s) y σ es la sección transversal efectiva del agujero negro. Como punto de partida,
escribimos la sección transversal en la forma
(3,19)
donde Λ es un factor de mejora adimensional debido al enfoque gravitacional, y RS es el radio de
Schwarzschild RS dado por
(3,20)
Obtenemos así la escala de tiempo
(3.21a)
o equivalente,
(3.21b)
La escala de tiempo ηaccrete ~ 30 es mucho más larga que la escala de tiempo tanto para la
evaporación estelar como para la radiación gravitacional (ver también la siguiente sección).
Como consecuencia, en estos últimos tiempos, todas las estrellas de una galaxia se habrán
evaporado en el espacio intergaláctico o habrán caído en el agujero negro central a través de la
desintegración de la radiación gravitacional de sus órbitas. Por supuesto, a medida que crece la
masa del agujero negro, la escala de tiempo de acreción disminuye. De manera muy aproximada,
esperamos que entre el 1 y el 10% de las estrellas caigan al agujero negro central y el resto se
evapore; la masa final del agujero negro central será entonces M BH ~ 109 - 1010 M e.
(3,22)
En cuanto al caso de la galaxia, sin embargo, este escenario sencillo se ve comprometido por
efectos adicionales. La radiación gravitacional hará que las órbitas de los agujeros negros se
desintegran continuamente, y algunos de ellos pueden eventualmente fusionarse. Los
encuentros estelares con otras estrellas y con los agujeros negros conducirán a la evaporación
estelar del sistema del tamaño de un supercúmulo. A largo plazo, se espera que el supercúmulo
consista en un agujero negro central muy grande con la mayoría de las estrellas y muchos de los
agujeros negros galácticos originales de ~ 109-1010 M e escapando a grandes distancias. En
otras palabras, el sistema del tamaño de un supercúmulo se comportará de manera análoga a la
galaxia, excepto que contendrá una escala de tamaño mayor, una escala de tiempo más larga y
dos escalas de masa ampliamente dispares (es decir, una escala de masa estelar M * ~ 1M e , y
una escala de masa de agujero negro M BH ~ 109 - 1010 M e). Los efectos de equipartición entre
las dos escalas de masa entrarán en juego y conducirán los agujeros negros galácticos hacia el
centro mientras expulsa preferentemente los remanentes estelares. En principio, esta jerarquía
puede extenderse hasta escalas de longitud de perturbación cada vez mayores, aunque las
escalas de tiempo relevantes y la dinámica detallada se vuelven más inciertas a medida que se
procede con la extrapolación.
E Aniquilación y captura de halo de materia oscura.
Los halos galácticos consisten principalmente en materia oscura, gran parte de la cual puede
residir en forma no bariónica. Aunque la naturaleza y composición de esta materia oscura sigue
siendo una cuestión abierta importante, uno de los principales candidatos son las partículas
masivas de interacción débil, generalmente denominadas WIMP. Se espera que estas partículas
tengan masas en el rango MW = 10 - 100 GeV e interactúen a través de la fuerza débil y la
gravedad solamente (cf. las revisiones de Diehl et al., 1995; Jungman, Kamionkowski & Griest,
1996; ver también el reciente propuesta de Kane & Wells, 1996). Muchos autores han estudiado
las firmas de la aniquilación de WIMP, generalmente con la esperanza de encontrar una señal
detectable. Se pueden aplicar los resultados de estos estudios para estimar la escala de tiempo
para el agotamiento de WIMP de un halo galáctico.
Primero consideramos el caso de la aniquilación directa partícula-partícula. Siguiendo las
convenciones habituales, la tasa Γ W para la aniquilación de WIMP en el halo se puede escribir
en la forma
(3,23)
donde n W es la densidad numérica de WIMP en el halo y 〈συ〉 es el valor promedio de la
sección transversal de aniquilación multiplicada por la velocidad. Si los WIMP constituyen una
fracción de masa sustancial del halo galáctico, se espera que su densidad numérica sea
aproximadamente n W ~ 1 cm − 3. La velocidad tı́pica de las partı́culas en el halo galá ctico es ~
200 km / s. Usando el argumento dimensional más ingenuo, podemos estimar la sección
transversal de interacción como
(3,24)
donde MW es la masa de la partícula y GF es la constante de Fermi. La sección transversal
verdadera tiene factores adicionales que tienen en cuenta las dependencias de espín, los ángulos
de mezcla y otras cantidades dependientes del modelo (ver Diehl et al., 1995; Jungman et al.,
1996); la forma [3.24] es, por tanto, muy aproximada, pero adecuada para nuestros propósitos.
También notamos que la abundancia reliquia de partículas de materia oscura está determinada
por la sección transversal de interacción; Para que la abundancia sea cosmológicamente
significativa, la sección transversal de interacción debe ser del orden σ ~ 10−37 cm2 (ver Kolb y
Turner, 1990).
Juntando todos los resultados anteriores, podemos estimar la escala de tiempo τ W para que
cambie la población de WIMP,
(3,25)
Así, en términos de décadas cosmológicas, obtenemos la escala de tiempo de aniquilación en la
forma
(3,26)
Los WIMP tardan un tiempo relativamente largo en aniquilarse mediante colisiones directas. En
particular, la escala de tiempo de aniquilación es mucho más larga que la escala de tiempo de
evaporación estelar (§III.A).
Otro efecto relacionado importante es la captura de WIMP por objetos astrofísicos. El proceso
de captura de WIMP se ha estudiado tanto para el Sol (Press & Spergel, 1985; Faulkner &
Gilliland, 1985) como para la Tierra (Freese, 1986) como un medio para ayudar a detectar la
materia oscura en el halo (ver también Krauss , Srednicki y Wilczek, 1986; Gould, 1987, 1991).
Aunque la captura de WIMP por el Sol y la Tierra puede ser importante para la detección de
materia oscura, las vidas de las estrellas y planetas (secuencia principal) son generalmente
demasiado pequeñas para que la captura de WIMP afecte significativamente la población total
de partículas en el halo galáctico. Por otro lado, los restos estelares, en particular las enanas
blancas, pueden tener una vida lo suficientemente larga como para tener efectos importantes.
En los objetos astrofísicos, los WIMP se capturan mediante la dispersión de los núcleos. Cuando
el evento de dispersión conduce a una velocidad final del WIMP que es menor que la velocidad
de escape del objeto, entonces el WIMP se ha capturado con éxito. Para el caso de las enanas
blancas, podemos hacer la siguiente estimación simple del proceso de captura. El camino libre
medio de un WIMP en materia con densidades de enanas blancas es generalmente menor que el
radio de la estrella. Además, la velocidad de escape de una enana blanca es grande,
aproximadamente ~ 3000 km / s, que es mucho mayor que la dispersión de velocidad de los
WIMP en el halo. Como resultado, en una primera aproximación, la mayoría de los WIMP que
atraviesan una enana blanca serán capturados. La tasa de captura de WIMP Γ W * por una enana
blanca viene dada por
(3,27)
donde σ WD ~ 1018 cm2 es el área de la sección transversal de la enana blanca y υ rel ~ 200 km
/ s es la velocidad relativa. Por tanto, la tasa de captura es
(3,28)
Con esta tasa de captura, una estrella enana blanca puede consumir su peso en WIMP en una
escala de tiempo de ~ 1024 años. Se espera que la masa total en WIMP en el halo sea un factor
de 1 a 10 veces la masa de las estrellas, que estará principalmente en forma de enanas blancas
en estos tiempos tardíos (§II.E). Como resultado, la escala de tiempo para que las enanas blancas
agoten toda la población de halos de WIMP a través de la captura está dada aproximadamente
por
(3,29)
Las escalas de tiempo reales dependerán de la fracción del halo galáctico en forma no bariónica
y de las propiedades (por ejemplo, masa) de las partículas; estas cantidades siguen siendo
desconocidas en este momento.
La aniquilación de los WIMP de halo tiene importantes consecuencias tanto para la propia
galaxia como para las enanas blancas. Básicamente, la galaxia en su conjunto pierde masa
mientras que las enanas blancas se mantienen más calientes de lo que estarían de otra manera.
La población de WIMP capturados dentro de la estrella se acumulará hasta una densidad crítica
en la que la tasa de aniquilación de WIMP está en equilibrio con la tasa de captura de WIMP (ver,
por ejemplo, Jungman et al., 1996). Además, la estrella absorberá la mayoría de los productos de
la aniquilación y, finalmente, la energía se irradiará (en última instancia, en fotones). El resultado
neto de este proceso (junto con la aniquilación directa) es, por tanto, irradiar la masa del halo
galáctico en las escalas de tiempo dadas por las ecuaciones [3.26] y [3.29]. Este proceso compite
con la evaporación de estrellas a través de la relajación dinámica (§III.
Dado que la escala de tiempo para la evaporación de WIMP es mucho más larga que la escala
de tiempo dinámica, la galaxia se expandirá adiabáticamente a medida que el halo se irradia. En
la galaxia exterior, la materia oscura en el halo domina bien el potencial gravitacional y, por lo
tanto, las estrellas de la galaxia exterior se liberarán a medida que la masa del halo se irradie.
Dado que los WIMP no dominan el potencial dentro del círculo solar, los efectos
correspondientes en el interior de la galaxia son relativamente débiles.
Las propias estrellas enanas blancas se mantendrán calientes mediante este proceso de
captura WIMP con una luminosidad aproximadamente constante dada por
(3,30)
donde F es un factor de eficiencia (se espera que sea de orden unitario) que tiene en cuenta la
pérdida de energía de la estrella en forma de neutrinos. Con esta luminosidad, la enana blanca
tiene una temperatura superficial T * ≈ 63 K, donde hemos asumido una masa típica de enana
blanca M * = 0.5M e. Como punto de referencia, observamos que toda una galaxia de tales
estrellas tiene una luminosidad total comparable a la del sol, L gal ~ 1L e. Sin embargo, la mayor
parte de la radiación se emitirá en longitudes de onda infrarrojas d, λ ~ 50μm.
Para completar, observamos que los axiones proporcionan otro candidato viable para la
materia oscura en el halo galáctico (ver Capítulo 10 de Kolb & Turner, 1990). Estas partículas
surgen de soluciones al fuerte problema de la PC en la cromodinámica cuántica (ver, por ejemplo,
Peccei y Quinn, 1977ab; Weinberg, 1978; Wilczek, 1978). El acoplamiento del axión al fotón
permite que el axión decaiga a un par de fotones con una vida útil τ a dada por
(3,31)
donde ma es la masa del axión; hemos asumido valores representativos para los restantes
parámetros de la física de partículas. Los axiones reliquia con un número suficiente para
contribuir al presupuesto de materia oscura del universo tienen masas en el rango de 10−6 eV
<ma <10−3 eV, donde el valor depende del mecanismo de producció n. Usando estos valores de
masa, obtenemos un rango permitido de escalas de tiempo de desintegración de axiones,
(3,32)
F El destino de los planetas durante la muerte galáctica.
Los planetas pueden definirse libremente como objetos que son lo suficientemente pequeños (en
masa) como para ser sostenidos por las fuerzas ordinarias de Coulomb en lugar de por la presión
degenerativa. A largo plazo, los planetas sufren varios procesos deletéreos. Pueden ser
vaporizados por sus estrellas madre en evolución, y sus órbitas pueden decaer o interrumpirse.
Salvo estas catástrofes más inminentes, los planetas se evaporarán a medida que se desintegran
sus protones (véase §IV.H).
La teoría de la relatividad general indica que las órbitas planetarias decaen lentamente a través
de la emisión de radiación gravitacional (ver §III.B). Para fijar ideas, considere un planeta que
orbita una estrella de masa M * en un radio orbital inicial R. La radiación gravitacional impulsa
la desintegración orbital en una escala de tiempo dada por
(3,33)
o, en términos de décadas cosmológicas,
(3,34)
Mientras tanto, los planetas pueden ser desalojados de sus estrellas madres durante encuentros
y colisiones con estrellas entrelazadas. La escala de tiempo para estas dislocaciones viene dada
por el intervalo de tiempo requerido para producir un encuentro suficientemente cercano con
otra estrella. De manera muy aproximada, si una estrella perturbadora se entromete en la órbita
de un planeta determinado, es probable que el planeta sea expulsado por completo del sistema.
Esta escala de tiempo viene dada por
(3,35)
donde n es la densidad numérica de estrellas (~ 0.1 pc − 3 en nuestra galaxia actual), υ es la
velocidad relativa (~ 100 km / s), y donde la sección transversal σ está determinada por el radio
orbital del planeta (σ ≈ π R 2). Insertando estos valores, uno encuentra
(3,36)
(3,37)
donde R es el radio de la órbita planetaria.
Comparando la ecuación [3.33] con la ecuación [3.36], encontramos que la escala de tiempo
para la radiación gravitacional es igual a la de los encuentros estelares para órbitas planetarias
de radio R = 0.2 AU, que es aproximadamente la mitad del radio de la órbita de Mercurio en
nuestro propio sistema solar. Uno podría suponer entonces que los planetas muy cercanos, como
el compañero recientemente descubierto de 51 Pegasus (Mayor y Queloz, 1995; Marcy, Butler y
Williams, 1996), eventualmente se fusionarán con sus estrellas progenitoras como resultado de
la desintegración orbital radiativa. , mientras que los planetas con órbitas iniciales más grandes
(por ejemplo, los planetas gigantes de nuestro sistema solar) serán despojados de sus estrellas
madres como consecuencia de los encuentros estelares. Sin embargo, dado que la escala de
tiempo para la evolución estelar (η * <14) es mucho más corta que la escala de tiempo para la
desintegración orbital, Los planetas cercanos alrededor de estrellas de tipo solar serán
destruidos durante las fases de gigante roja mucho antes de que sus órbitas sean restringidas
por la relatividad general. Solo los planetas interiores de las enanas M de baja masa (que no
experimentan fases gigantes) encontrarán su destino sellado por la radiación gravitacional.
, (4,1)
y el diagrama de Feynman para este proceso de desintegración se muestra en la Figura 5.4. Son
posibles muchos canales de desintegración adicionales y los detalles dependen en última
instancia de la teoría particular (por ejemplo, véanse las revisiones de Langacker, 1981; Perkins,
1984). En particular, observamos que son posibles muchos otros productos de desintegración,
incluidos los neutrinos. Si los protones son inestables, los neutrones también serán inestables en
una escala de tiempo acorde. Por supuesto, los neutrones libres son inestables a la
desintegración β en una escala de tiempo muy corta (~ 10 minutos); sin embargo, los neutrones
ligados serán inestables a través de procesos análogos a los modos de desintegración de
protones (por ejemplo, ver Figura 5.4). En el contexto actual, los protones y neutrones de interés
están unidos en núcleos "pesados" (principalmente carbono y helio) dentro de enanas blancas.
Figura 5.4Diagramas de Feynman representativos para la desintegración de protones (diagrama superior) y la desintegración de
neutrones (diagrama inferior) mostrados en términos de los quarks constituyentes (u, d, ¯d). Estos procesos son la forma esperada
para las grandes teorías unificadas más simples. Las partículas X e Y son los bosones del vector intermedio que median el proceso
de violación del número de bariones y se espera que tengan masas comparables a la escala GUT ~ 1016 GeV.
Para la clase más simple de GUT, como lo ilustran los modos de desintegración que se muestran
en la Figura 5.4, la tasa de desintegración de nucleones Γ P viene dada aproximadamente por
, (4,2)
donde m P es la masa del protón y α5 es un parámetro de acoplamiento adimensional (ver, por
ejemplo, Langacker, 1981; Perkins, 1984; Kane, 1993). La escala de masa MX es la masa de la
partícula que media en el proceso de violación del número bariónico. La tasa de desintegración
también debe incluir un factor numérico adicional que tenga en cuenta la probabilidad de que
los quarks que interactúan (que participan en la desintegración) estén en el mismo lugar al
mismo tiempo; este factor numérico es menor que la unidad, por lo que la vida útil del protón es
mayor en un factor correspondiente. En una primera aproximación, la escala de tiempo para la
desintegración de protones viene dada por
, (4,3)
donde hemos tenido en cuenta el factor de probabilidad numérico antes mencionado. La escala
de tiempo cosmológica correspondiente es
. (4,4)
Observe que esta escala de tiempo tiene una dependencia muy sensible de la escala de masa MX
del bosón mediador.
Queremos encontrar el rango permitido para la vida útil del protón. Esta escala de tiempo está
restringida desde abajo por los límites experimentales actuales sobre la vida útil del protón (por
ejemplo, Perkins, 1984). La vida útil del protón debe ser mayor que η ~ 32 (1032 años), donde
el límite exacto depende del modo particular de desintegración del protón (Particle Data Group,
1994). Encontrar un límite superior es más difícil. Si restringimos nuestra atención a la clase de
procesos de desintegración de protones para los que la ecuación [4.4] es válida, entonces
debemos encontrar un límite superior en la escala de masa MX. Siguiendo la tradición
cosmológica, esperamos que la escala MX sea más pequeña que la escala de Planck MP 1 ≈ 1019
GeV, lo que implica el siguiente rango para la vida útil del protón,
. (4,5)
El límite inferior lo establecen los datos experimentales; el límite superior es más sugerente que
definitivo (ver también §IV.F).
Podemos encontrar un rango más restrictivo para la vida útil del protón para el caso especial
en el que el modo de desintegración de algún GUT es responsable de la bariogénesis en el
universo temprano. (Tenga en cuenta que es necesario algún proceso de violación del número
bariónico para que tenga lugar la bariogénesis; véase Sakharov, 1967). Supongamos que el modo
de desintegración de alguna GUT es válido y que la bariogénesis tiene lugar a una escala de
energía en el universo temprano EB ~ MX. Esta escala energética debe ser menor que la escala
energética EI de la época inflacionaria (Guth, 1981). La escala de energía inflacionaria está
restringida a menos de ~ 10-2 MP 1 para evitar la sobreproducción de perturbaciones de
densidad escalar y perturbaciones de radiación gravitacional (Lyth, 1984; Hawking, 1985;
Krauss y White, 1992; Adams y Freese, 1995). Combinando estas dos limitaciones,
(4,6)
Aunque un rango de nueve órdenes de magnitud en la escala de tiempo relevante parece bastante
severo, el tenor general de la siguiente discusión no depende críticamente del valor exacto. En
aras de la precisión, adoptamos η P = 37 como una escala de tiempo representativa.
(4,7)
donde la energía típica de los fotones viene dada por E γ ~ m P / 4 ~ 235 MeV. Estos fotones
tienen una trayectoria libre media relativamente corta dentro de la estrella y se termalizarán y
difundirán hacia afuera a través de un proceso de caminata aleatoria con una escala de tiempo
característica de ~ 105 años, mucho más corta que la escala de tiempo evolutiva del sistema.
Además, una fracción de los productos de desintegración se encuentra en forma de neutrinos,
que abandonan inmediatamente el sistema.
Cuando la desintegración de protones es la fuente de energía primaria de una enana blanca, la
luminosidad es
(4,8)
donde N 0 ~ 1057 es el número inicial de protones en la estrella, E ~ 1 GeV es la energía neta
producida por desintegración y Γ P es la tasa de desintegración. El factor F es un parámetro de
eficiencia que tiene en cuenta la fracción de energía perdida en forma de neutrinos. De manera
muy aproximada, esperamos que ~ 1/3 de la energía en los productos de desintegración esté en
neutrinos y, por lo tanto, F ~ 2/3 (por ejemplo, Dicus et al., 1982). El valor exacto de la fracción
F depende de las relaciones de ramificación para una GUT particular y, por lo tanto, depende del
modelo. Para una tasa de desintegración típica de Γ P ~ 10−37 año − 1, la luminosidad en
unidades solares se convierte en
. (4,9)
Quizás sea más esclarecedor expresar esta luminosidad estelar en unidades terrestres
ordinarias. Una enana blanca alimentada por la desintegración de protones genera
aproximadamente 400 vatios, suficiente potencia para hacer funcionar algunas bombillas o,
alternativamente, alrededor de 1/2 caballo de fuerza. Toda una galaxia de tales estrellas tiene
una luminosidad total de L gal ~ 10−13 L e, que es mucho má s pequeña que la de una sola estrella
en llamas de hidrógeno.
La vida útil total posible de una estrella impulsada por la desintegración de protones viene
dada por
, (4,10)
donde N 0 ~ 1057 es el número inicial de nucleones en la estrella y N min es el número mínimo
de nucleones requeridos para considerar el objeto como una estrella. Si, por ejemplo, se toma el
caso extremo de N min = 1, el tiempo necesario para que la estrella desaparezca por completo es
≈ 130 / Γ P; en general obtenemos
. (4,11)
Como mostramos en §IV.D, el objeto deja de ser una estrella cuando N min ~ 1048 y por lo tanto
η * ≈ η P + 1.3.
Durante la fase de desintegración de protones, la temperatura de la superficie estelar viene
dada por
(4.12)
donde hemos asumido que la distribución de energía espectral es simplemente un cuerpo negro
(σ B es la constante de Stefan-Boltzmann). Para una estrella de 1M e y la tasa de desintegración
típica Γ P, la temperatura estelar efectiva es T * ~ 0.06 K. Esta temperatura será enormemente
más caliente que la temperatura de la radiación de fondo del universo en la década cosmológica
η = 37.
A medida que una enana blanca pierde masa a través de la desintegración de protones, la
estrella se expande de acuerdo con la relación habitual masa / radio.
(4,13)
donde Z y A son el número atómico y el peso atómico del material enano blanco (por ejemplo,
Chandrasekhar, 1939; Shu, 1982; Shapiro y Teukolsky, 1983). Para simplificar, tomaremos
valores típicos y usaremos A = 2Z. Si también reescribimos la relación masa / radio de la enana
blanca en términos de unidades naturales, obtenemos la relación
. (4,14)
Mientras que la enana blanca se encuentra en la fase de desintegración de protones de su
evolución, la estrella sigue una pista bien definida en el diagrama HR, es decir,
. (4,15)
o, en términos de valores numéricos,
(4,16)
Observamos que la relación masa / radio de la enana blanca depende de la composición química
de la estrella, que cambia a medida que se desintegran los nucleones (ver la siguiente sección).
Este efecto hará que las pistas evolutivas se aparten ligeramente de la ley de potencia 12/5
derivada anteriormente. Sin embargo, esta modificación es pequeña y no se considerará aquí.
, (4,17)
donde μ es la masa reducida del núcleo, R 0 es el espaciamiento promedio entre núcleos y α es la
constante de estructura fina (ver Shapiro y Teukolsky, 1983). Se puede obtener una forma
ligeramente diferente de esta velocidad de reacción incluyendo efectos anisotrópicos y de
cribado de electrones (Salpeter y Van Horn, 1969), pero la forma básica es similar. El parámetro
S (E) es una función de energía que varía lentamente y que tiene en cuenta la probabilidad de
que dos núcleos interactúen dado que se ha producido un túnel. Específicamente, el parámetro
S está relacionado con la sección transversal σ (E) a través de la relación
(4,18)
donde T es la probabilidad de transición de tunelización. El parámetro S puede determinarse a
partir de experimentos directos o de cálculos teóricos (ver Shapiro y Teukolsky, 1983; Bahcall,
1989).
Para evaluar la escala de tiempo para que ocurran reacciones piconucleares, es necesario
determinar el espaciamiento R 0 de los núcleos o, de manera equivalente, la densidad numérica
de partículas. Usando la relación masa / radio de la enana blanca, obtenemos el resultado
, (4,19)
donde A es el peso atómico promedio de los núcleos y donde hemos definido m * ≡ M * / M e.
Ahora podemos obtener una estimación aproximada de la eficiencia de las reacciones
piconucleares que construyen núcleos más grandes dentro de las enanas blancas. Como punto
de referencia, observamos que para una densidad de ρ ~ 106 g cm − 3, la escala de tiempo para
que el hidrógeno se fusione en helio es ~ 105 años (por ejemplo, Shapiro y Teukolsky, 1983;
Salpeter y van Horn, 1969), que es mucho más corto que la escala de tiempo de desintegración
de protones. Sin embargo, la forma de la ecuación [4.17] muestra que la velocidad de las
reacciones nucleares se suprime en gran medida a medida que los núcleos que reaccionan se
hacen más grandes. El factor de supresión exponencial tiene aproximadamente la forma ~ exp
[−βZA 1/2], donde el factor numérico β ≈ 22. Por lo tanto, a medida que aumenta la cantidad ZA
1/2, la velocidad de las reacciones nucleares disminuye exponencialmente. Por ejemplo, si Z = 6
y A = 12 (para carbono), este término exponencial es un factor de ~ 10-190 más pequeño que el
del hidrógeno. Debido a esta gran supresión exponencial, las reacciones de fusión generalmente
no avanzarán más allá del helio durante la evolución química tardía que se considera aquí. Por
lo tanto, el efecto neto de las reacciones picnonucleares es mantener a la enana en
descomposición con una composición predominantemente de helio a una escala de masa más
baja.
La espalación es otro proceso importante que afecta la evolución química de las estrellas
enanas blancas durante la época de la desintegración de los protones. Los fotones de alta energía
producidos a través de la desintegración de protones pueden interactuar con los núcleos de la
estrella. El resultado más común de tal interacción es la emisión de un solo neutrón libre, pero
también pueden resultar partículas cargadas (protones), neutrones adicionales y rayos gamma
(p. Ej., Hubbell, Gimm y Overbo, 1980). Los neutrones libres serán capturados rápidamente por
otros núcleos en un tipo de proceso s de tiempo tardío (el proceso r es, por supuesto,
dramáticamente irrelevante). Los protones libres pueden producir núcleos más pesados
mediante reacciones piconucleares, como se describió anteriormente. Por tanto, ambos
mecanismos permiten que se acumulen elementos más pesados en la estrella, aunque a un ritmo
muy lento y con una abundancia muy baja. Por lo tanto, el proceso de espalación produce
inicialmente neutrones y protones libres; pero estos nucleones se incorporan a otros núcleos.
Como resultado, el efecto neto de la espalación es eliminar nucleones de algunos núcleos y luego
devolverlos a otros núcleos dentro de la estrella. El resultado de este proceso de redistribución
es ampliar la distribución de los números atómicos (y pesos atómicos) de los núcleos de la
estrella.
Para evaluar la importancia de los procesos de espalación, debemos considerar la sección
transversal de interacción. En orden de avance, la sección transversal para la absorción nuclear
de fotones es una sola "resonancia gigante" con un pico de aproximadamente 24 MeV para
núcleos ligeros y un ancho en el rango Γ = 3 - 9 MeV. La magnitud relativa de esta característica
de resonancia es ~ 20 mb (ver, por ejemplo, Hubbell, Gimm y Overbo, 1980; Brune y Schmidt,
1974), aproximadamente un factor de 30 más pequeño que la sección transversal de interacción
total (que está dominada por la dispersión y producción de parejas). Por cada evento de
desintegración de protones, ~ 940 MeV de materia se convierten en fotones, con algunas
pérdidas de neutrinos. Cuando estos fotones caen en cascada en energía a través del régimen de
resonancia (a ~ 24 MeV), habrá entre 20 y 40 fotones y aproximadamente uno de cada 30
producirá un evento de espalación. Por lo tanto, en promedio,
Los productos de espalación permiten la interesante posibilidad de que se pueda configurar
un ciclo de CNO dentro de la estrella. La escala de tiempo para las reacciones piconucleares entre
protones (producidos por espalación) y núcleos de carbono es corta en comparación con la
escala de tiempo de desintegración de protones. La escala de tiempo para las reacciones
piconucleares entre protones y núcleos de nitrógeno es comparable a la escala de tiempo de
desintegración de protones. Así, en principio, la enana blanca puede establecer un ciclo de CNO
análogo al que opera en las estrellas de la secuencia principal superior (ver Clayton, 1983;
Kippenhahn y Weigert, 1990; Shu, 1982). La energía producida por este ciclo será pequeña en
comparación con la producida por la desintegración de protones y, por lo tanto, este proceso en
realidad no afecta la luminosidad de la estrella. Sin embargo, este ciclo afectará la composición
química y la evolución de la estrella. Como siempre,
Para comprender mejor la evolución química de las enanas blancas, hemos realizado una
simple simulación numérica del proceso. La Figura 5.5 muestra los resultados de este cálculo
para una enana blanca de 1 M e con una composición química inicial de carbono puro 12C. La
simulación asume que los isótopos radiactivos se desintegran inmediatamente a medida que se
forman a través de los modos de desintegración preferidos. Para cada evento de desintegración
de protones, también ocurre un evento de espalación (ver arriba) y conduce a la remoción de un
nucleón de un núcleo aleatorio; Entonces se supone que los productos de espalación se fusionan
inmediata y aleatoriamente con otros núcleos a través del proceso s y reacciones piconucleares.
El proceso de espalación acumula una pequeña abundancia de núcleos más pesados que el 12C
original, en particular el 13C, que tiene una acción de masa fr en tiempos “tempranos”. La enana
blanca evoluciona a través de fases sucesivas en las que los núcleos cada vez más pequeños son
los elementos dominantes por fracción de masa. La estrella nunca acumula una fracción
significativa de litio debido a la fisión inmediata del 8Be recién formado en partículas α. La
estrella tiene una fase amplia durante la cual 4He domina la composición. Cuando la enana blanca
ha perdido alrededor del 60% de su masa original, la fracción de masa de hidrógeno comienza a
predominar.
En las fases finales de la vida de una enana blanca, la estrella ha perdido la mayor parte de su
masa debido a la desintegración de protones. Cuando la masa de la estrella se vuelve lo
suficientemente pequeña, surgen dos efectos importantes: el primer efecto es que la
degeneración desaparece y la estrella deja de ser una enana blanca. El segundo efecto es que el
objeto se vuelve ópticamente delgado a su radiación interna producida por la desintegración de
protones y, por lo tanto, deja de ser una estrella. En la siguiente discusión, presentamos
estimaciones simples de las escalas de masa a las que ocurren estos eventos.
Cuando la estrella ha perdido lo suficiente de su masa inicial como para volverse no
degenerada, la mayoría de los nucleones de la estrella estarán en forma de hidrógeno (ver la
sección anterior). Una estrella fría compuesta de hidrógeno puro generalmente tendrá una capa
gruesa de hidrógeno molecular que rodea un núcleo degenerado de hidrógeno atómico. A
medida que la masa estelar continúa disminuyendo a través del proceso de desintegración de
protones, el núcleo degenerado se vuelve cada vez más pequeño y finalmente desaparece por
completo. Esta transición ocurre cuando la energía de degeneración, la energía de Coulomb y la
energía autogravitacional de la estrella son todas comparables en magnitud; este evento, a su
vez, ocurre cuando la presión central PC cae por debajo de un valor crítico de aproximadamente
unos pocos Megabars (PC ~ 1012 dinas / cm2). La presión central en una estrella se puede
escribir en la forma
(4,20)
donde β es un número adimensional de unidad de orden. Usando la relación masa / radio de la
enana blanca en la forma de la ecuación [4.13] y estableciendo Z = A = 1, encontramos la presión
central en función de la masa estelar,
, (4,21)
(4,22)
Combinando estos resultados, encontramos que la escala de masa M * nd en la que la estrella se
vuelve no degenerada está dada por
. (4,23)
Esta escala de masa es aproximadamente la masa de un planeta gigante como Júpiter (para una
discusión más detallada de este tema, ver también Hamada & Salpeter, 1961; Shu, 1982). En este
punto de su evolución, la estrella tiene un radio R * ~ 0.1R e ~ 7 × 109 cm y una densidad media
de aproximadamente ρ ~ 1 g / cm3; estas propiedades también son comparables a las de Júpiter.
Como punto de referencia, observe también que los átomos de hidrógeno neutros empaquetados
en una matriz cúbica con lados iguales a un radio de Bohr darían una densidad de 1.4 g / cm3.
En esta transición, una estrella impulsada por la desintegración de protones tiene una
luminosidad L * ≈ 10−27 L e y una temperatura super icial efectiva T * ≈ 0,0034 K.
Una vez que la estrella se vuelve no degenerada, sigue una nueva pista en el diagrama HR. Las
expresiones para la luminosidad y la temperatura de la superficie (véanse las ecuaciones [4.8] y
[4.12]) siguen siendo válidas, pero la relación masa / radio cambia. Dado que la densidad de la
materia está determinada por las fuerzas de Coulomb para las escalas de masa pequeñas de
interés, la densidad es aproximadamente constante con un valor ρ0 ~ 1 g / cm3. Por tanto,
(4,25)
Esta abrupta ley de potencia implica que la temperatura efectiva de la estrella no cambia mucho
durante las fases finales de la evolución (la masa tiene que disminuir en 12 órdenes de magnitud
para que la temperatura cambie en un factor de 10). Como resultado, las temperaturas
superficiales efectivas de orden T * ~ 10−3 K caracterizan las fases inales de la evolució n estelar.
A medida que la estrella pierde masa, también se vuelve cada vez más delgada ópticamente a
la radiación. A medida que un objeto se vuelve transparente, se vuelve difícil considerar de
manera significativa el remanente como una estrella. Un objeto se vuelve ópticamente delgado
cuando
, (4,26)
(4,27)
donde C es un número adimensional (de orden unidad) y σ T es la sección transversal de
Thompson. En una aproximación aproximada, la densidad será ρ ~ 1 g / cm3 y, por lo tanto, la
densidad numérica tendrá un valor aproximadamente constante n ~ 1024 cm − 3. Usando estos
valores, encontramos que la "estrella" tendrá un grosor óptico seguro para los rayos gamma
siempre que su tamaño característico sea mayor de aproximadamente un metro. En otras
palabras, el objeto debe ser tan grande como una gran roca. Sin embargo, estas rocas no se
parecerán mucho a las estrellas. A las temperaturas bolométricas extremadamente bajas
características de las fotosferas estelares en estos tiempos tardíos, la longitud de onda de los
fotones fotosféricos será macroscópica y, por lo tanto, interactuará con mucha menos fuerza que
los rayos gamma. Como resultado, la distribución de energía espectral de estos objetos sufrirá
desviaciones severas de las formas espectrales del cuerpo negro.
Para considerar la profundidad óptica de la estrella a su campo de radiación interno,
reescribimos la condición [4.26] usando la relación nσ = ρκ, donde κ es la opacidad. Como se
dedujo anteriormente (ecuación [4.24]), la temperatura de la superficie es una función que varía
lentamente en esta fase final de evolución; como resultado, la longitud de onda de los fotones en
la fotosfera estelar será del orden de λ ~ 100 cm. La interacción de esta radiación con la estrella
depende de la pureza química y la estructura de grano cristalino del material estelar. Podemos
obtener una estimación muy aproximada de la opacidad escalando a partir de cantidades
astrofísicas conocidas. Para el grafito interestelar, por ejemplo, la opacidad a λ = 100 μm es
aproximadamente κ ~ 1 cm2 / gy escala con la longitud de onda de acuerdo con κ ∝ λ − 2 (ver
Draine y Lee, 1984). Por lo tanto, estimamos que la opacidad en las capas externas de la estrella
/ roca será κ ~ 10−8 cm2 / g. Por lo tanto, para que la estrella sea ó pticamente gruesa a su
radiación interna, su radio debe ser R *> 108 cm, que corresponde a una escala de masa de
(4,28)
Todos estos valores deben considerarse muy aproximados.
A partir de estos resultados, el futuro último de las enanas blancas, y de hecho nuestro propio
sol, se vuelve claro: una enana blanca emerge de la degeneración como una esfera pura de
hidrógeno cuando la masa cae por debajo de M * ~ 10−3 M e. Finalmente, el objeto restante se
vuelve transparente a su propia radiación interna cuando su masa disminuye a M * ~ 1024 g, y
en este punto ya no es una estrella. La evolución estelar llega así efectivamente a su fin.
Justo antes de la conclusión de la evolución estelar, la enana blanca experimenta alrededor de
2000 eventos de desintegración de protones por segundo y, por lo tanto, tiene una luminosidad
de L * ~ 10−33 L e ~ 4 erg / s, y una temperatura T * ~ 10−3 K . El momento en el que se produce
(4,29)
Las fases finales de la vida de una estrella de neutrones diferirán del caso de una enana blanca.
En particular, los neutrones en una estrella de neutrones salen de la degeneración de una manera
algo diferente a los electrones en una enana blanca. Dentro de una estrella de neutrones, los
neutrones existen y no se desintegran β (en protones, electrones y antineutrinos) debido a las
densidades extremadamente altas, que están cerca de las densidades nucleares en el interior
estelar. En el exterior, sin embargo, cada estrella de neutrones tiene una corteza sólida
compuesta de materia ordinaria. A medida que una estrella de neutrones derrocha su masa a
través de la desintegración de nucleones, el radio aumenta y la densidad disminuye. Las capas
externas de la estrella son menos densas que las regiones centrales y, por lo tanto, la región
externa experimentará primero la desintegración β. Por lo tanto, a medida que la masa
disminuye, los neutrones en la parte exterior de la estrella comienzan a desintegrarse en sus
partículas constituyentes y la estrella debe reajustarse en consecuencia; el efecto neto es que la
corteza de materia ordinaria se espesa constantemente y se mueve hacia adentro, hacia el centro.
Una vez que la masa estelar disminuye por debajo de un valor crítico MC *, la corteza alcanza el
centro de la estrella y la transición se completa. En este punto, la estrella se parecerá más a una
enana blanca que a una estrella de neutrones.
Figura 5.6La evolución completa del Sol (o cualquier estrella de 1 M◉) en el Diagrama HR. La pista muestra la evolución general
de una estrella, desde el nacimiento hasta la muerte final. La estrella aparece primero en el diagrama HR en la línea de nacimiento
estelar y luego sigue una pista de secuencia previa a la secuencia principal. Después de su evolución posterior a la secuencia
principal (fases de gigante roja, rama horizontal, supergigante roja y nebulosa planetaria), la estrella se convierte en una enana
blanca y se enfría a lo largo de una trayectoria de radio constante. La estrella pasa muchas décadas cosmológicas η = 11-25 en un
punto cerca del centro del diagrama (L * = 1014 W; T * = 63 K), donde la estrella es alimentada por la aniquilación de los WIMP
acumulados desde el halo galáctico. Cuando se agota el suministro de WIMP, la estrella se enfría relativamente rápido y obtiene su
luminosidad de la desintegración de protones (L * ≈ 400 W). Luego, la estrella sigue la trayectoria evolutiva en la parte inferior
derecha del diagrama (con L * ~ T * 12/5) hasta que la pérdida de masa por la desintegración de protones hace que la estrella se
vuelva ópticamente delgada. En este punto, el objeto deja de ser una estrella y la evolución estelar llega a su fin.
Este proceso define así una estrella de neutrones de masa mínima (ver Shapiro y Teukolsky,
1983), que se caracteriza aproximadamente por los parámetros
(4,30)
donde ρ C es la densidad central de la estrella. Es difícil imaginar procesos astrofísicos actuales
que produzcan objetos estelares cerca de este límite. La transformación de una estrella de
neutrones a una enana blanca ocurre con una escala de tiempo dada por
(4,31)
donde M 0 ≈ 1.4M e es la masa inicial de la estrella de neutrones. Observe que las estrellas de
neutrones tienen un rango de masa posible de solo un factor de ~ 15, considerablemente más
pequeño que el rango de masa disponible para las enanas blancas.
. (4,32)
Figura 5.7Diagrama de Feynman representativo para la desintegración de nucleones para un proceso B = 2, es decir, una
desintegración que involucra dos nucleones. El resultado neto de esta interacción (que se muestra aquí en términos de los quarks
constituyentes) es la desintegración de un neutrón y un protón en dos piones, n + p → π0 + π +. La partícula Y media el proceso de
violación del número bariónico. Se pueden obtener diagramas similares para la desintegración neutrón-neutrón y para la
desintegración protón-protón cambiando el tipo de quarks espectador.
Incluso para este ejemplo de orden superior, la teoría debe tener los vértices adecuados para que
ocurra este proceso. Observamos que algunas teorías prohíben esta clase de canales de
desintegración y requieren reacciones ΔB = 3 para que se produzca la desintegración de
nucleones (p. Ej., Goity y Sher, 1995; Castano y Martin, 1994). Para el ejemplo que se muestra en
la Figura 5.7, la tasa de caída se suprime mediante un factor de (m P / MX) 4 ~ 1064 en relación
con el canal de caída GUT más simple. Como resultado, la escala de tiempo para la desintegración
de protones a través de este proceso de segundo orden está dada aproximadamente por
(4,33)
y la escala de tiempo cosmológica correspondiente es
. (4,34)
Para que tenga lugar este proceso de desintegración, los protones involucrados deben estar cerca
unos de otros. Para el caso de interés, los protones en las enanas blancas están (en su mayoría)
en núcleos de carbono y, por lo tanto, cumplen con este requisito. De manera similar, los
neutrones en una estrella de neutrones se encuentran esencialmente en densidades nucleares.
Sin embargo, observe que los protones libres en el espacio interestelar o intergaláctico
generalmente no se descomponen a través de este canal.
El protón también puede decaer a través de procesos virtuales de agujero negro en las teorías
de la gravedad cuántica (p. Ej., Zel'dovich, 1976; Hawking, Page y Pope, 1979; Page, 1980;
Hawking, 1987). Desafortunadamente, la escala de tiempo asociada con este proceso no está muy
bien determinada, pero se estima que se encuentra en el rango
, (4,35)
con el rango correspondiente de décadas cosmológicas
. (4,36)
Por lo tanto, dentro de la incertidumbre (muy grande), esta escala de tiempo para la
desintegración de protones es proporcional a los procesos GUT de segundo orden discutidos
anteriormente.
Observamos que existen muchos otros modos posibles de desintegración de nucleones. Por
ejemplo, las teorías supersimétricas pueden dar lugar a un proceso de desintegración de
neutrones dobles de la forma que se muestra en la Figura 5.8a (ver Goity y Sher, 1995). En este
caso, dos neutrones se desintegran en dos kaones neutros. Dentro del contexto de las GUT
estándar, también pueden ocurrir canales de desintegración que involucran diagramas de orden
superior. Como otro ejemplo, el proceso que se muestra en la figura 5.8b involucra tres bosones
vectoriales intermedios y, por lo tanto, conduce a una vida útil del protón aproximadamente
dada por
. (4,37)
Son posibles otros estados finales (por ejemplo, tres piones), aunque las escalas de tiempo
deberían ser comparables. Este proceso (Figura 5.8b) involucra solo los procesos de violación
del número bariónico más elementales, que permiten interacciones de la forma general
. Como resultado, es probable que este modo de caída ocurra incluso cuando los
canales de orden inferior no estén permitidos.
Finalmente, mencionamos el caso de los esfalerones, que proporcionan otro mecanismo que
puede conducir a la violación del número de bariones y, por lo tanto, a la desintegración de los
protones. La estructura de vacío de la teoría electrodébil permite la no conservación del número
de bariones; Los eventos de túnel entre los diferentes estados de vacío en la teoría dan lugar a
un cambio en el número de bariones (para más detalles, ver Rajaraman, 1987; Kolb y Turner,
1990). Debido a que estos eventos requieren tunelización cuántica, la tasa de este proceso se
suprime exponencialmente a temperatura cero por el factor grande f = exp [4π / α W] ~ 10172,
donde αW es la constante de estructura fina para interacciones débiles. En términos de décadas
cosmológicas, la escala de tiempo para la desintegración de protones a través de este proceso
tiene la forma η P = η0 + 172, donde η0 es la escala de tiempo natural (sin supresión). Usando el
tiempo de cruce de luz del protón para determinar la escala de tiempo natural (es decir, tomamos
de manera optimista η0 = −31), obtenemos la estimació n bruta η P ≈ 141. Dado que esta escala
de tiempo es mucho más larga que la edad actual del universo , este modo de desintegración de
protones no se ha explorado completamente. Además, este proceso tiene reglas de selección
asociadas (por ejemplo, 't Hooft, 1976) que ponen límites adicionales a los posibles eventos que
exhiben no conservación del número bariónico. Sin embargo, este modo de violación del número
bariónico podría desempeñar un papel en el futuro lejano del universo. este proceso tiene reglas
de selección asociadas (por ejemplo, 't Hooft, 1976) que ponen límites adicionales a los posibles
eventos que exhiben no conservación del número bariónico. Sin embargo, este modo de violación
del número bariónico podría desempeñar un papel en el futuro lejano del universo. este proceso
tiene reglas de selección asociadas (por ejemplo, 't Hooft, 1976) que ponen límites adicionales a
los posibles eventos que exhiben no conservación del número bariónico. Sin embargo, este modo
de violación del número bariónico podría desempeñar un papel en el futuro lejano del universo.
Para resumir esta discusión, enfatizamos que muchos mecanismos diferentes para la violación
del número de bariones y la desintegración de protones se pueden realizar dentro de las teorías
modernas de partículas.
Figura 5.8Diagrama de Feynman representativo para procesos de desintegración de nucleones de orden superior, que se muestra
aquí en términos de los quarks constituyentes. (a) Desintegración de neutrones dobles para una teoría supersimétrica. La reacción
neta convierte dos neutrones n en dos kaones neutros K0. Las tildes denotan las parejas supersimétricas de las partículas. (b)
Desintegración de doble nucleón con tres bosones vectoriales intermedios Y. Son posibles otros estados finales (p. ej., tres piones),
pero la tasa de desintegración general es comparable e implica una escala de tiempo de desintegración ηP ~ 165 + 12 log10 [MY /
1016GeV].
Para poner estas escalas de tiempo muy largas en perspectiva, observamos que el número total
NN de nucleones en el universo observable (en la época actual) es aproximadamente NN ~ 1078.
Por lo tanto, para un tiempo de desintegración de η = 100, el número esperado ND de nucleones
que se han descompuesto dentro de nuestro universo observable durante toda su historia es
mucho menor que la unidad, ND ~ 10-12. Las dificultades experimentales implicadas en la
detección de procesos de desintegración de protones de orden superior quedan así claras.
Si el protón se desintegra con una vida útil correspondiente a η ~ 100-200, la evolución de las
enanas blancas será cualitativamente la misma que en el escenario descrito anteriormente, pero
con algunas diferencias. Dado que la escala de tiempo evolutiva es mucho más larga, las
reacciones piconucleares serán mucho más efectivas para reconstruir la composición química de
las estrellas hasta los núcleos de alto número atómico. Por lo tanto, las estrellas con una masa
determinada tendrán números atómicos más altos para sus núcleos constituyentes. Sin embargo,
la velocidad de reacción nuclear (ecuación [4.17]) tiene una sensibilidad exponencial a la
densidad. A medida que la estrella pierde masa y se vuelve menos densa (de acuerdo con la
relación masa / radio de la enana blanca [4.13, 4.14]), las reacciones piconucleares se detendrán
de manera bastante abrupta. Si estas reacciones nucleares se detienen por completo, la estrella
se convertiría rápidamente en hidrógeno puro y la desintegración de protones a través de un
proceso de dos cuerpos sería altamente suprimida. Sin embargo, el hidrógeno tiende a formar
moléculas a estas temperaturas extremadamente bajas. La reacción piconuclear entre los dos
protones en una molécula de hidrógeno procede a una velocidad fija que es independiente de las
condiciones ambientales y tiene una escala de tiempo de aproximadamente η ≈ 60 (ver Dyson,
1979, Shapiro & Teukolsky, 1983, y §III.C para estimaciones simples de las tasas de reacción
piconuclear). Esta reacción convertirá así la estrella en deuterio y helio en una escala de tiempo
significativamente más corta que la de la desintegración de protones de orden superior. Los
núcleos más grandes resultantes aún pueden descomponerse a través de un proceso de segundo
o tercer orden.
, (4,40)
. (4,41)
o equivalente,
(4,42)
Por lo tanto, incluso un agujero negro con una masa comparable a una galaxia (M BH ~ 1011 M
e) se evaporará a través de este proceso en la escala de tiempo η BH ~ 98. Una consecuencia
importante de este resultado es que para η> 100, un gran fracción del universo estará en forma
de radiación, electrones, positrones y otros productos de desintegración.
, (4,43)
Esta escala de tiempo también representa el momento en el que el planeta es efectivamente
destruido.
Durante la época de la desintegración de los protones, los planetas irradian energía con una
luminosidad efectiva dada por
, (4,44)
donde ME es la masa de la Tierra y donde hemos utilizado una vida útil de desintegración de
protones de 1037 años. Se espera que el factor de eficiencia F sea de orden unitario. Por tanto, la
luminosidad corresponde a ~ 0,4 mW.
, (5,1)
donde H 0 es el valor actual del parámetro de Hubble (ver, por ejemplo, Peebles, 1993). Observe
que, por definición, la edad τ U → ∞ como Ω0 → 1. Las observaciones cosmológicas actuales
sugieren que la constante de Hubble está restringida a estar en el rango de 50 - 100 km s − 1 Mpc
− 1 (p. Ej., Riess, Press, & Kirshner, 1995), y de ahı́ la escala de tiempo está restringido a ser
superior a ~ 10 Gyr. Observaciones adicionales (por ejemplo, Loh y Spillar, 1986) sugieren que
Ω0 <2. Usando estos resultados, obtenemos un límite inferior en la vida total del universo,
. (5,2)
En términos de la variable de tiempo η, este límite toma la forma
. (5,3)
Este límite no es muy fuerte: si el universo está realmente cerrado, entonces no habrá tiempo
suficiente para permitir muchos de los procesos que describimos en este artículo.
También notamos que un modelo de universo cerrado puede, en principio, generalizarse para
dar lugar a un universo oscilante. En este caso, el Big Crunch que ocurre al final del universo es
realmente un "Big Bounce" y produce un nuevo universo de la próxima generación. Esta idea se
originó con Lemaître (1933) y posteriormente ha sido considerada en muchos contextos
diferentes (desde Tolman, 1934 hasta Peebles, 1993).
, (5,4)
donde el signo menos indica que vivimos en una región localmente subdensa. Por tanto, se
requiere una perturbación de densidad con amplitud de unidad de orden; además, como
discutimos a continuación, la escala de tamaño de la perturbación debe exceder en gran medida
el tamaño del horizonte actual.
En escalas de tamaño comparables a las de nuestro horizonte actual, las fluctuaciones de
densidad están limitadas a ser bastante pequeñas (Δρ / ρ ~ 10−5) debido a las mediciones de
fluctuaciones de temperatura en la radiación de fondo de microondas cósmica (Smoot et al.,
1992; Wright et al., 1992). En escalas de tamaño más pequeñas, las mediciones adicionales
indican que las fluctuaciones de densidad son igualmente pequeñas en amplitud (p. Ej., Meyer,
Cheng y Page, 1991; Gaier et al., 1992; Schuster et al., 1993). El fondo de microondas también
restringe las fluctuaciones de densidad en escalas mayores que el horizonte (por ejemplo,
Grischuk y Zel'dovich, 1978), aunque la sensibilidad de la restricción disminuye al aumentar la
escala de tamaño λ de acuerdo con la relación ~ (λhor / λ) 2, donde λhor es el tamaño del
horizonte.
. (5,5)
Para un universo localmente plano (Ω0 ≈ 1), las fluctuaciones de densidad con esta escala de
tamaño entrarán en el horizonte en un momento t 1 ≈ 3 × 107 t 0 ≈ 3 × 1017 años, o, de manera
equivalente, en la década cosmológica
. (5,6)
Esta escala de tiempo representa un límite inferior en la edad (final) del universo si la geometría
actual es espacialmente plana. En la práctica, el universo recién cerrado requerirá algún tiempo
adicional para volver a colapsar (ver ecuación [5.1]) y, por lo tanto, el límite inferior de la edad
total se vuelve aproximadamente η> 18.
La situación es algo diferente para el caso de un universo abierto con Ω0 <1. Si el universo está
abierto, entonces la velocidad de expansión se acercará (relativamente) rápidamente a la
velocidad de la luz, es decir, el factor de escala se expandirá de acuerdo con R ∝ t (para esta
discusión, no incluimos la posibilidad de que Ω0 = 1 - ε, donde , es decir, solo consideramos
casos manifiestamente abiertos). En este límite, el horizonte de partículas (comovivo) se
expande logarítmicamente con el tiempo y, por lo tanto, continúa creciendo. Sin embargo, la
esfera de la velocidad de la luz, la distancia a la que las partículas del universo se alejan a la
velocidad de la luz, se acerca a una constante en coordenadas comovivas. Como resultado, las
perturbaciones de densidad en escalas muy grandes permanecerán efectivamente "congeladas"
y, por lo tanto, se les impedirá un mayor crecimiento mientras el universo permanezca abierto.
Debido a que el horizonte comoving continúa creciendo, aunque con bastante lentitud, existe la
posibilidad de que el universo se cierre en algún momento futuro. El crecimiento logarítmico del
horizonte implica que la escala de tiempo para que el universo se cierre depende
exponencialmente de la escala de tamaño λ1 para la cual las perturbaciones de densidad son de
orden unitario. , incluso en comparación con las escalas de tiempo consideradas en este
trabajo.
Para resumir, si el universo tiene actualmente una geometría espacial casi plana, entonces las
restricciones de fondo de microondas implican un límite inferior en la edad total del universo,
η> 18. La evolución del universo en tiempos posteriores depende del espectro de perturbaciones
de densidad. Si las perturbaciones de gran amplitud (Δρ / ρ> 1) ingresan al horizonte en
momentos tardíos, entonces el universo podría terminar en una gran crisis en algún momento
η> η 1 = 17,5. Por otro lado, si las perturbaciones de densidad a gran escala tienen una pequeña
amplitud , entonces el universo puede continuar expandiéndose durante escalas de tiempo
mucho más largas. Si el universo está actualmente abierto, entonces las perturbaciones de
densidad a gran escala están esencialmente congeladas.
, (5,7)
donde el lado izquierdo de la desigualdad se refiere a la inversa del producto del parámetro de
Hubble y el factor de escala evaluado en la futura década cosmológica η y el lado derecho se
refiere a la misma cantidad evaluada al comienzo de la época inflacionaria.
El parámetro de Hubble al comienzo de la inflación toma la forma
, (5,8)
donde MI es la escala de energía al comienzo de la inflación (típicamente, la escala de energía MI
~ 1016 GeV, que corresponde a la década cosmológica η I ~ −44.5). De manera similar, el
parámetro de Hubble en algún momento futuro η se puede escribir en la forma
, (5,9)
donde la escala de energía M η está definida por
. (5,10)
En la segunda igualdad, hemos escrito la densidad de energía en términos de su valor ρ0 en la
época actual y asumimos que el universo permanece dominado por la materia. También
asumimos que la evolución del universo es esencialmente adiabática desde el final de la inflación
(final del factor de escala R) hasta la época futura de interés (factor de escala R η), es decir,
, (5,11)
donde T η = T 0 / R η es la temperatura del CMB en el momento η y T 0 ≈ 2,7 K es la temperatura
del CMB hoy. La cantidad fM I es la temperatura del CMB al final del inflado, después de la
termalización, y hemos introducido el factor adimensional f <1.
Combinando todos los resultados anteriores, obtenemos la siguiente restricción para una
inflación suficiente,
. (5,12)
A continuación, escribimos la densidad de energía actual ρ0 en términos de la temperatura actual
T 0 del CMB,
, (5,13)
donde β ≈ 100. El número de pliegues electrónicos viene dado por
. (5.14a)
Insertando valores numéricos y usando la definición [1.1] de décadas cosmológicas, podemos
escribir esta restricción en la forma
. (5.14b)
Por ejemplo, para tener suficiente inflación para que el universo sea suave y plano hasta la
década cosmológica η = 100, necesitamos NI ≈ 130 e-pliegues de inflación. Este valor no es
irrazonable en el sentido de que NI = 130 es tan natural desde el punto de vista de la física de
partículas como el valor de NI = 61 requerido por la inflación estándar.
También debemos considerar las perturbaciones de densidad producidas por la inflación.
Todos los modelos conocidos de inflación producen fluctuaciones de densidad y la mayoría de
los modelos predicen que las amplitudes están dadas por
, (5,15)
donde H es el parámetro de Hubble y Φ es el campo escalar responsable de la inflación
(Starobinsky, 1982; Guth y Pi, 1982; Hawking, 1982; Bardeen, Steinhardt y Turner, 1983). En
modelos de inflación con más de un campo escalar (p. Ej., La & Steinhardt, 1989; Adams & Freese,
1991), los campos adicionales también pueden producir fluctuaciones de densidad de acuerdo
con la ecuación [5.15].
Para que estas fluctuaciones de densidad sean lo suficientemente pequeñas, como lo requieren
las mediciones del fondo cósmico de microondas, el potencial V (Φ) para el campo de inflación
debe ser muy plano. Esta declaración se puede cuantificar definiendo un "parámetro de ajuste
fino" λ FT a través de la relación
, (5,16)
donde ΔV es el cambio en el potencial durante una porción dada de la época inflacionaria y ΔΦ
es el cambio en el campo escalar durante el mismo período (Adams, Freese y Guth, 1991). El
parámetro λ FT está restringido a menos de ~ 10−8 para todos los modelos de in lació n de esta
clase y normalmente es mucho más pequeño, λ FT ~ 10−12, para modelos especı́ icos. La
pequeñez requerida de este parámetro impone fuertes restricciones a los modelos de inflación.
Las restricciones antes mencionadas se derivaron exigiendo que las fluctuaciones de densidad
(ecuación [5.15]) sean suficientemente pequeñas en amplitud sobre las escalas de tamaño de
interés cosmológico actual, es decir, desde el tamaño del horizonte (hoy) hasta la escala de
tamaño de las galaxias. Estas perturbaciones de densidad se generan sobre N δ ≈ 8 e-pliegues
durante la época inflacionaria. Sin embargo, como se discutió en §VB, las fluctuaciones de
densidad de gran amplitud pueden cruzar el horizonte en el futuro y cerrar efectivamente el
universo (ver también Linde, 1988, 1989, 1990). Para que el universo sobreviva (no se cierre)
hasta alguna década cosmológica futura η, las fluctuaciones de densidad deben ser pequeñas en
amplitud para todas las escalas de tamaño hasta el tamaño del horizonte en el tiempo η (dentro
de un orden de magnitud - ver ecuación [5.1 ]). Como resultado,
, (5,17)
donde η es la futura década cosmológica de interés. Por ejemplo, para η = 100 necesitaríamos N
δ ≈ 77. Aunque este valor más grande de N δ coloca un límite más estricto en el parámetro de
ajuste fino λ FT, y por lo tanto, una restricción más estricta sobre el potencial inflacionario, dichos
límites se pueden acomodar por modelos inflacionarios (ver Adams, Freese y Guth, 1991 para
una discusión más detallada). Hablando libremente, una vez que el potencial es plano sobre el
habitual N δ = 8 e-pliegues requeridos para los modelos inflacionarios estándar, no es tan difícil
hacerlo plano para N δ = 80.
, (5,18)
donde ρrad es la densidad de energía del campo de radiación y S (t) es un término fuente (véase,
por ejemplo, Kolb y Turner, 1990).
Las estrellas de baja masa seguirán brillando en el futuro. El término fuente para esta radiación
estelar se puede escribir en la forma
, (5,19)
donde L * y n * son la luminosidad y la densidad numérica de las estrellas de baja masa. En la
segunda igualdad, hemos introducido la fracción de masa actual de estrellas de baja masa Ω *, la
eficiencia de combustión nuclear ε * ~ 0.007, la vida estelar efectiva t * y la densidad de energía
actual del universo ρ0. Para este ejemplo, hemos escrito estas expresiones para una población
de estrellas con una sola masa; en general, uno debería, por supuesto, considerar una
distribución de masas estelares y luego integrar sobre la distribución. Como un refinamiento
adicional, también se podría incluir la dependencia del tiempo de la luminosidad estelar L * (ver
§II).
Para una geometría dada del universo, encontramos la solución para el campo de radiación de
fondo de estrellas de baja masa,
, (5,20)
donde el factor adimensional f = 1/2 para un universo abierto yf = 3/5 para un universo plano.
Esta forma es válida hasta que las estrellas se apaguen en el tiempo t = t *. Después de ese tiempo,
el campo de radiación simplemente se desplaza al rojo de la manera habitual, ρrad * ~ R −4.
Para el caso de la aniquilación de WIMP en enanas blancas, el término fuente viene dado por
, (5,21)
donde L * y n * son la luminosidad y la densidad numérica de las enanas blancas. En la segunda
igualdad, hemos escrito la fuente en términos de densidad de energía en WIMP, donde Ω W es la
fracción de masa actual de WIMP y Γ es la tasa de aniquilación efectiva. La solución para el campo
de radiación de fondo de la aniquilación de WIMP se puede encontrar,
, (5,22)
donde el factor adimensional f se define arriba. Esta forma es válida hasta que los halos galácticos
comiencen a quedarse sin materia oscura WIMP en el tiempo t ~ Γ − 1 ~ 1025 años, o hasta que
el halo galáctico expulse casi todas sus enanas blancas. Observamos que la aniquilación directa
de la materia oscura también contribuirá al campo de radiación de fondo del universo. Sin
embargo, esta radiación será altamente no térmica; los productos de aniquilación incluirán rayos
gamma con energía característica E γ ~ 1 G eV.
Para el caso de la desintegración de protones, el término fuente efectivo para el campo de
radiación resultante se puede escribir
, (5,23)
donde Ω B es la contribución actual de los bariones a la densidad de energía total ρ0, Γ P es la
tasa de desintegración de protones y F es un factor de eficiencia de orden unitario. Para una
geometría dada del universo, obtenemos la solución para el campo de radiación de fondo de la
desintegración de protones,
, (5,24)
donde F (ξ) es una función adimensional de la variable de tiempo adimensional ξ ≡ Γ P t. Por un
universo abierto
, (5,25)
mientras que para un universo plano,
(5,26)
donde γ (5/3, ξ) es la función gamma incompleta (Abramowitz y Stegun, 1972).
Para la evaporación de un agujero negro, el cálculo del campo de radiación es más complicado
porque el resultado depende de la distribución de masa de los agujeros negros en el universo.
Para simplificar, consideraremos una población de agujeros negros con una sola masa M y
fracción de masa Ω BH (escalada a la época actual). El término fuente para la evaporación de un
agujero negro se puede escribir en la forma
, (5,27)
donde τ BH es la vida útil total de un agujero negro de la masa M dada (ver ecuación [4.37]). Para
un universo abierto, obtenemos la solución para el campo de radiación de fondo de la
evaporación del agujero negro.
, (5,28)
donde la variable de tiempo adimensional ξ = t / τ BH. Para un universo abierto, la función
adimensional F (ξ) viene dada por
, (5,29)
mientras que para un universo plano,
(5.30)
Cada uno de los cuatro campos de radiación discutidos aquí tiene la misma dependencia
temporal general. Para tiempos cortos en comparación con los tiempos de agotamiento, los
campos de radiación tienen la forma
, (5,31)
donde Ω X es la abundancia actual de la materia prima y Γ X es la tasa de desintegración efectiva
(observe que hemos descuidado los factores adimensionales de la unidad de orden). Una vez que
las fuentes (estrellas, WIMP, protones, agujeros negros) se han agotado sucesivamente, los
campos de radiación restantes simplemente se desplazan hacia el rojo, es decir,
, (5,32)
donde el subíndice se refiere al final del período de tiempo durante el cual se produjo la radiación
ambiental.
Debido al gran desajuste en las escalas de tiempo características, cada uno de los campos de
radiación proporcionará la contribución dominante al contenido de radiación del universo
durante un período de tiempo determinado. Esta tendencia se ilustra en la Figura 5.9, que
muestra la contribución relativa de cada campo de radiación en función del tiempo cosmológico
η. Con fines ilustrativos, hemos asumido un universo abierto y las siguientes abundancias de
fuentes: estrellas de baja masa Ω * = 10−3, partı́culas masivas de interacció n dé bil Ω W = 0,2,
bariones Ω B = 0,05 y agujeros negros Ω BH = 0,1 . En la actualidad, el fondo cósmico de
microondas (sobrante del propio Big Bang) proporciona el componente de radiación dominante.
El campo de radiación de la luz de las estrellas dominará el fondo durante las próximas décadas
cosmológicas. En la década cosmológica η ~ 16, el campo de radiación resultante de la
aniquilación de WIMP superará el fondo de la luz de las estrellas y se convertirá en el
componente dominante. En la década cosmológica η ~ 30, el campo de radiación de aniquilación
de WIMP se habrá desplazado al rojo y el campo de radiación de la desintegración de protones
comenzará a dominar. En escalas de tiempo mucho más largas, η ~ 60, el campo de radiación de
la evaporación del agujero negro proporciona la contribución dominante (donde hemos utilizado
agujeros negros de 106 M e para este ejemplo).
Figura 5.9Campos de radiación de fondo en el universo. El eje vertical representa la relación entre la densidad de energía en
radiación y la densidad de energía total (asumiendo que el universo sigue dominado por la materia). El eje horizontal está dado en
términos de décadas cosmológicas η. Las diversas curvas representan los campos de radiación del fondo cósmico de microondas
(CMB), la luz de las estrellas de baja masa (S), la radiación de la aniquilación de WIMP en las enanas blancas (WIMP), la radiación
de la desintegración de protones (desintegración p) y la evaporación del agujero negro. (agujeros negros).
Hasta ahora, la discusión se ha centrado en la densidad de energía total ρrad de los campos de
radiación de fondo. También se puede determinar el espectro de los campos de fondo en función
del tiempo cosmológico, es decir, se podría seguir la evolución temporal de la densidad de
energía de radiación por unidad de frecuencia. En general, los espectros de los campos de
radiación de fondo serán no térmicos por dos razones:
1. Los términos fuente no son necesariamente cuerpos negros perfectos. Las propias
estrellas y los agujeros negros producen espectros casi térmicos, pero los objetos de
diferentes masas irradiarán como cuerpos negros de diferentes temperaturas. Por lo
tanto, se debe integrar sobre la distribución masiva de la población de origen. Es
interesante que esta declaración se aplique a todas las fuentes anteriores. Para las tres
primeras fuentes (estrellas de baja masa, enanas blancas que irradian productos de
aniquilación WIMP y enanas blancas impulsadas por la desintegración de protones), la
distribución de masa no es muy amplia y el espectro compuesto resultante es cercano al
de un cuerpo negro. Para el caso de los agujeros negros, el espectro es potencialmente
mucho más amplio, pero la distribución de masa es mucho más incierta.
2. La expansión del universo desplaza hacia el rojo el campo de radiación a medida que se
produce y, por lo tanto, hace que el espectro resultante sea más amplio que una
distribución térmica. Sin embargo, debido a la dependencia temporal lineal de la emisión
(ecuación [5.31]), la mayor parte de la radiación se emite en la última década cosmológica
de la vida de la fuente. Por tanto, el efecto de desplazamiento al rojo no es tan grande
como podría pensarse ingenuamente.
Los resultados anteriores, tomados en conjunto con nuestra comprensión cosmológica actual,
implican que es poco probable que el universo se convierta en dominado por la radiación en un
futuro lejano. La mayor parte de la densidad de energía en la época actual está (muy
probablemente) en forma de materia oscura no bariónica de algún tipo. Una fracción sustancial
de esta materia oscura reside en halos galácticos, y una fracción de estos halos puede ser
aniquilada y, por tanto, convertida en radiación a través del proceso de captura de enanas
blancas descrito en §III.E. Sin embargo, una fracción igual o mayor de esta materia oscura reside
fuera de las galaxias y / o puede escapar a la destrucción por evaporación de los halos galácticos.
Por lo tanto, a menos que las propias partículas de materia oscura se descompongan en
radiación, parece que debería sobrevivir suficiente materia oscura no bariónica para mantener
la materia del universo dominada en todas las épocas futuras; Además, los electrones y
positrones sobrantes ayudarán a evitar que el universo se vuelva dominado por la radiación
(véase también Page y McKee, 1981ab).
(5,34)
es decir, la relación entre la densidad de energía del vacío y la densidad de materia ρ0 en la época
actual. Entonces podemos integrar la ecuación [5.6] en el futuro y resolver el tiempo t vac en el
que el universo se vuelve dominado por el vacío. Encontramos el resultado
, (5,35)
donde t 0 es la edad actual del universo y hemos de inido τ ≡ (6πGρ 0) −1/2; ambas escalas de
tiempo t 0 y τ son aproximadamente 1010 años.
Varios resultados son inmediatamente evidentes a partir de la ecuación [5.35]. Si la densidad
de energía del vacío proporciona una fracción apreciable de la densidad de energía total en la
época actual (en otras palabras, si ν no es demasiado pequeño), entonces el universo entrará en
una fase inflacionaria en un futuro muy cercano. Además, casi cualquier valor que no
desaparezca de la energía del vacío actual conducirá al universo a una fase inflacionaria en las
escalas de tiempo prolongadas consideradas en este artículo. Para valores pequeños de la razón
ν, la época inflacionaria futura ocurre en la década cosmológica dada por
. (5,36)
Por ejemplo, incluso para una contribución de vacío actual tan pequeña como ν ~ 10−40, el
universo entrará en una fase inflacionaria en la década cosmológica ηinflate ≈ 30, mucho antes
de que los protones comiencen a desintegrarse. En otras palabras, el problema de la constante
cosmológica tradicional se vuelve aún más severo cuando consideramos las décadas
cosmológicas futuras.
Si el universo entra en una futura época inflacionaria, surgen varias consecuencias
interesantes. Después de un tiempo de transición comparable a la edad del universo en la época
[5.36], el factor de escala del universo comenzará a crecer superluminalmente. Debido a esta
rápida expansión, todos los objetos astrofísicos del universo quedan aislados y, finalmente,
quedan fuera de contacto causal. En otras palabras, cada observador que se mueve
conjuntamente verá un horizonte que se contrae de manera efectiva (el horizonte de partículas
en realidad no se hace más pequeño, pero este lenguaje se ha vuelto común en cosmología; ver
Ellis y Rothman, 1993 para una discusión más detallada de los horizontes en este contexto). . En
particular, los objetos astrofísicos, como las galaxias y las estrellas, cruzarán fuera de la esfera
de la velocidad de la luz y, por lo tanto, desaparecerán de la vista. Para estos mismos objetos
astrofísicos,
2 Procesos de tunelización
A continuación, consideramos la posibilidad de que el universo se encuentre actualmente en un
estado de falso vacío. En otras palabras, existe un estado de vacío de menor energía y el universo
algún día puede hacer un túnel hacia ese estado de menor energía. Este problema, el destino del
falso vacío, fue explorado cuantitativamente por primera vez por Voloshin et al. (1974) y
Coleman (1977). Posteriormente se han estudiado efectos adicionales, incluida la gravedad
(Coleman y De Luccia, 1980) y los efectos de temperatura finita (p. Ej., Linde, 1983).
Para obtener resultados cuantitativos, consideramos un ejemplo ilustrativo en el que la
densidad de energía del vacío del universo se puede describir mediante la dinámica de un solo
campo escalar. Una vez que una configuración de campo queda atrapada en un estado
metaestable (el vacío falso), las burbujas del estado de vacío verdadero se nuclean en el mar de
vacío falso y comienzan a crecer de forma esférica. La velocidad de las paredes de las burbujas
se acerca rápidamente a la velocidad de la luz. El problema básico es calcular la tasa de
tunelización (la probabilidad de desintegración) desde el estado de vacío falso hasta el estado de
vacío verdadero, es decir, la tasa de nucleación de burbujas P por unidad de tiempo por unidad
de volumen. Para la tunelización de campos escalares a temperatura cero (generalmente llamada
tunelización cuántica), la acción euclidiana tetradimensional S 4 de la teoría determina en gran
medida esta tasa de tunelización.
, (5,37)
donde K es un factor determinante (ver Coleman, 1977, 1985). Para fines de ilustración,
asumimos un potencial cuártico genérico de la forma
(5,38)
Entonces podemos escribir la acción S 4 en la forma
, (5,39)
donde δ ≡ 8λb / a 2 y donde R es una función de variación lenta que tiene un valor cercano a la
unidad para la mayor parte del rango de potenciales cuárticos posibles (Adams, 1993). El
parámetro de forma compuesta δ varía de 0 a 2 ya que el potencial V (Φ) varía de no tener una
altura de barrera a tener un vacío casi degenerado (ver Figura 5.10).
Aunque las ecuaciones [5.37 - 5.39] describen la tasa de efecto túnel, desafortunadamente no
sabemos qué potencial (si lo hay) describe nuestro universo y, por lo tanto, es difícil obtener una
estimación numérica precisa para esta escala de tiempo. Para tener una idea cuantitativa de este
problema, consideremos el siguiente ejemplo. Para el caso de ninguna barrera de túnel (es decir,
para S 4 = 0), la probabilidad de caída característica está dada por donde MV es la escala
de energía característica del campo escalar. Para MV = 1016 GeV (aproximadamente la escala
GUT), P 0 ~ 10129 s − 1 cm − 3. Con esta tasa de desintegració n, el universo dentro de un volumen
característico se convertiría de vacío falso a vacío verdadero en una escala de tiempo de ~ 10-
24 s. Sin embargo, es evidente que la escala de tiempo de desintegración real debe ser lo
suficientemente larga como para que el universo no se haya desintegrado en la época actual. Para
asegurarnos de que el universo ha sobrevivido, necesitamos que no hayan ocurrido eventos de
nucleación dentro del volumen del horizonte actual (~ [3000 Mpc] 3) durante la edad actual del
universo (~ 1010 años). Esta restricción implica que la acción S 4 debe ser lo suficientemente
grande para suprimir la nucleación, en particular,
. (5,40)
La pregunta entonces es: ¿es razonable este valor para S 4? Para el parámetro λ, un rango
razonable de valores es 0.1 <λ <1; de manera similar, para δ, tomamos el rango 0.1 <δ <1.9.
Usando el formulario [5.39] para la acción y estableciendo R = 1, encontramos el rango
aproximado
. (5,41)
Figura 5.10Potencial V (Φ) de un campo escalar que determina el estado de vacío del universo. Este potencial tiene tanto un estado
de vacío falso (etiquetado como F) como un estado de vacío verdadero (etiquetado como T). Como lo ilustra la curva punteada, el
universo puede pasar del estado de vacío falso al estado de vacío verdadero en algún momento futuro.
Por lo tanto, el valor requerido para que el universo sobreviva hasta la época actual (ecuación
[5.40]) se puede realizar fácilmente dentro de este modelo simple. En el futuro, sin embargo, el
universo podría entrar en su estado de falso vacío virtualmente en cualquier momento, tan
pronto como mañana, o tan tarde como η = 104. Si ocurre este efecto de túnel, el universo
cambiará su carácter casi por completo. Las leyes físicas del universo, o al menos los valores de
todas las constantes físicas, cambiarían a medida que se completa la transición de fase (ver Sher,
1989 y Crone & Sher, 1990 para una discusión de las leyes cambiantes de la física durante una
transición de fase futura ). El universo, tal como lo conocemos, simplemente dejaría de existir.
El túnel de vacío de todo el universo es sin duda uno de los temas más especulativos
considerados en este artículo. Sin embargo, su inclusión es apropiada ya que el acto de hacer un
túnel desde un vacío falso hacia un vacío verdadero cambiaría la naturaleza del universo de
manera más dramática que cualquier otro proceso físico.
También es posible que el universo cree espontáneamente “universos niños” a través de un
proceso de tunelización cuántica aproximadamente análogo al considerado anteriormente (p.
Ej., Sato et al., 1982; Hawking, 1987; Blau, Guendelman y Guth, 1987). En esta situación, una
burbuja de energía de vacío falso se nuclea en un espacio-tiempo que de otro modo sería vacío.
Si esta burbuja es lo suficientemente grande, crecerá exponencialmente y eventualmente se
desconectará causalmente del espacio-tiempo original. En este sentido, la burbuja recién creada
se convierte en un "universo hijo" separado. El universo recién creado parece bastante diferente
para los observadores dentro y fuera de la burbuja. Los observadores dentro de la burbuja ven
el universo local en un estado de expansión exponencial. Observadores fuera de la burbuja, en el
fondo espacio-tiempo vacío, ve el universo recién creado como un agujero negro que colapsa y
se desconecta causalmente. Como resultado, estos universos infantiles no afectarán en gran
medida la evolución futura de nuestro universo porque (relativamente) rápidamente pierden el
contacto causal.
Un efecto potencialmente interesante de estos universos infantiles es que, en principio, pueden
recibir información de nuestro universo. Antes de que el universo recién creado surja del
contacto causal con nuestro propio universo, se conecta a través de un agujero de gusano
relativista, que puede proporcionar un conducto para la transferencia de información y quizás
incluso la transferencia de materia (ver Visser, 1995 para una discusión más detallada sobre los
agujeros de gusano y la transferibilidad). ). Las implicaciones de esta posibilidad son tema de
debate actual (para diferentes puntos de vista, ver, por ejemplo, Linde, 1988, 1989; Tipler, 1992;
Davies, 1994).
. (5,42)
donde t λ es el momento en que la perturbación ingresa al horizonte y M 0 ≈ 1022 M e es la masa
total dentro del horizonte actual (en el momento t 0).
El tiempo t λ representa el tiempo en el que una determinada perturbación entra en el
horizonte y comienza a crecer; una estructura grande (como un agujero negro) solo puede
formarse en algún momento posterior después de que la perturbación se vuelva no lineal.
Suponga que una perturbación de densidad tiene una amplitud inicial δλ cuando entra en el
horizonte. En el régimen lineal, la perturbación crecerá de acuerdo con la relación habitual
, (5,43)
donde δ ≡ Δρ / ρ y t> t λ (ver Peebles, 1993). Usando esta ley de crecimiento, la época ηnl en la
que la perturbación se vuelve no lineal se puede escribir en la forma
. (5,44)
Por ejemplo, si la perturbación tiene una amplitud δλ = 10−4, entonces se vuelve no lineal en el
tiempo ηnl = ηλ + 6. Como estamos interesados en escalas de tiempo muy largas η> 100, la
diferencia entre el tiempo de cruce del horizonte ηλ y el el tiempo ηnl de no linealidad no es
demasiado grande.
Un posible resultado de este proceso es la producción de un gran agujero negro con una masa
M BH ~ M λ. La escala de tiempo para que dicho agujero negro se evapore a través del proceso
de Hawking viene dada por
, (5,45)
donde hemos combinado las ecuaciones [4.42] y [5.42]. Ya que , el universo puede formar
agujeros negros más rápido de lo que pueden evaporarse. Por tanto, para el caso de un universo
geométricamente plano, las futuras perturbaciones de densidad pueden, en principio, seguir
produciendo agujeros negros de masa cada vez mayor. En este caso, el universo siempre tendrá
una fuente de entropía: la radiación de Hawking de estos agujeros negros.
Observamos que estas perturbaciones limitadas no necesariamente forman agujeros negros.
El material es (muy probablemente) casi en su totalidad no disipativo y sin colisiones, y por lo
tanto tendrá una tendencia a formar grupos virializados con energía de enlace por unidad de
masa de orden ~ δc 2. Por lo tanto, a menos que el espectro de perturbación esté inclinado de
modo que δ sea de orden unidad en estas escalas mucho más grandes, la dinámica resultante es
probablemente más o menos análoga a la de un cúmulo de masa de materia oscura fría en
nuestro universo actual. Sin embargo, incluso si la masa de toda la perturbación no forma un solo
gran agujero negro, las estructuras de menor escala pueden, en principio, formar agujeros
negros, en analogía con las que se encuentran actualmente en los centros de las galaxias actuales.
Además, es posible que los agujeros negros existentes puedan fusionarse más rápido de lo que
se evaporan a través del proceso de Hawking (ver también §III.D). Por tanto, queda la posibilidad
de que continúen existiendo agujeros negros en el universo.
El proceso descrito aquí, la formación de agujeros negros cada vez más grandes, puede
continuar mientras el universo permanezca espacialmente plano y las perturbaciones de
densidad que ingresan al horizonte no sean demasiado grandes. El escenario del universo
inflacionario proporciona un mecanismo para lograr este estado de cosas, al menos hasta alguna
época futura (ver §VC y en particular la ecuación [5.14]). Por lo tanto, la naturaleza del universo
en el futuro lejano puede estar determinado por la física del universo temprano (en
particular, la inflación) en la década cosmológica η ~ −45.
Tenga en cuenta que en estos tiempos tan tardíos, , la materia que entra en el horizonte ya
será "procesada" por los mecanismos físicos descritos anteriormente en el artículo. Por lo tanto,
los nucleones ya habrán decaído (lo más probable) y el contenido de materia del universo será
principalmente electrones, positrones y partículas de materia oscura no bariónicas. La
aniquilación de ambos pares e + −e - y la materia oscura se producirá simultáneamente con el
crecimiento de la perturbación y, por tanto, la masa final del agujero negro será menor que M λ.
Este tema debe estudiarse en mayor profundidad.
, (5,46)
dónde es el parámetro de Hubble y 〈συ〉 es el promedio apropiado de la sección
transversal de interacción multiplicada por la velocidad (por ejemplo, ver Kolb y Turner, 1990).
Dado que estamos interesados en el caso en el que la tasa de expansión es mucho mayor que la
tasa de interacción, las partículas están muy lejos del equilibrio térmico y podemos despreciar
cualquier reacción inversa que produzca partículas. Para este ejemplo, consideramos que el
universo es abierto, independientemente de la actividad de esta población de partículas. Como
resultado, podemos escribir R ∝ t y, por tanto, H = 1 / t. También tomamos la cantidad 〈συ〉
como una constante en el tiempo (correspondiente a la aniquilación de la onda s). Con estas
aproximaciones, la ecuación diferencial [5.46] se puede integrar para obtener la solución
, (5,47)
donde hemos definido la cantidad
, (5,48)
y donde hemos invocado la condición de frontera
. (5,49)
Se pueden encontrar soluciones análogas para la aniquilación de partículas para el caso de un
universo plano (H = 2 / 3t) y un universo que se infla (H = constante).
La diferencia entre la solución [5.47] y la solución de escala adiabática simple n (t) = n 1 (t 1 /
t) 3 se debe a la aniquilación de partículas, que es extremadamente pequeña pero distinta de
cero. Este enunciado puede cuantificarse definiendo la diferencia fraccional Δ entre la solución
[5.47] y la solución adiabática, es decir,
. (5,50)
Durante toda la vida (futura) del universo, la fracción comoviva de partículas que se aniquilan
está dada por la cantidad Δ∞, que es inita y, por lo general, mucho menor que la unidad. Por
ejemplo, si consideramos los valores más grandes posibles en la época actual (σ ≈ σ T ≈ 10−24
cm2, n 1 ≈ 10−6 cm − 3, t 1 ≈ 3 × 1017 s, y υ = c), entonces Δ∞ ≈ 10−2. La fracció n ∞∞ será
generalmente mucho más pequeña que en este ejemplo. El hecho de que la fracción Δ∞ sea inita
implica que el proceso de aniquilación de partículas puede proporcionar solo una cantidad finita
de energía en el intervalo de tiempo infinito η1 <η <∞.
. (5,51)
donde η P es la vida útil del protón (ver §IV) y donde Ω e es la fracción de masa de e ± después
de la desintegración del protón. Para un universo plano o casi plano, la mayoría de los electrones
y positrones se unen al positronio. En un universo abierto, se produce cierta formación de
positronio, pero la mayoría de los electrones y positrones permanecen sueltos.
En el momento de la formación, los átomos de positronio se encuentran generalmente en
estados de número cuántico muy alto (y tienen radios mayores que el tamaño del horizonte
actual). Los átomos emiten una cascada de fotones de baja energía hasta que alcanzan su estado
fundamental; una vez que esto ocurre, el positronio se aniquila rápidamente. Se estima que la
escala de tiempo relevante para este proceso de desintegración es
. (5,52)
VI Resumen y discusión
Nuestro objetivo ha sido presentar una descripción plausible y cuantitativa del futuro del
Universo. La Tabla 5.1 describe los eventos más importantes en el flujo general del tiempo, así
como las décadas cosmológicas en las que ocurren (ver ecuación [1.1]). Al construir esta tabla,
se han asumido valores representativos para los parámetros (a menudo inciertos); Por tanto, las
escalas de tiempo indicadas deben considerarse aproximadas. Además, como regla general, tanto
el futuro general del universo como la línea de tiempo sugerida en la tabla 5.1 se vuelven cada
vez más inciertos ante extrapolaciones sucesivas más profundas en el tiempo. Algunos de los
efectos que hemos descrito competirán entre sí y, por lo tanto, no todos los procesos físicos
relevantes pueden llegar a completarse. Casi con certeza, partes de nuestra línea de tiempo
actual se someterán a una revisión dramática a medida que mejore la comprensión física. Nos ha
llamado la atención la notable utilidad natural del “reloj” logarítmico, η, para organizar el paso
del tiempo. Los procesos globales que pueden caracterizar a todo el universo rara vez abarcan
más de unas pocas décadas cosmológicas, y el flujo y reflujo de los eventos se dispersa de manera
bastante uniforme en ciento cincuenta órdenes de magnitud en el tiempo, es decir, −50 <η <100.
Un resumen de resultados
Nuestras contribuciones específicas a la escatología física se pueden resumir de la siguiente
manera:
[1] Hemos presentado nuevos cálculos de evolución estelar que muestran el
comportamiento a largo plazo de estrellas de muy baja masa (ver Figura 5.1). Las
estrellas con una masa muy pequeña (~ 0,1 M e) no experimentan ninguna fase de
gigante roja. A medida que evolucionan, estas estrellas se vuelven cada vez más brillantes
y azules, alcanzando primero una luminosidad máxima y, segundo, una temperatura
máxima, antes de desvanecerse como enanas blancas de helio.
[2] Tanto la evolución estelar como la formación estelar convencional llegan a su fin en la
década cosmológica η ~ 14. Esta escala de tiempo solo excede ligeramente el tiempo de
evolución más largo para una estrella de baja masa. También corresponde al momento en
que la galaxia se queda sin materia prima (gas) para producir nuevas estrellas. La era de
las estrellas convencionales en el universo se limita al rango 6 <η <14.
[3] Hemos introducido la función de masa final (FMF), es decir, la distribución de masas para
los objetos estelares degenerados que quedan de la evolución estelar (ver Figura 5.2).
Aproximadamente la mitad de estos objetos serán enanas blancas, y la mayoría del resto
serán enanas marrones. La mayor parte de la masa, sin embargo, estará en forma de
enanas blancas (véanse las ecuaciones [2.22] y [2.23]).
[4] Hemos explorado un nuevo modo de formación continua de estrellas a través de las
colisiones de objetos subestelares (ver Figura 5.3). Aunque la escala de tiempo para este
proceso es bastante larga, este modo de formación estelar será la fuente principal de
nuevas estrellas durante décadas cosmológicas en el rango de 15 <η <23.
[5] Hemos presentado un escenario para la evolución futura de la galaxia. La galaxia vive en
su estado actual hasta un tiempo de η ~ 14 cuando cesa la formación de estrellas
convencionales y las estrellas ordinarias más pequeñas abandonan la secuencia principal.
Para tiempos η> 14, el modo principal de formación estelar adicional es a través de las
colisiones y fusiones de enanas marrones (objetos subestelares). La propia galaxia
evoluciona a través de los procesos competitivos de desintegración orbital de las órbitas a
través de la radiación gravitacional y la evaporación de estrellas en el medio
intergaláctico a través de encuentros estelares. La evaporación estelar es el proceso
dominante y la mayoría de las estrellas dejarán el sistema en un momento η ~ 19. Alguna
fracción (estimamos aproximadamente ~ 0.01-0.10) de la galaxia queda atrás en su
agujero negro central.
[6] Hemos considerado la aniquilación y captura de partículas masivas de interacción débil
(WIMP) en el halo galáctico. En ausencia de otros procesos evolutivos, las WIMP en el
halo se aniquilan en la escala de tiempo η ~ 23. Por otro lado, las enanas blancas pueden
capturar WIMP y, por lo tanto, agotar el halo en la escala de tiempo algo más larga η ~ 25.
El fenómeno de La captura de WIMP indica que el enfriamiento de la enana blanca se
detendrá en poco tiempo a una luminosidad L * ~ 10−12 L e.
[7] Dependiendo de la cantidad de pérdida de masa que sufra el Sol cuando se convierte en
una gigante roja, la Tierra puede ser vaporizada por el Sol durante su fase de evolución de
gigante asintótica; en este caso, la Tierra se convertirá en un pequeño aumento (0.01%)
en la metalicidad solar. Sin embargo, en general, los planetas pueden acabar con sus vidas
de diversas formas. Pueden ser vaporizadas por sus estrellas madre, expulsadas al
espacio interestelar a través de encuentros estelares cercanos, fusionarse con sus
estrellas madre a través de la radiación gravitacional y eventualmente pueden
desaparecer a medida que sus protones se desintegran.
[8] Hemos discutido el rango permitido para la vida útil del protón. Un límite inferior firme
en la vida útil surge de las búsquedas experimentales actuales. Aunque no existe un límite
superior definitivo, podemos obtener un "límite" superior sugerente en la vida útil del
protón mediante el uso de tasas de desintegración sugeridas por GUT e invocando la
restricción de la masa del bosón mediador, MX <M P1 ~ 1019 GeV. De este modo
obtenemos el siguiente rango esperado para la vida útil del protón
, (6,1)
[9] donde el número entero N es el orden del proceso, es decir, el número de bosones
mediadores necesarios para que se produzca la desintegración. Incluso para el caso de
tercer orden, tenemos η P <201. Los efectos de la gravedad cuántica también conducen a
la desintegración de protones con escalas de tiempo en el rango de 46 <η P <169.
Finalmente, los esfalerones implican η P ~ 140.
[10] Hemos presentado un escenario para la evolución futura de estrellas similares al sol
(ver Figura 5.6). En este caso, las estrellas evolucionan hacia configuraciones de enanas
blancas como en la evolución estelar convencional. Sin embargo, en escalas de tiempo
suficientemente largas, la desintegración de protones se vuelve importante. Durante
décadas cosmológicas en el rango 20 <η <35, la masa de la estrella no cambia
apreciablemente, pero la luminosidad está dominada por la energía generada por la
desintegración de protones. En las siguientes décadas cosmológicas, η = 35 - 37, la
pérdida de masa juega un papel importante en la determinación de la estructura estelar.
La estrella se expande a medida que pierde masa y sigue la relación habitual masa / radio
de las enanas blancas. La composición química también cambia (ver Figura 5.5). La
desintegración de protones por sí sola reduce rápidamente la estrella a un estado de
hidrógeno puro. Sin embargo, Las reacciones piconucleares serán suficientes para
mantener cantidades sustanciales de helio (3He y 4He) hasta que la masa de la estrella
disminuya por debajo de ~ 0.01M e. Durante la fase de evolución de la desintegración de
protones, una enana blanca sigue una pista bien definida en el diagrama HR dado por L *
∝ T * 12/5. Después de que la masa estelar disminuye a M * ≈ 10−3 M e, la estrella sale de
la degeneración y sigue una pista más empinada L * ∝ T * 12 en el Diagrama HR.
Si la desintegración de protones no tiene lugar a través del proceso de primer orden
asumido anteriormente, entonces las enanas blancas y otros objetos degenerados
seguirán evolucionando, pero en una escala de tiempo mucho más larga. Es probable que
el proceso físico relevante sea la desintegración de protones a través de efectos de orden
superior. Las escalas de tiempo para la destrucción y desintegración de estrellas
degeneradas obedecen al orden
, (6.2)
[11] donde η P ~ 37 es la escala de tiempo para la desintegración de protones de primer
orden, η BH ~ 65 es la escala de tiempo para que un agujero negro de tamaño estelar se
evapore, y η P 2 ~ 100-200 es la escala de tiempo para la desintegración de protones a
través de procesos de orden superior.
[12] En el futuro, el universo en su conjunto puede evolucionar de diversas formas posibles.
Las futuras perturbaciones de densidad pueden cruzar el horizonte y cerrar el universo;
este efecto conduciría en última instancia (localmente) a una gran crisis.
Alternativamente, el universo podría contener una pequeña cantidad de energía del vacío
(un término de constante cosmológica) y podría entrar en una época inflacionaria tardía.
Finalmente, el universo podría estar actualmente en un estado de falso vacío y, por lo
tanto, seguir trabajando al borde de la inestabilidad. En este caso, cuando el universo
finalmente se adentre en el verdadero estado de vacío, las leyes de la física y, por lo tanto,
el universo tal como lo conocemos cambiaría por completo.
[13] A medida que el fondo cósmico de microondas se desplaza hacia el rojo, varios campos
de radiación diferentes dominarán el fondo. A corto plazo, la radiación estelar se
apoderará del fondo cósmico. Posteriormente, la radiación producida por la aniquilación
de la materia oscura (tanto directa como en enanas blancas) proporcionará la
contribución dominante. Este campo de radiación será reemplazado por el que surge de
la desintegración de protones y luego, eventualmente, por el campo de radiación que
surge de la evaporación de los agujeros negros (ver Figura 5.9).
[A] La era dominada por la radiación. −∞ <η <4. Esta era corresponde al período de tiempo
habitual en el que la mayor parte de la densidad de energía del universo está en forma de
radiación.
[B] La Era Stelliferous. 6 <η <14. La mayor parte de la energía generada en el universo
proviene de procesos nucleares en la evolución estelar convencional.
[C] La era degenerada. 15 <η <37. La mayor parte de la masa (bariónica) del universo está
encerrada en objetos estelares degenerados: enanas marrones, enanas blancas y estrellas
de neutrones. La energía se genera mediante la desintegración de protones y la
aniquilación de partículas.
[D] La era del agujero negro. 38 <η <100. Después de la época de la desintegración de los
protones, los únicos objetos estelares que quedan son los agujeros negros de masas muy
dispares, que se evaporan activamente durante esta era.
[E] La Era Oscura. η> 100. En este momento tardío, los protones se han desintegrado y los
agujeros negros se han evaporado. Solo quedan los productos de desecho de estos
procesos: en su mayoría fotones de longitud de onda colosal, neutrinos, electrones y
positrones. La aparente pobreza de esta época lejana se debe quizás más a las dificultades
inherentes a la extrapolación lo suficientemente lejos en el futuro, que a una escasez real
de procesos físicos.
[A] ¿Se descompone el protón? ¿Qué es la vida? Este problema determina en gran medida el
destino de los objetos estelares en el universo para escalas de tiempo superiores a η ~ 35.
Si el protón es estable a los procesos de desintegración de primer orden, entonces los
objetos estelares en general y las enanas blancas en particular pueden vivir en el rango de
décadas cosmológicas. η <100. Si el protón también es estable a los procesos de
desintegración de segundo orden, entonces los objetos estelares degenerados pueden
vivir durante mucho más tiempo. Por otro lado, si el protón se desintegra, una gran
fracción del universo estará en forma de productos de desintegración de protones
(neutrinos, fotones, positrones, etc.) para tiempos η> 35.
[B] ¿Cuál es el estado de vacío del universo? Este problema juega un papel importante en la
determinación del destino final del propio universo. Si la densidad de energía del vacío
del universo es distinta de cero, entonces el universo podría finalmente experimentar una
época futura de inflación. Por otro lado, si la densidad de energía del vacío es
estrictamente cero, entonces las perturbaciones de densidades futuras (grandes) pueden,
en principio, entrar en nuestro horizonte y conducir (localmente) a un universo cerrado
y, por lo tanto, a una gran contracción.
[C] ¿Cuál es la naturaleza de la materia oscura? De particular importancia es la naturaleza de
la materia oscura que forma los halos galácticos. La vida útil de las partículas de materia
oscura también es de gran interés.
[D] ¿Qué fracción de las estrellas de una galaxia se evaporan fuera del sistema y qué fracción
se acumula en el agujero negro central (o agujeros negros)? Este problema es importante
porque los agujeros negros dominan la producción de energía y entropía en el universo
en el rango de tiempo 36 <η <100 y la masa de un agujero negro determina su vida útil.
[E] ¿Ocurre la nueva física a temperaturas extremadamente bajas? A medida que el universo
evoluciona y continúa expandiéndose, las temperaturas relevantes se vuelven cada vez
más pequeñas. En el escenario que se describe aquí, los fotones del fondo cósmico de
microondas y otros campos de radiación, que impregnan todo el espacio, pueden
desplazarse al rojo indefinidamente de acuerdo con la teoría clásica de la radiación.
Parece posible que la teoría clásica se derrumbe en algún momento. Por ejemplo, en un
universo abierto, los fotones CMB tendrán una longitud de onda más larga que el tamaño
del horizonte actual (~ 3000 Mpc) en un momento η ~ 40, justo después de la
desintegración del protón. Se han propuesto algunos modelos preliminares para futuras
transiciones de fase (Primack y Sher, 1980; Suzuki, 1988; Sher, 1989), pero este tema
requiere una mayor exploración.
, (6,3)
donde E es la energía total del sistema. Por lo tanto, para un sistema acotado (con tamaño finito
R), la relación S / E de entropía a energía tiene un límite superior firme. Además, este límite se
puede alcanzar en realidad para los agujeros negros (ver Bekenstein, 1981 para una discusión
más detallada).
Los resultados de este artículo muestran que los eventos cosmológicos continúan produciendo
energía y entropía en el universo, al menos hasta la década cosmológica η ~ 100. Como resultado,
la muerte cosmológica por calor se pospone hasta después de esa época, es decir, hasta la Era
Oscura. Después de ese tiempo, sin embargo, sigue siendo posible, en principio, que el universo
se vuelva casi adiabático y, por lo tanto, aburrido y sin vida. Los mecanismos de generación de
energía y entropía disponibles para el universo dependen del modo de evolución a largo plazo,
como discutimos a continuación.
Si el universo está cerrado (§VA) o se vuelve cerrado en algún momento futuro (§VB), entonces
el universo terminará en una gran crisis y la producción de entropía a largo plazo no será un
problema. En el caso de que el universo permanezca casi plano, las perturbaciones de densidad
de escalas de tamaño cada vez mayores pueden entrar en el horizonte, crecer hasta la no
linealidad y conducir a la producción continua de energía y entropía a través de la evaporación
de los agujeros negros (ver §VF1). Estos agujeros negros saturan el límite de Bekenstein y
maximizan la producción de entropía. La muerte cosmológica por calor puede evitarse así
mientras el universo permanezca casi plano.
Por otro lado, si el universo está abierto, las fluctuaciones de densidad se congelan en una
escala de longitud finita (§VB). La energía contenida en el horizonte se convierte así en una
cantidad finita. Sin embargo, el límite de Bekenstein no restringe directamente la producción de
entropía en este caso porque el tamaño efectivo R crece sin límite. Para un universo abierto, la
cuestión de la muerte por calor cosmológica permanece abierta. Para un universo que
experimenta una futura fase inflacionaria (§VE1), la situación es similar. Aquí, el horizonte se
está reduciendo efectivamente con el tiempo. Sin embargo, las perturbaciones que han crecido
hasta la no linealidad se desacoplarán del flujo de Hubble. La perturbación no lineal más grande
definirá así una escala de longitud más grande λ y, por lo tanto, una escala de masa más grande
en el universo; esta escala de masa implica una vez más una cantidad máxima (finita) posible de
energía disponible para una región local del espacio. Sin embargo, el sistema no está limitado
espacialmente y las cuestiones de la producción de entropía y la muerte por calor cosmológico
nuevamente permanecen abiertas.
Para cerrar este artículo, planteamos el punto de vista de que el universo debe obedecer a un
tipo de Principio Copernicano del Tiempo que se aplica a las consideraciones del futuro. Este
principio sostiene que la época cosmológica actual (η = 10) no tiene un lugar especial en el
tiempo. En otras palabras, pueden seguir sucediendo cosas interesantes a los niveles cada vez
más bajos de energía y entropía disponibles en el universo del futuro.
Expresiones de gratitud
Este artículo surgió de un curso especial impartido en la Universidad de Michigan para el
semestre temático “Muerte, extinción y el futuro de la humanidad” (invierno de 1996). Nos
gustaría agradecer a Roy Rappaport por proporcionar el estímulo inicial para este curso y, por
lo tanto, este documento. También agradecemos a R. Akhoury, M. Einhorn, T. Gherghetta, G. Kane
y E. Yao por sus útiles discusiones sobre la desintegración de protones y otras cuestiones de física
de partículas. Agradecemos a P. Bodenheimer, G. Evrard, J. Jijina, J. Mohr, M. Rees, D. Spergel, FX
Timmes y R. Watkins por muchas discusiones astrofísicas interesantes y por los comentarios
críticos sobre el manuscrito. Este trabajo fue apoyado por un premio NSF Young Investigator
Award, NASA Grant No. NAG 5-2869, y por fondos del Departamento de Física de la Universidad
de Michigan.
Referencias
Abramowitz, M. e IA Stegun, 1972, Handbook of Mathematical Functions (Nueva York: Dover).
Adams, FC 1993, Phys. Rev. D 48, 2800.
Adams, FC y M. Fatuzzo, 1996, Astrophys. J. 464, 256.
Adams, FC y K. Freese, 1991, Phys. Rev. D 43, 353.
Adams, FC y K. Freese, 1995, Phys. Rev. D 51, 6722.
Adams, FC, K. Freese y AH Guth, 1991, Phys. Rev. D 43, 965.
Albrecht, A. y PJ Steinhardt, 1982, Phys. Rev. Lett. 48, 1220.
Alcock, C. et al. 1993, Nature 365, 621.
Aubourg, E. et al. 1993, Nature 365, 623.
Bahcall, JN 1989, Neutrino Astrophysics (Cambridge: Cambridge Univ. Press).
Bardeen, JM, PJ Steinhardt y MS Turner, 1983, Phys. Rev. D 28, 679.
Barrow, JD y FJ Tipler, 1978, Nature 276, 453.
Barrow, JD y FJ Tipler, 1986, The Anthropic Cosmological Principle (Oxford: Oxford Univ. Press).
Bekenstein, JD 1981, Phys. Rev. D 23, 287.
Binney, J. y S. Tremaine, 1987, Galactic Dynamics (Princeton: Princeton Univ. Press).
Blau, SK, EI Guendelman y AH Guth 1987, Phys. Rev. D 35, 1747.
Laughlin, G., P. Bodenheimer y FC Adams, 1996, presentado a Astrophys. J.
Bond, JR, BJ Carr y CJ Hogan, 1991, Astrophys. J. 367, 420.
Brune, D. y JJ Schmidt, 1974, editores, Handbook on Nuclear Activation Cross-Sections (Viena: Organismo Internacional de
Energía Atómica).
Burrows, A., WB Hubbard, D. Saumon y JI Lunine, 1993, Astrophys. J. 406, 158.
Burrows, A. y J. Liebert, 1993, Rev. Mod. Phys. 65, 301.
Carroll, SM, WH Press y EL Turner, 1992, Ann. Rev. Astron. Astrophys. 30, 499.
Castano, DJ y SP Martin, 1994, Phys. Letón. 340 B, 67.
Chandrasekhar, S. 1939, Stellar Structure (Nueva York: Dover).
Clausius, R. 1865, Ann. Physik, 125, 353.
Clausius, R. 1868, Phil. Mag., 35, 405.
Clayton, DD 1983, Principios de la evolución estelar y nucleosíntesis (Chicago: Univ. Chicago Press).
Coleman, S. 1977, Phys. Rev. D 15, 2929.
Coleman, S. 1985, Aspects of Symmetry (Cambridge, Inglaterra: Cambridge Univ. Press).
Coleman, S. y F. De Luccia, 1980, Phys. Rev. D 21, 3305.
Copeland, H., JO Jensen y HE Jorgensen, 1970, Astron. Astrophys. 5, 12.
Crone, MM y M. Sher, 1990, Am. J. Phys. 59, 25.
D'Antona, F. e I. Mazzitelli, 1985, Astrophys. J. 296, 502.
Davies, PCW 1994, The Last Three Minutes (Nueva York: BasicBooks).
Dicus, DA, JR Letaw, DC Teplitz y VL Teplitz, 1982, Astrophys. J. 252, 1.
Diehl, E., GL Kane, C. Kolda y JD Wells, 1995, Phys. Rev. D 52, 4223.
Dorman, B., LA Nelson y WY Chan, 1989, Astrophys. J. 342, 1003.
Draine, BT y HM Lee, 1984, Astrophys. J. 285, 89.
Dyson, FJ 1979, Rev. Mod. Phys. 51, 447.
Dyson, FJ 1988, Infinite in All Directions (Nueva York: Harper and Row).
Eddington, AS 1931, Nature 127, 447.
Ellis, GFR y T. Rothman, 1993, Am. J. Phys. 61, 883.
Ellis, GFR y DH Coule, 1994, Gen. Rel. y Grav. 26, 731.
Elmegreen, BG y RD Mathieu, 1983, Mon. No. R. Astron. Soc. 203, 305.
Faulkner, J. y RL Gilliland, 1985, Astrophys. J. 299, 994.
Feinberg, G., 1981, Phys. Rev. D 23, 3075.
Feinberg, G., M. Goldhaber y G. Steigman, 1978, Phys. Rev. D 18, 1602.
Frautschi, S. 1982, Science 217, 593.
Freese, K. 1986, Phys. Letón. 167 B, 295.
Gaier, T. y col. 1992, Astrophys. J. Lett. 398, L1.
Goity, JL y M. Sher, 1995, Phys. Letón. 346 B, 69.
Golimowski, DA, T. Nakajima, SR Kulkarni y BR Oppenheimer, 1995, Astrophys. J. Lett. 444, L101.
Gott, JR III 1993, Nature 363, 315.
Gould, A. 1987, Astrophys. J. 321, 571.
Gould, A. 1991, Astrophys. J. 388, 338.
Grischuk, LP y Ya. B. Zel'dovich, 1978, Sov. Astron. 22, 125.
Grossman, AS y HC Graboske, 1971, Astrophys. J. 164, 475.
Guth, A. 1981, Phys. Rev. D 23, 347.
Guth, AH y S.-Y. Pi, 1982, Phys. Rev. Lett. 49, 1110.
Hamada, T. y EE Salpeter, 1961, Astrophys. J. 134, 683.
Hawking, SW 1975, Com. Matemáticas. Phys. 43, 199.
Hawking, SW 1982, Phys. Letón. 115 B, 295.
Hawking, SW 1985, Phys. Letón. 150 B, 339.
Hawking, SW 1987, Phys. Letón. 195 B, 337.
Hawking, SW, DN Page y CN Pope, 1979, Phys. Letón. 86 B, 175.
Helmholz, H. von1854, Sobre la interacción de las fuerzas naturales.
Henry, TJ, JD Kirkpatrick y DA Simons, 1994, Astron. J. 108, 1437.
't Hooft, G. 1976, Phys. Rev. Lett. 37, 8.
Hubbell, JH, HA Grimm e I. Overbo, 1980, J. Phys. Chem. Árbitro. Datos 9, 1023.
Islam, JN 1977, Quart. JR Astron. Soc. 18, 3.
Islam, JN 1979, Sky and Telescope 57, 13.
Jungman, G., M. Kamionkowski y K. Griest, 1996, Physics Reports en prensa.
Jura, M. 1986, Astrophys. J. 301, 624.
Kane, GL 1993, Física de partículas elementales modernas (Lectura MA: Addison – Wesley).
Kane, GL y JD Wells, 1996, Phys. Rev. Lett. en prensa.
Kennicutt, RC, P. Tamblyn y CW Congdon, 1995, Astrophys. J. 435, 22.
Kippenhahn, R. y A. Weigert, 1990, Stellar Structure and Evolution (Berlín: Springer).
Kolb, EW y MS Turner, 1990, The Early Universe (Redwood City CA: Addison – Wesley).
Krauss, LM, M. Srednicki y F. Wilczek, 1986, Phys. Rev. D 33, 2206.
Krauss, LM y M. White, 1992, Phys. Rev. Lett. 69, 869.
Kumar, SS 1963, Astrophys. J. 137, 1121.
La, D. y PJ Steinhardt, 1989, Phys. Rev. Lett. 62, 376.
Langacker, P. 1981, Physics Reports 72, 186.
Larson, RB 1973, lunes. No. R. Astron. Soc. 161, 133.
Larson, RB y BM Tinsley, 1978, Astrophys. J. 219, 46.
Laughlin, G. y P. Bodenheimer, 1993, Astrophys. J. 403, 303.
Lee, HM y JP Ostriker, 1986, Astrophys. J. 310, 176.
Lemaître, G. 1993, Ann. Soc. Sci. Bruselas A53, 51.
Lightman, AP y SL Shapiro, 1978, Rev. Mod. Phys. 50, 437.
Linde, AD 1982, Phys. Letón. 108 B, 389.
Linde, AD 1983, Nucl. Phys. B216, 421.
Linde, AD 1988, Phys. Letón. 211 B, 29.
Linde, AD 1989, Phys. Letón. 227 B, 352.
Linde, AD 1990, Física de partículas y cosmología inflacionaria (Nueva York: Harwood Academic).
Loh, E. y E. Spillar, 1986, Astrophys. J. Lett. 307, L1.
Lyth, DH 1984, Phys. Letón. 147 B, 403.
Manchester, RN y JH Taylor, 1977, Pulsars (San Francisco: WH Freeman).
Marcy, GW, RP Butler y E. Williams, 1996, presentado a Astrophys. J.
Mayor, M. y D. Queloz, 1995, Nature 378, 355.
Meyer, SS, ES Cheng y LA Page, 1991, Astrophys. J. Lett. 410, L57.
Mihalas, D. y J. Binney, 1981, Astronomía galáctica: estructura y cinemática (Nueva York: WH Freeman).
Miller, GE y JM Scalo, 1979, Astrophys. J. Supl. 41, 513.
Misner, CW, KS Thorne y JA Wheeler, 1973, Gravitation (San Francisco: WH Freeman).
Mohapatra, RN y RE Marshak, 1980, Phys. Rev. Lett. 44, 1316.
Ohanian, HC y R. Ruffini, 1994, Gravitation and Spacetime (Nueva York: WW Norton).
Oppenheimer, BR, SR Kulkarni, K. Matthews y T. Nakajima, 1995, Science 270, 1478.
Page, DN 1980, Phys. Letón. 95 B, 244.
Page, DN y MR McKee, 1981a, Phys. Rev. D 24, 1458.
Page, DN y MR McKee, 1981b, Nature 291, 44.
Grupo de datos de partículas, 1994, Phys. Rev. D 50, 1173.
Peccei, RD y HR Quinn 1977a, Phys. Rev. Lett. 38, 1440.
Peccei, RD y HR Quinn 1977b, Phys. Rev. D 16, 1791.
Peebles, PJE 1993, Principios de cosmología física (Princeton: Princeton Univ. Press).
Peebles, PJE 1994, Astrophys. J. 429, 43.
Perkins, D. 1984, Ann. Rev. Nucl. Parte. Sci. 34, 1.
Phillips, AC 1994, La física de las estrellas (Chichester: Wiley).
Poundstone, W. 1985, The Recursive Universe (Nueva York: Morrow).
Press, WH y DN Spergel, 1985, Astrophys. J. 296, 679.
Press, WH y SA Teukolsky, 1977, Astrophys. J. 213, 183.
Primack, JR y M. Sher, 1980, Nature 288, 680.
Rajaraman, R. 1987, Solitons and Instantons (Amsterdam: Holanda Septentrional).
Rana, Carolina del Norte 1991, Ann. Rev. Astron. Astrophys. 29, 129.
Rees, MJ 1969, Observatorio 89, 193.
Rees, MJ 1981, Quart. JR Astron. Soc. 22, 109.
Rees, MJ 1984, Ann. Rev. Astron. Astrophys. 22, 471.
Reimers, D. 1975, en Problems in Stellar Astrophysics, eds. B. Bascheck, WH Kegel y G. Traving (Nueva York: Springer), pág. 229.
Riess, AG, WH Press y RP Kirshner, 1995, Astrophys. J. Lett. 438, L17.
Roberts, MS 1963, Ann. Rev. Astron. Astrophys. 1, 149.
Sackmann, I.-J., AI Boothroyd y KE Kraemer, 1993, Astrophys. J. 418, 457.
Sajarov, 1967 d.C., JETP Letters 5, 24.
Salpeter, EE 1955, Astrophys. J. 121, 161.
Salpeter, EE 1982, en Essays in Nuclear Astrophysics (Cambridge: Cambridge Univ. Press).
Salpeter, EE y HM Van Horn, 1969, Astrophys. J. 155, 183.
Sato, K., H. Kodama, M. Sasaki y K. Maeda, 1982, Phys. Letón. 108 B, 103.
Scalo, JM 1986, Fondo. Cos. Phys. 11, 1.
Schuster, J. y col. 1993, Astrophys. J. Lett. 412, L47.
Shapiro, SL y SA Teukolsky, 1983, Agujeros negros, enanas blancas y estrellas de neutrones: la física de los objetos compactos
(Nueva York: Wiley).
Sher, M. 1989, Physics Reports 179, 273.
Shu, FH 1982, The Physical Universe (Mill Valley: University Science Books).
Shu, FH, FC Adams y S. Lizano, 1987, Ann. Rev. Astron. Astrophys. 25, 23.
Smoot, G. y col. 1992, Astrophys. J. Lett. 396, L1.
Stahler, SW 1988, Astrophys. J. 332, 804.
Starobinsky, AA 1982, Phys. Letón. 117 B, 175.
Steinhardt, PJ y MS Turner, 1984, Phys. Rev. D 29, 2162.
Stevenson, DJ 1991, Ann. Rev. Astron. Astrophys. 29, 163.
Suzuki, M. 1988, Phys. Rev. D 38, 1544.
Timmes, FX 1996, inédito.
Tinney, CG 1995, Editor, La parte inferior de la secuencia principal y más allá (Berlín: Springer).
Tipler, FJ 1992, Phys. Letón. 286 B, 36.
Tolman, RC 1934, Relatividad, termodinámica y cosmología, (Oxford: Clarendon Press).
Turner, MS 1983, Nature 306, 161.
Visser, M. 1995, Agujeros de gusano de Lorentz: de Einstein a Hawking (Woodbury NY: AIP Press).
Voloshin, MB, I. Yu. Kobzarev y LB Okun, 1975, Sov. J. Nucl. Phys. 20, 644.
Weinberg, MD 1989, lunes. No. R. Astron. Soc. 239, 549.
Weinberg, S. 1972, Gravitation and Cosmology (Nueva York: Wiley).
Weinberg, S. 1977, The First Three Minutes (Nueva York: Basic).
Weinberg, S. 1978, Phys. Rev. Lett. 40, 223.
Weinberg, S. 1980, Phys. Rev. D 22, 1694.
Weinberg, S. 1989, Rev. Mod. Phys. 61, 1.
Wilczek, F. 1978, Phys. Rev. Lett. 40, 279.
Wilczek, F. y A. Zee, 1979, Phys. Letón. 88 B, 311.
Wood, MA 1992, Astrophys. J. 386, 529.
Wright, EL y col. 1992, Astrophys. J. Lett. 396, L3.
Zel'dovich, Ya. B. 1976, Phys. Letón. 59 A, 254.
Zinnecker, H. 1984, lunes. No. R. Astron. Soc. 210, 43.
Zuckerman, B. y MA Malkan, 1996, The Origin and Evolution of the Universe (Sudbury, MA: Jones y Bartlett).
6
Muerte por calor en termodinámica antigua y
moderna
Gábor Kutrovátz
Por otro lado, un problema muy similar apareció en el siglo XIX con la introducción de la segunda
ley de la termodinámica. Como dice la analogía, en la termodinámica actual se sostiene que todo
sistema termodinámico tiene su estado de equilibrio al que tiende a llegar si ningún efecto
externo lo previene. Esta ley era conceptualmente (aunque no lógicamente) inconsistente con la
mecánica newtoniana, la teoría física dominante de esa época, ya que afirma que la dirección de
los procesos naturales no es indiferente. Si extendemos la validez de la segunda ley a todo el
universo como un sistema termodinámico global, entonces nos encontramos en la misma
situación que Aristóteles: necesitamos dar una explicación al estado dinámico, en lugar de
estático, del universo. Rudolf Clausius introdujo el concepto de Muerte por Calor con las
siguientes palabras:
Cuanto más se acerca el universo a esta condición limitante en la que la entropía es máxima,
más disminuyen las ocasiones de cambios ulteriores; y suponiendo que esta condición se
lograra por fin por completo, no podría tener lugar ningún cambio adicional, y el universo
estaría en un estado de muerte inmutable. [6]
En este artículo, me gustaría discutir dos soluciones muy diferentes al problema dado por la
física antigua y moderna, aunque pondré un mayor énfasis en la teoría moderna que discutiré
con más detalle. Espero que este estudio de caso pueda decirnos tanto sobre la teoría
cosmológica actual como sugiere sobre la naturaleza del cambio científico.
2 La antigua solución
El mundo natural de Aristóteles se dividió en dos regiones: la región sublunar (que consta de los
cuatro elementos materiales de los cuerpos mundanos) y la región superlunar (que consta del
quinto elemento de los cuerpos celestes). Se suponía que la "física", o el "estudio de la
naturaleza", se ocupaba de los fenómenos sublunares, mientras que la región de las esferas
celestes se regía por leyes eternas "metafísicas". Esta distinción fundamental entre las dos
regiones del universo se sostuvo rígidamente en la ciencia aristotélica de la Edad Media. Según
esta imagen, nuestro problema inicial (de "Muerte por calor") es relevante solo para los
fenómenos naturales (sublunares). Sin embargo, la solución final de Aristóteles también atrajo
al mundo celestial eterno y, por lo tanto, se puede reconstruir en dos etapas:
1) La etapa sublunar. Es el movimiento circular del Sol el que induce constantemente procesos
en la naturaleza, en parte manteniendo la transformación de los elementos entre sí y, por lo
tanto, desplazando a los cuerpos de sus lugares naturales:
Porque el sol cuando se acerca o retrocede, obviamente causa disipación y condensación y,
por lo tanto, da lugar a generación y destrucción. Ahora la tierra permanece pero la humedad
que la rodea se evapora por los rayos del sol y el otro calor de arriba, y se eleva. El vapor se
enfría porque su calor se ha ido y porque el lugar está frío, y se condensa nuevamente y se
convierte del aire en agua. Y una vez que el agua se ha formado, vuelve a caer a la tierra. [. . .]
Entonces obtenemos un proceso circular que sigue el curso del sol. [2]
Vale la pena mencionar que esta cita ilustra elocuentemente por qué la mayor parte de la física
de Aristóteles puede interpretarse como una especie de prototermodinámica, en lugar de
protomecánica. Sus explicaciones apelan muy a menudo a los cuatro elementos mundanos
(tierra, agua, aire, fuego) y dan lugar a un gran número de discusiones sobre los fenómenos
térmicos.
2) La etapa superlunar. A pesar de la "irreversibilidad" de los procesos naturales de
Aristóteles, el movimiento eterno de los cuerpos naturales (contrario a su "naturaleza") se
mantiene mediante el movimiento eterno de las esferas celestes (inherentes a ellas), es decir, la
esfera del Sol. Porque a medida que el Sol se mueve alrededor de la Tierra, cambia
constantemente las condiciones de calor de los procesos naturales. Por lo tanto, postular este
movimiento eterno inherente de las esferas sería suficiente para responder a la pregunta original
sobre el movimiento de los cuerpos naturales. Pero Aristóteles continúa su cadena de causalidad.
El movimiento de la esfera del Sol se produce por el movimiento de las esferas exteriores (cada
una de las cuales hace que la vecina interior se mueva), y el movimiento de la esfera exterior es
provocado por el primer movimiento (o inmóvil).
[. . .] porque es imposible que haya una serie infinita de movimientos, cada uno de los cuales
es movido por algo más, ya que en una serie infinita no hay un primer término, si entonces
todo lo que está en movimiento es movido por algo, y el primer movimiento se mueve pero
no por nada más, debe moverse por sí mismo. [4]
Este es un argumento puramente a priori sobre la cadena de causalidad: si todos los cuerpos son
movidos por otros cuerpos, entonces, al comienzo de esta cadena, debe haber un actor que se
mueva pero no se mueva. (Como muchos pensadores griegos antiguos, Aristóteles estaba en
contra, y no podía aceptar, la noción de infinito). Que este Primer Movimiento debe estar ubicado
en la esfera celestial más externa, se 'prueba' de la siguiente manera:
Además, el [primer] movimiento debe ocupar el centro o la circunferencia, ya que estos son
los primeros principios de los que se deriva una esfera. Pero las cosas más cercanas al
movimiento son aquellas cuyo movimiento es más rápido, y en este caso es el movimiento de
la circunferencia el más rápido: por lo tanto, el movimiento ocupa la circunferencia [del
mundo]. [5]
Este es en parte otro argumento a priori, aunque apela a la observación de que los cuerpos que
se mueven directamente son más rápidos en su movimiento que los cuerpos que se mueven
indirectamente (o de manera mediada). La física de Aristóteles se basa, por un lado, en la
observación de los fenómenos cotidianos (donde la fricción y la disipación están siempre
presentes, a diferencia de los 'casos ideales' de Newton donde se pueden formular leyes de
conservación) y, por otro lado, en aspectos filosóficos más generales. principios sobre la
naturaleza y el ser. La física y la metafísica no están separadas en las antiguas teorías de la
naturaleza; pero, ¿están separados en la física moderna?
3 La solución moderna
El problema de la Muerte por Calor en el siglo XIX fue resuelto en el siglo XX, con el nacimiento
de la cosmología moderna. Dado que el universo en expansión no es una entidad eterna, no existe
una contradicción directa entre la validez universal de la segunda ley de la termodinámica y la
evidencia empírica de los procesos naturales. Incluso si el estado final de la Muerte por Calor es
inevitable, dado que la historia pasada del universo es finita, no hay nada paradójico en el hecho
de que no hayamos alcanzado este estado todavía: sucederá en algún momento en el futuro. Se
resuelve así la llamada "paradoja de la muerte por calor".
Sin embargo, esta solución plantea otro problema: si el estado preferido de los sistemas es el
de equilibrio, ¿por qué no están hoy en su estado de equilibrio? ¿Qué sucedió en el curso pasado
del desarrollo cósmico que se puede llamar para explicar esta imagen del mundo que no está en
equilibrio? En otras palabras, nuestra pregunta inicial sigue siendo válida: ¿Por qué hay
movimiento en la naturaleza? O más precisamente: ¿de dónde se origina el movimiento
existente?
3.1 Extropía
Para formular la pregunta en un lenguaje más adecuado para los propósitos científicos
modernos, introduzcamos la noción de extropía [10]. Es un parámetro de estado que expresa la
distancia de un sistema a su estado de equilibrio en la escala entrópica. En otras palabras, mide
la producción de entropía del proceso imaginario que lleva al sistema al equilibrio con el entorno.
Es la diferencia entre la entropía máxima del sistema más el entorno y la entropía real del sistema
más el entorno,
(1)
En el caso del universo, el "entorno" no existe (ya que el universo contiene todas las entidades
que se pueden expresar en el lenguaje físico), por lo que la extropía del universo se expresa de
una forma ligeramente diferente,
(2)
Un sistema está en equilibrio si su extropía es cero: en el caso del universo, esto es lo que
llamamos 'Muerte por calor'. Nuestra pregunta, por lo tanto, puede formularse de la siguiente
manera: ¿Qué proceso puede producir extropía global en la escala cósmica?
1. Para R:
(3)
donde R es el 'radio' del universo (el parámetro de escala), G es la constante gravitacional, ρ es
la densidad de la materia y κ es una constante que determina si el universo es abierto (κ ≥ 0) o
cerrado (κ < 0).
2. Para E:
(4)
donde E es la energía interna del universo, p es la presión y V es el volumen (proporcional a R 3).
Podemos ver aquí que la energía interna no es constante porque se transforma en la energía del
campo gravitacional: esta es una característica peculiar del universo como sistema
termodinámico.
3. Tenemos un tercer parámetro extenso en la descripción: N es el número de partículas en el
universo. A diferencia del caso de los otros dos parámetros extensivos, suponemos que N es
constante.
En este universo modelo asumimos la presencia de dos componentes de materia: hidrógeno
atómico y gas de fotón de cuerpo negro, ambos homogéneos e isotrópicos. Suponemos que estos
componentes deben enfriarse a medida que el universo se expande. Sin embargo, las velocidades
de enfriamiento de los dos componentes obedecen a leyes diferentes: la materia bariónica se
enfriaría según R -2, mientras que el gas fotón se enfriaría según R -1, si el único proceso
termodinámico presente fuera la expansión del universo. En otras palabras, las temperaturas de
los componentes tienden a ser diferentes y hay un proceso de flujo de calor del componente más
caliente al más frío. En nuestro universo modelo, la fuerza de esta interacción se da como un
valor numérico arbitrario (considerado constante).
Ahora podemos derivar un sistema de ecuaciones diferenciales (dado en [1]) que, asumiendo
que el radio cambia de acuerdo con la Ec. 3 anterior, nos permite determinar el comportamiento
de los siguientes parámetros de estado del sistema: R, el radio del universo; T g, la temperatura
del componente gaseoso; T r, la temperatura del componente de radiación; y S, la entropía total
del universo. El sistema de ecuaciones es el siguiente:
(5)
(6)
(7)
(8)
donde B es el número bariónico, m es la masa molecular, A es el coeficiente de interacción, C g y
C r son las capacidades caloríficas de los componentes de gas y radiación, respectivamente, cy c
1 son constantes, y el resto tiene se ha explicado anteriormente.
Dados los valores de los parámetros obtenidos por la solución del sistema de ecuaciones,
podemos calcular fácilmente la función de extropía del universo modelo. Es decir, calculamos la
cantidad de entropía que produciría el sistema al llegar al equilibrio en un instante dado. Siempre
que las capacidades caloríficas sean constantes, la expresión de la extropía es
(9)
donde D = C r / C g.
El desarrollo del universo modelo fue simulado numéricamente por el programa Mathematica.
En el lado izquierdo de las figuras se pueden ver los gráficos del radio, las temperaturas de los
componentes y la entropía. En el lado derecho se encuentran la entropía, la extropía y el valor
máximo de entropía (S max = Π + S) que pertenecen al estado de equilibrio en los parámetros
extensivos dados. La fuerza de la interacción entre los componentes (A) aumenta desde las cifras
superiores hacia las inferiores, siendo el valor 0 en el primer caso y muy grande en el caso
inferior.
Concentrémonos primero en el caso del universo abierto. Vemos que dos factores restringen
el valor de la entropía: si la interacción es débil, obviamente no se produce mucha entropía;
mientras que si la interacción es fuerte, la diferencia de temperatura es pequeña, por lo que el
proceso de interacción se vuelve débil nuevamente. Existe un caso óptimo para la producción de
entropía cuando el universo es el más "activo" termodinámicamente. Sin embargo, la extropía se
comporta de manera diferente: la dependencia de la extropía de la fuerza de la interacción sigue
una función monótona. Cuanto más fuerte es la interacción, más pequeña se vuelve la extropía y
más se acerca el sistema al equilibrio.
Pasemos ahora a la dependencia temporal de los parámetros. Podemos ver que no importa
cuán fuerte sea la interacción, la función de extropía sigue la misma ruta cualitativa con el
tiempo: aumenta al principio (hasta que la diferencia de temperatura se vuelve máxima), pero
luego comienza a disminuir y tiende a cero a medida que se acerca el tiempo. infinito. Significa
que, en nuestro universo modelo abierto, no hay
forma de evitar el estado final de Muerte por Calor, que es el aburrido estado de absoluta y
eterna suavidad y paz. Aún así, gracias a la expansión del universo, las temperaturas de los dos
componentes se vuelven diferentes con vehemencia al principio, en las primeras etapas de la
historia cósmica. Por lo tanto, hay un aumento inicial en el valor de la extropía a medida que se
vuelve mayor que cero y el universo abandona su estado de equilibrio. Así, la expansión del
universo crea la posibilidad de todos los procesos físicos del futuro. En pocas palabras, extropía
significa proceso en sistemas físicos.
En el caso de un universo cerrado, la Muerte por Calor se convierte en un problema marginal:
dado que el futuro del universo es finito, el estado de equilibrio puede ocurrir o no antes del final.
Pero es importante notar que el equilibrio en un universo en contracción no es un estado
interminable de Muerte por Calor, sino que es una fase momentánea. A medida que los
componentes, debido a la contracción, comienzan a calentarse nuevamente, las temperaturas se
acercan entre sí. Pero si la interacción no es despreciable, entonces la contracción no es simétrica
a la expansión, porque la dirección del flujo de calor no retrocede cuando comienza el colapso.
Como consecuencia, las gráficas de las dos temperaturas se cruzan antes del final, y esto da como
resultado un inmenso aumento de la extropía final. Justo antes del final de todo, el universo se
vuelve 'activo' nuevamente por un corto tiempo.
Otra simplificación excesiva de nuestro modelo es que considera solo dos componentes. Pero
parece haber solo un componente significativamente masivo además de los dos ya discutidos: el
gas neutrino. Esto sigue la misma velocidad de enfriamiento que el gas fotón, aunque no están
en equilibrio (el gas fotón fue calentado por la aniquilación e + - e - en las primeras etapas). El
gas neutrino, sin embargo, no interactúa con el gas fotón, y su interacción con la materia
bariónica también es muy débil, por lo que su expansión es prácticamente adiabática: apenas
juega ningún papel en la imagen termodinámica general del universo. Además, los resultados
cualitativos derivados del modelo no cambian incluso si hay más componentes presentes: todas
las temperaturas disminuyen alguna vez por la expansión del universo. Con respecto al futuro
de los dos componentes conocidos, los protones, tal como los conocemos hoy, tienen una vida
útil finita y, después de su desintegración, los neutrones libres desaparecerán casi de inmediato.
En otras palabras, la materia bariónica desaparecerá del universo. Aún no se ha determinado si
los neutrinos permanecerán para siempre o también se desintegrarán, pero, como hemos visto,
no importan mucho desde el punto de vista de la Muerte por Calor.
Habiendo mencionado las primeras etapas del universo, examinemos cómo las transiciones de
fase de la materia pueden influir en nuestros resultados. Cuando la temperatura del universo cae
por debajo de un valor T x = mxc 2 / k, donde mx es la masa de un cierto tipo de partícula,
entonces esta partícula entra en su fase no relativista y se da cuenta de un nuevo componente
material en el universo ( por ejemplo, quarks-antiquarks, neutrinos-antineutrinos, electrones-
positrones). Ahora bien, esta transición de fase aumenta claramente la entropía global del
universo [8], pero ¿qué hay de la extropía? La entropía total disponible para todo el sistema
también aumenta (siguiendo simples consideraciones en física estadística), y este aumento
nunca es menor (y generalmente mayor, excepto cuando los componentes contienen el mismo
número de partículas) que el aumento de la entropía real. Es decir,
Ahora, parece hoy que la era en que ocurrieron las transiciones de fase ha quedado atrás: este
era el estado caliente y denso en el que los eventos se sucedían rápidamente. Sin embargo, no
sabemos con certeza si cambios tan drásticos no ocurrirán en el futuro, porque las partículas con
una masa muy pequeña podrían aparecer a temperaturas aún más bajas. Aún así, tenemos una
muy buena razón para suponer que ocurre (u ocurrió) una vez una última transición: dado que
el universo es finito en masa / energía, solo puede haber un número finito de componentes
materiales en él. Las transiciones de fase no pueden posponer la Muerte por Calor para siempre.
Finalmente, podemos ver que todo el problema se reduce al siguiente esquema conceptual
simple aplicado en estos casos: dado que el universo es un sistema finito, no puede haber ningún
proceso infinito (conocido o desconocido) que pueda mantenerlo fuera de equilibrio para
siempre. Pero esto es, como podemos llamarlo, un principio 'metafísico' y, excepto por la finitud
del universo, no hay conocimiento empírico incrustado en él. Para explicar, a través de procesos
físicos particulares, por qué el universo no escapará al equilibrio final, debemos examinar caso
por caso un número infinito de posibilidades concebibles y descartarlas una por una, lo cual es
imposible. Una vez más, los principios metafísicos (o, más o menos, normativos) parecen
"inmiscuirse" inevitablemente en nuestro conocimiento científico.
4. Conclusión
Hemos visto dos soluciones muy diferentes al problema de por qué la "actividad" observada de
la naturaleza no contradice la irreversibilidad de los procesos físicos. En el caso antiguo,
Aristóteles sacrificó la cerrazón del universo y puso una entidad teórica en la frontera del mundo,
que juega como una eterna fuente de movimiento. Hoy en día, la teoría cosmológica sacrificó la
creencia en un universo eterno e interminable y pospuso la Muerte por Calor hacia el futuro
indeterminado, considerando la imagen actual del mundo como contingente y temporal. Sin
embargo, la teoría moderna no puede formular ciertas afirmaciones sobre la muerte por calor:
esta cuestión debe volver a examinarse a la luz de todos los efectos y procesos recién
descubiertos. Como concepto relativo a la eternidad, Heath Death parece pertenecer, no tanto al
campo de nuestro conocimiento científico,
Bibliografía
[1] RA Alpher, Gy. Marx, Vistas en Astronomía 35, (1992).
[2] Aristóteles, Meteorologica, 336b-347a, Clarendon Press, Oxford, 1907.
[3] Aristóteles, De generatione et corrupté, 289a, Clarendon Press, Oxford, 1953.
[4] Aristóteles, Física, 256a, Harvard University Press, Oxford, 1957.
[5] Aristóteles, Física, 269a, Harvard University Press, Oxford, 1957.
[6] R. Clausius, Phil. revista 4, 405 (1868).
[7] Th. S. Kuhn, La estructura de las revoluciones científicas, University of Chicago Press, Chicago, 1962.
[8] PT Landsberg, ¿De la entropía a Dios ?, en: Termodinámica: Historia y Filosofía, K. Martinás, L. Ropolyi y P. Szegedi, eds.,
World Scientific, Singapur, 1990.
[9] K. Martinás, Termodinámica aristotélica, en: Termodinámica: Historia y Filosofía, K. Martinás, L. Ropolyi y P. Szegedi, eds.,
World Scientific, Singapur, 1990.
[10] K. Martinás, Per. Polytech. S. Chem. Ing. 42, (1998).
[11] K. Martinás, Irreversibilidad en la física aristotélica, en: Volumen de resúmenes: X Congreso LMPS, Florencia, 1995.
7
Entropía y escatología: un comentario sobre el artículo
de Kutrovátz "La muerte por calor en la
termodinámica antigua y moderna"
Milan M. Ćirković
1. Introducción
El problema de la muerte por calor y la cuestión general de la asimetría temporal termodinámica
es uno de los temas de larga data y siempre inspiradores en la historia del pensamiento filosófico
y científico humano, comparable a las paradojas de Zeno sobre el espacio y el movimiento o las
de Hicetas-Berkeley. Mach rompecabezas del origen de la inercia de la materia. La reciente
discusión del tema por Kutrovátz [22] en esta Revista es indicativa del gran interés en los
aspectos físicos, filosóficos e históricos de este y temas relacionados (para algunos otros
discursos recientes, ver [3, 24, 28 , 29, 37, 38]. Aporta (i) una valoración muy bienvenida del
estado del problema en, con mucho, la teoría física antigua más influyente, la física aristotélica, y
(ii) descubre algunas de las valiosas comparaciones entre ese estado de cosas y la situación en el
pensamiento cosmológico moderno. . Sin embargo, su tratamiento es incompleto en varios
puntos importantes y contiene, especialmente en la última parte, algunos conceptos erróneos y
tergiversaciones (ampliamente difundidos). Nuestro objetivo en esta nota es, por lo tanto,
corregir algunas omisiones en el manuscrito de Kutrovátz, así como sugerir generalizaciones de
su conclusión a la luz de la naciente disciplina astrofísica de la escatología física. Este parece un
excelente estudio de caso para enfatizar el grado en que nuestro conocimiento cosmológico está
determinado por el flujo de información subyacente. Además, señalamos otro,
sorprendentemente moderno, respuesta al rompecabezas de la muerte por calor que existía en
la antigüedad, en una tradición diferente a la aristotélica. Comenzamos con el último tema.
Para Lucrecio, de mentalidad muy científica, la brevedad de la historia humana es muy extraña
frente a la hipótesis de la existencia eterna del mundo. Aunque las referencias a “monumentos
eternos” y “otros bardos” suenen ingenuas, está claro que tenía en mente cualquier forma de
transmisión de información del pasado al presente; y una cantidad infinita de información de un
pasado infinito. Su evaluación empírica del mundo circundante muestra claramente la ausencia
de tal información. Por tanto, se necesita una explicación. La explicación más simple, como
Lucrecio era muy consciente, es tratar el argumento como reductio ad absurdum de la hipótesis
de partida (la naturaleza eterna del mundo) y asumir que el mundo es de edad finita y
relativamente pequeña.
La profundidad del pensamiento de Lucrecio en este pasaje es casi asombrosa, especialmente
cuando se tiene en cuenta la ceguera histórica de las generaciones posteriores a esta misma
argumentación. El argumento de Lucrecio se aplica al universo newtoniano clásico de edad
infinita, así como a las alternativas estacionarias modernas a la cosmología evolutiva (como la
teoría clásica del estado estacionario). Enfatiza la naturaleza tecnológica de la posible evidencia
("injertada en monumentos"). Esto es exactamente lo que los cosmólogos modernos Davies y
Tipler han tenido en mente al construir el argumento antrópico para refutar las cosmologías
eternas de nuestra época. Los monumentos de Lucrecio juegan esencialmente el mismo papel
que las sondas von Neumann de Tipler enviadas por comunidades inteligentes avanzadas [34].
Su ausencia da testimonio del pasado finito. Concluimos que una idea bastante moderna del
origen (relativamente) reciente del universo y su "decadencia" ha estado presente en la
antigüedad clásica. Por supuesto, nunca alcanzó la atención y las consideraciones otorgadas al
cuadro aristotélico, pero ha estado presente sin embargo, testificando sobre el alto grado de
sofisticación científica del mundo antiguo. Ha resucitado en su forma moderna, por ejemplo, en
el famoso debate sobre la recurrencia termodinámica entre Boltzmann y Zermelo (cf. [33]), que
es la primera vez que las especulaciones cosmológicas científicas (en el sentido moderno)
aparecieron en un respetado Revista de investigación revisada por pares. En el transcurso del
siglo [XX], se ha incorporado a la tradición cosmológica estándar, en particular después de la
victoria de los modelos evolutivos sobre su rival de estado estacionario en la "gran batalla" de
los años cincuenta y sesenta [19]. Es exactamente esta tradición a la que ahora nos referimos.
3 Cosmología moderna y algunos errores en el relato de
Kutrovátz
En esta sección enumeramos y consideramos brevemente varios puntos astrofísicos importantes
que faltan en el relato de Kutrovátz sobre la respuesta moderna al acertijo de la muerte por calor.
Sin duda, estas consideraciones ayudarán a resaltar todo el alcance del problema cuyos aspectos
importantes, estamos totalmente de acuerdo con Kutrovátz, siguen abiertos.
Por lo tanto, tenemos una degeneración en la relación de las propiedades topológicas (abiertas
frente a cerradas) y su futuro dinámico (en constante expansión frente a recolpándose). Con
constante cosmológica positiva (que parece realista; por ejemplo, [27, 31, 36]), el universo
topológicamente cerrado también puede expandirse para siempre, especialmente si su
contribución es tan grande como lo indican las observaciones (ΩΛ ≈ 0,7). No tenemos una forma
observacional de determinar si el universo real es abierto o cerrado, ya que, y especialmente si
uno cree en modelos inflacionarios, la densidad cosmológica total es Ω = 1 ± ε, siendo ε del orden
de 10−5. Sin embargo, podemos estar virtualmente seguros de que el universo, sin importar sus
propiedades topológicas, se expandirá para siempre.
Esta no es la muerte por calor como se entiende clásicamente (por ejemplo, [12]). En la misma
línea, Adams y Laughlin [1] en el estudio exhaustivo de casi todos los aspectos de la escatología
física notan que
Hasta ahora en este artículo, hemos demostrado que la entropía se puede generar (y por lo
tanto se puede trabajar) hasta décadas cosmológicas η ~ 100. [Las décadas cosmológicas se
definen como épocas de tiempo t = 10 η años]. . . La formación de agujeros negros cada vez
más grandes puede continuar siempre que el universo permanezca espacialmente plano y las
perturbaciones de densidad que ingresan al horizonte no sean demasiado grandes. El
escenario del universo inflacionario proporciona un mecanismo para lograr este estado de
cosas, al menos hasta alguna época futura. . . Así, la naturaleza del universo en el futuro lejano
puede estar determinado por la física del universo temprano (en particular, la
inflación) en la década cosmológica η ~ −45.
Por otro lado, en los modelos realistas con la constante cosmológica positiva, la muerte por
calor puede definirse operativamente como el estado de entropía máxima alcanzada dentro del
horizonte de eventos. En este caso, la afirmación de Kutrovátz de que la muerte por calor es
ineludible es correcta.
El futuro de los universos que contienen vida e inteligencia es esencialmente diferente del futuro
de los universos desprovistos de tales formas de organización compleja de la materia, así como
diferente del pasado de los mismos universos en los que la complejidad era menor. En una línea
similar, John A. Wheeler escribió en un hermoso artículo sobre la relación entre la mecánica
cuántica y la cosmología [39]:
Aunque hoy es minúsculo el papel que estos actos de participación del observador juegan en
el esquema de las cosas, hay miles de millones de años por venir. Hay miles de millones y
miles de millones de lugares de vida aún por habitar. La inminente explosión de vida abre la
puerta a un papel integral para el observador-participante: construir, en el futuro, no una
parte menor de lo que llamamos su pasado — nuestro pasado, presente y futuro — sino todo
este vasto mundo.
Tener en cuenta las acciones intencionales de seres inteligentes transforma este campo en un
estudio de sistemas abiertos a la interacción con tales noosferas avanzadas (particularmente a
la luz de nuestro desconocimiento prácticamente total de la física de la conciencia y la
inteligencia en la actualidad). El estudio pionero de Dyson citado anteriormente presenta un
excelente ejemplo (aunque puede estar equivocado en los detalles cuantitativos; ver [21]) de tal
investigación. En él, Dyson prevé una forma para que las comunidades inteligentes avanzadas
eviten la muerte por calor a través de métodos ingeniosos de conservación de energía y
optimización del flujo de información. El trabajo de Dyson provocó mucha actividad
investigadora posterior. Aunque no podemos entrar en esta discusión aquí, la moraleja general
de que el futuro del universo, incluida la posible muerte por calor, ha entrado recientemente en
el dominio físico —en lugar del metafísico— parece ineludible. Esto contrasta fuertemente con
el curso de pensamiento sobre el futuro cosmológico en épocas anteriores que describe
Kutrovátz, y presagia una era completamente nueva en nuestra comprensión del universo.
Expresiones de gratitud
El autor desea agradecer al Prof. Branislav Nikolić y Vesna Milošević-Zdjelar por su amable ayuda
para encontrar varias referencias clave. Un agradecimiento especial a Nataša Bulut por su
inestimable inspiración y su apoyo incondicional.
NOTAS
1Esto es claro, por ejemplo, en el fragmento A 10 en [10], preservado por Plutarco, en el que se afirma explícitamente que la
formación y destrucción de muchos mundos ocurre dentro del infinito temporal global. En la continuación del mismo extracto
de Stromateis, se atribuye a Anaximandros una doctrina evolutiva: “. . . Además, dice que al principio el hombre se generó a
partir de todo tipo de animales, ya que todos los demás pueden obtener rápidamente alimento para sí mismos, pero solo el
hombre requiere una alimentación cuidadosa durante mucho tiempo; un ser así al principio no podría haber conservado su
existencia ”[13]. Hyppolites cita a Anaximandros enfatizando la naturaleza del apeiron como eterno (B 2), obviamente en
oposición a la humanidad, que tiene un comienzo fijo en el tiempo. Aún más intrigante es la doctrina atribuida a Anaximandros
por Cicerón: “Era la opinión de Anaximandros que los dioses tienen un comienzo, a intervalos prolongados que se levantan y
se ponen, y que son los innumerables mundos. Pero, ¿quién de nosotros puede pensar en dios si no es inmortal? ¿Tenía él en
mente esencialmente lo que hoy en las discusiones relacionadas con SETI denotamos como supercivilizaciones (por ejemplo,
[4])?
2 En traducción de William E. Leonard, disponible a través de WWW Project Gutenberg [25] .2
Bibliografía
[1] FC Adams y G. Laughlin, Reviews of Modern Physics 69, 337 (1997).
[2] FC Adams y G. Laughlin, Las cinco edades del universo, The Free Press, Nueva York, 1999.
[3] D. Albert, Time and Chance, Harvard University Press, Cambridge, 2000.
[4] JD Barrow y FJ Tipler, The Anthropic Cosmological Principle, Oxford University Press, Nueva York, 1986.
[5] JD Bekenstein, Physical Review D 7, 2333 (1973).
[6] SM Carroll, WH Press y EL Turner, Annual Review of Astronomy and Astrophysics 30, 499 (1992).
[7] F. Cornford, Thucydides Mythistoricus, Greenwood Press Publishers, Nueva York, 1965.
[8] PCW Davies, La física de la asimetría del tiempo, University of California Press, Berkeley, 1974.
[9] PCW Davies, The Last Three Minutes, Basic Books, Nueva York, 1994.
[10] H. Diels, Presoratic Fragments, Naprijed, Zagreb, 1983.
[11] FJ Dyson, Reviews of Modern Physics 51, 447 (1979).
[12] AS Eddington, Nature 127, 447 (1931).
[13] A. Fairbanks, Los primeros filósofos de Grecia, K. Paul, Trench & Trubner, Londres, 1898.
[14] S. Frautschi, Science 217, 593 (1982).
[15] T. Gold, American Journal of Physics 30, 403 (1962).
[16] WKC Guthrie, Historia de la filosofía griega II, Cambridge University Press, Londres, 1969.
[17] SW Hawking, Nature 248, 30 (1974).
[18] JN Islam, El destino final del universo, Cambridge University Press, Cambridge, 1983.
[19] H. Kragh, Cosmology and Controversy, Princeton University Press, Princeton, 1996.
[20] LM Krauss y Turner, Relatividad general y gravitación 31, 1453 (1999).
[21] LM Krauss y GD Starkman, Astrophysical Journal 531, 22 (2000).
[22] G. Kutrovátz, Open Systems and Information Dynamics 8, 349 (2001).
[23] D. Layzer, Astrophysical Journal 206, 559 (1976).
[24] E. Lieb y J. Yngvason, Physics Reports 310, 1 (1999).
[25] Lucrecio, Sobre la naturaleza de las cosas, trad. por William E. Leonard, versión de texto electrónico, Proyecto Gutenberg,
Urbana, 1997.
[26] R. Penrose, The Emperor's New Mind, Oxford University Press, Oxford, 1989.
[27] S. Perlmutter y col., Astrophysical Journal 517, 565 (1999).
[28] H. Price, Time's Arrow y Archimedes 'Point, Oxford University Press, Oxford, 1996.
[29] H. Price, Revista Británica de Filosofía de la Ciencia 53, 83 (2002).
[30] MJ Rees, The Observatory 89, 193 (1969).
[31] A. Riess y col., Astrophysical Journal 560, 49 (2001).
[32] O. Spengler, Decline of the West, edición de Alfred A. Knopf Publisher, Nueva York, 1996.
[33] VS Steckline, American Journal of Physics 51, 894 (1983).
[34] FJ Tipler, The Observatory 102, 36 (1982).
[35] FJ Tipler, Revista Internacional de Física Teórica 25, 617 (1986).
[36] M. Tucci, A. Contaldo y S. Bonometto, Astrophysical Journal 562, 583 (2001).
[37] J. Uffink, Estudios de Historia y Filosofía de la Física Moderna 32B, 305 (2001).
[38] J. Uffink y H. Brown, Estudios de Historia y Filosofía de la Física Moderna 32B, 525 (2001).
[39] JA Wheeler, IBM Journal of Research and Development 32, 4 (1988).
8
La segunda ley generalizada implica un teorema de
singularidad cuántica
Aron C. Wall
1. Introducción
Se ha especulado durante algún tiempo que los efectos cuánticos eliminarán las singularidades
de cualquier teoría de la gravedad cuántica [1]. La resolución de la singularidad se ha intentado
tanto en la teoría de cuerdas [2] como en la gravedad cuántica de bucles [3]. Implícita en muchos
de estos trabajos está la idea de que la gravedad cuántica permitirá que los espaciotiempos
eludan los teoremas clásicos de la singularidad de la relatividad general y, por lo tanto,
permitirán la continuación más allá de la posible singularidad. Todos los teoremas clásicos de la
singularidad asumen ciertas condiciones de positividad en el tensor de tensión-energía. Sin
embargo, todas estas condiciones pueden violarse localmente en la teoría cuántica de campos.
Por lo tanto, se podría suponer que en las regiones altamente cuánticas cercanas a un Big Bang
o una singularidad de agujero negro, dosis temporales de energía negativa podrían inducir un
rebote, evitando la singularidad [4].
Por tanto, surge la cuestión de si existe una generalización mecánica cuántica de alguno de los
teoremas de la singularidad, lo que haría que las singularidades fueran inevitables incluso en
situaciones cuánticas. Tal teorema de singularidad debería tener algún supuesto utilizado en
lugar de una condición de energía que sea válida en situaciones cuánticas. En este artículo se
propondrá como sustituto la segunda ley generalizada (de grano fino) (GSL) de la termodinámica
del horizonte. Dado que se cree ampliamente que el GSL se mantiene como consecuencia de las
propiedades mecánicas estadísticas de los grados de libertad gravitacional cuántica [5], es un
buen candidato para una ley física que probablemente se mantenga incluso en una teoría
completa de la gravedad cuántica.
El teorema de la singularidad de Penrose [6] se aplica a la relatividad general clásica acoplada
a la materia que obedece a la condición de energía nula.
(1)
donde ka es cualquier vector nulo. Dice que en cualquier espacio-tiempo globalmente
hiperbólico con una superficie de Cauchy no compacta ∑, si hay una "superficie atrapada" T en
∑ tal que la superficie nula hacia afuera generada por T se está contrayendo, entonces el espacio-
tiempo no puede ser nulo geodésicamente completo. La demostración usa la ecuación de
Raychaudhuri para mostrar que la superficie nula generada por T debe tener puntos conjugados,
pero esto es incompatible con la continuación del espacio-tiempo. Se requiere la suposición de
que ∑ no es compacto para evitar que las bandejas de luz simplemente se crucen entre sí fuera
de T. La suposición de hiperbolicidad global es necesaria porque, de lo contrario, un universo
inicialmente no compacto puede evolucionar a un universo compacto a medida que pasa el
tiempo (y de hecho,
El teorema de Penrose se puede utilizar para demostrar que los agujeros negros deben tener
singularidades. Al invertir la orientación temporal, también puede mostrar que si el universo es
espacialmente infinito, debe haber tenido una singularidad del Big Bang en alguna parte [6]. Una
consecuencia adicional es que no hay agujeros de gusano atravesables [7] y que es imposible
crear una región inflacionaria en un laboratorio sin ninguna singularidad inicial [8]. Resultados
análogos muestran que la condición de energía nula excluye las máquinas del tiempo [9] y la
comunicación superluminal [10, 11, 12, 13], y requiere que todos los espaciotiempo AdS
asintóticamente planos tengan masa ADM positiva [14, 12, 13].
Sin embargo, ninguno de estos resultados se aplica a los sistemas de mecánica cuántica porque
todos estos sistemas violan la condición de energía nula (1) [15]. También existen teorías
clásicas razonables que violan la condición de energía nula [16]. Dado que los objetos de masa
negativa probablemente implican que el vacío es inestable, y las máquinas del tiempo (y
probablemente también los agujeros de gusano) supondrían problemas para la causalidad [9],
debería haber algún principio físico en la teoría que impida que ocurran. Este principio, a
diferencia de la condición de energía nula, tendría que ser cierto en situaciones de mecánica
cuántica; idealmente, en alguna teoría completa de la gravedad cuántica.
Como un paso en esta dirección, Graham y Olum [17] señalaron que la condición de energía
nula promediada semiclásica autoconsistente en 1 las geodésicas nulas eran suficientes para
descartar las máquinas del tiempo, los agujeros de gusano atravesables y las energías negativas.2
Luego [18] mostró que a primer orden en ħ, el GSL implica la condición de Graham y Olum. Esto
significa que en cualquier situación en la que los efectos cuánticos sean débiles, seguirán los
resultados de no ir descritos en [17].
En este artículo se mostrará de manera más general que el GSL de grano fino se puede utilizar
para probar la inevitabilidad de las singularidades y la ausencia de agujeros de gusano
atravesables, impulsos warp entre puntos en el infinito nulo, máquinas del tiempo y objetos de
masa negativa, incluso en situaciones de la mecánica cuántica. También se demostrará que
ningún universo bebé que se forme dentro de los agujeros negros puede ser viable (en el sentido
de que eventualmente se vuelva causalmente independiente del universo madre), y que es
imposible reiniciar la inflación en el interior de una superficie asintóticamente plana (o AdS )
tiempo espacial.
La termodinámica del horizonte también restringe severamente los modelos en una
cosmología similar a FRW que se origina en algún otro universo anterior al Big Bang. En este
contexto, existen restricciones interesantes provenientes del GSL de grano grueso, así como del
tiempo inverso del GSL de grano fino.
Los diversos resultados se mostrarán primero en el contexto de la gravedad semiclásica, en la
que se supone que los efectos cuánticos son pequeños y pueden controlarse con una expansión
ħ. Sin embargo, esta aproximación semiclásica se usa solo en regiones de baja curvatura alejadas
de la singularidad / patología en cuestión. En la región de alta curvatura, además de la propia
GSL, los resultados solo requieren que conceptos básicos como causalidad, predictividad y
compacidad topológica sigan teniendo significado en la teoría de la gravedad cuántica. Por tanto,
es razonable creer que los resultados se mantendrán en una teoría completa de la gravedad
cuántica. Si esta conclusión es correcta, debemos renunciar a la termodinámica del horizonte, o
bien a varios de los sueños de los fanáticos de la ciencia ficción.
Dado que no existe una teoría no perturbativa bien entendida de la gravedad cuántica total (y
mucho menos una probada experimentalmente), por supuesto es imposible hablar con total
confianza con respecto a la extensión de estos resultados a este régimen, que probablemente sea
de importancia cerca. singularidades. Puede ser que los conceptos usados para definir el GSL se
apliquen solo a la gravedad semiclásica o perturbativa, no a la teoría microscópica. Entonces, una
interpretación conservadora de las restricciones es simplemente que tal y tal cosa no puede
ocurrir excepto por medio de efectos de gravedad cuántica no perturbadores. 3 Sin embargo,
defenderé una interpretación más amplia.
El plan de este artículo es el siguiente: la sección 2 analiza la segunda ley de la termodinámica,
tanto en su forma ordinaria como en su forma generalizada, prestando especial atención a la
distinción entre entropía de grano fino y de grano grueso, y una discusión de en que detecta la
segunda ley depende o no de una flecha de tiempo bien definida. La sección 3 demuestra algunos
teoremas sobre la entropía generalizada que se utilizarán más adelante, el más importante de
los cuales es el teorema 4 que generaliza la noción de superficie atrapada a espaciotiempos
cuánticos. (El lector casual puede desear hojear esta sección). La Sección 4 aplica la GSL para
obtener los diversos resultados descritos en el resumen. Sus relaciones de dependencia se
muestran en la figura 8.1.
Figura 8.1Las dependencias lógicas de las principales hipótesis, teoremas y resultados en este artículo. Si una proposición tiene
una o más flechas apuntando hacia ella, entonces la conjunción de todas las proposiciones que apuntan hacia ella se usa en la
prueba de esa proposición. g 0 es un punto particular en el espacio-tiempo donde la aproximación semiclásica debe ser válida; su
ubicación depende del resultado particular que se esté considerando (ver sección 4). El resultado sin máquinas de tiempo utiliza
la suposición de que J + (p) ∩ J - (q) es compacto para cualquier punto p y q; dado que esto es más débil que la hiperbolicidad
global, se muestra como una consecuencia de ella, aunque pasar directamente de la hiperbolicidad global a las máquinas sin tiempo
es, por supuesto, trivial.
Hasta este punto, haré uso libre de las nociones semiclásicas del espacio-tiempo, aunque tales
conceptos no son válidos en el régimen de gravedad cuántico completo. En la sección 5,
argumentaré que los resultados probablemente se apliquen incluso cuando se tomen en
consideración los efectos de la gravedad cuántica. Finalmente, el Apéndice demuestra un
teorema utilizado en la sección 2.1 para ayudar a probar la segunda ley ordinaria de la
termodinámica.
(2)
Este es el análogo de los estados cuánticos de la entropía de Gibbs clásica que se define como
, (3)
donde pi es la probabilidad de estar en el estado i. Eq. (2) se reduce a la ecuación. (3) siempre
que la matriz de densidad ρ esté diagonalizada.
. (4)
Dado que la evolución unitaria no afecta los valores propios de probabilidad de ρ, esto implica
que
. (5)
La buena noticia es que acabamos de probar el OSL porque la entropía no se puede reducir. La
mala noticia es que aunque la entropía no puede disminuir, tampoco puede aumentar, de modo
que el tiempo inverso de la segunda ley, que denotaré como también sostiene. Esto se debe a
que la entropía es una medida de la incertidumbre en ρ, pero el contenido de información en ρ
es el mismo que la incertidumbre en las condiciones iniciales.
Para ver el aumento de la entropía, tenemos que pasar a la imagen de grano grueso. Esta
imagen se puede motivar adoptando una visión más realista de nuestra capacidad para calcular
el estado en un tiempo t a partir de las condiciones iniciales. Si usted es una calculadora de
Laplace con un conocimiento completo de las leyes de la naturaleza y una capacidad de cálculo
infinita, puede usar la ecuación. (4) para determinar ρ (t). Pero el universo contiene muchos
sistemas complejos para los cuales yo, en cualquier caso, sería incapaz de especificar U. Dada mi
ignorancia de la dinámica exacta del universo, no puedo saber completamente qué es ρ (t),
incluso si conozco el estado inicial ρ (t 0). Lo mejor que puedo hacer es confiar en las cosas que
sé sobre la dinámica para producir mi mejor conjetura sobre lo que creo que es el estado; llámelo
. Como sé que las dinámicas son unitarias, pero no conozco las leyes unitarias exactas de
la física,
Debería poder modelar mi ignorancia como una distribución de probabilidad sobre el espacio
de posibles procesos unitarios U. Esto implica que debo tener más incertidumbre acerca del
universo en el tiempo t que lo que sería una calculadora de Laplace, por lo que
. (6)
(Esta ecuación se deriva del hecho de que la entropía es una función convexa, que fue probada
por primera vez para sistemas cuánticos por Delbrück y Molière [19]. El Apéndice proporciona
otra prueba siguiendo los métodos de Uhlmann [20]).
Eq. (6) muestra que la entropía en cualquier momento debe ser mayor que la entropía del
estado inicial. Esto no prueba del todo el OSL, porque aún no se muestra si
. (7)
Podría ser, por ejemplo, que la historia del universo desde t 0 hasta t 1 consista en algún proceso
complejo, difícil de resolver desde el punto de vista del cálculo, pero la historia del universo
desde t 1 hasta t 2 consista en un proceso inverso exacto. Entonces la entropía aumentaría al
principio y luego disminuiría nuevamente más tarde. Para obtener el OSL, necesitamos saber que
este tipo de cosas no ocurren en el mundo real, es decir, los procesos complejos que nos llevan a
aproximarnos al estado del universo con realmente son procesos irreversibles. Otra
forma de decirlo es que una vez que evolucionamos de ρ (t 0) a , debe ser posible utilizar
como una nueva condición inicial a los efectos de determinar .
Aquí se ha hecho una compensación. Aunque el OSL de grano grueso parece predecir que la
entropía aumentará en lugar de permanecer constante, en virtud de la simetría de inversión del
tiempo de las leyes de la física,4 esto solo es posible si hay un supuesto asimétrico en el tiempo
oculto en la demostración. Y existe tal suposición, incrustada en la condición inicial ρ (t 0). Para
obtener un aumento de entropía no trivial, ρ (t 0) debe tener menos de la entropía máxima
posible. En otras palabras, el universo tiene que haber comenzado con baja entropía. 5 Esto
significa que el OSL de grano grueso solo se mantiene en algunos estados (aquellos que
realmente tuvieron un comienzo de baja entropía), a diferencia del OSL de grano fino y
(9)
Ingenuamente, uno podría haber pensado que se podría hacer descender la entropía fuera de un
agujero negro simplemente arrojando entropía a través del horizonte de eventos. Pero tal
entropía tiende a ir acompañada de energía, que a su vez aumenta la masa del agujero negro y,
en consecuencia, S H. De manera similar, la radiación de Hawking reduce el tamaño del agujero
negro, pero la disminución de SH se compensa con el aumento de entropía exterior. del agujero
negro [31].
Hay algunos matices en la definición de S gen. S out incluye una contribución divergente
proveniente de la entropía de entrelazamiento de corta distancia de los campos cuánticos cerca
del horizonte. Esta divergencia es cuadrática con respecto a un corte de longitud UV. Así, S out,
definida como la entropía de von Neumann (2) es formalmente infinita y requiere
renormalización. Un segundo problema es que en la gravedad cuántica perturbativa, la
renormalización debería conducir a términos de orden superior en el lagrangiano que
renormalizan la constante G de Newton y también agregan términos de curvatura de orden
superior, lo que lleva a correcciones dependientes del corte a S H. La buena noticia es que estos
dos problemas parecen anularse entre sí, es decir, la divergencia en S out se puede absorber en
las constantes de acoplamiento que aparecen en S H. Esto se ha demostrado en un orden de bucle
para ciertas teorías escalares y de espinor [32],
Otra pregunta importante es si el GSL se aplica a otros horizontes además de los horizontes de
eventos de agujeros negros. La respuesta parece ser afirmativa: la termodinámica del horizonte
parece aplicarse también a los horizontes de De Sitter y Rindler [34, 29]. Sin embargo, el GSL no
se mantiene en todas las superficies nulas [28]; por ejemplo, el cono de luz pasado de un punto
tiene un área decreciente clásicamente, lo que lleva a una disminución de O (ħ − 1) en la entropı́a
generalizada, pero el aumento de S out debido a los efectos cuánticos es de orden O (ħ0) y, por
lo tanto, no puede equilibrarlo. fuera. La GSL también parece violarse de forma semiclásica en
horizontes aparentes [35].
Siguiendo a Jacobson y Parentani [34], asumiré que la GSL se aplica al “horizonte causal futuro”
de cualquier línea de tiempo futura-infinita W fut (un “observador”). Este horizonte causal se
define como H fut = ∂I - (W fut), el límite del pasado del observador (Fig. 8.2).
Figura 8.2Los horizontes de agujero negro, los horizontes de Rindler y los horizontes de De Sitter son todos casos especiales de
"horizontes causales". El horizonte causal futuro H fut se define como la parte del espacio-tiempo que es causalmente visible para
alguna línea de tiempo futura infinita W fut, mostrada como una línea gruesa. El GSL declara que la entropía aumenta con el tiempo
en cortes espaciales completos fuera de H fut (mostrados como líneas rojas).
Dados cualesquiera dos cortes espaciales completos ∑ y ∑ ′ con el último en ninguna parte del
pasado del primero, el GSL dice que:
, (10)
donde aquí el "exterior" del horizonte utilizado para definir S gen se toma como el lado en el que
se encuentra el observador, incluso para casos como el espacio de De Sitter donde el observador
está encerrado por el horizonte (consulte la Fig. 8.2 para ver ejemplos de pares de rebanadas
para las que aumenta la entropía generalizada).
Tenga en cuenta que, por continuidad, W fut también puede tomarse como un rayo similar a la
luz cuyo parámetro afín es infinito para el futuro, ya que existen líneas de mundo aceleradas que
se aproximan asintóticamente a cualquier rayo similar a la luz. En este caso, W fut puede
encontrarse en su propio horizonte.
Al igual que el OSL, el GSL viene en dos versiones dependiendo de si elegimos la definición de
grano fino o grueso del estado ρ usado para calcular la entropía. En el caso del GSL de grano fino,
todavía puede haber un aumento de e ntropía no trivial debido al hecho de que la información
puede caer a través del horizonte entre ∑ y ∑ ′. (Otra forma de decir esto es que incluso en la
imagen de grano fino todavía estamos haciendo un análisis de grano grueso de toda la
información dentro del horizonte, una forma totalmente objetiva de análisis de grano grueso
[36]). Dado que esta es la única forma en que la entropía puede cambiar en la imagen de grano
fino, se deduce que la única parte de un segmento espacial ∑ que importa es donde cruza el
horizonte.
Por analogía con el OSL de grano fino, el GSL de grano fino debería mantenerse para todos los
estados del universo, sin necesidad de imponer ninguna condición inicial. (Esto se puede
verificar explícitamente para muchas de las pruebas existentes de la GSL en regímenes
particulares [28, 29]). Y si la GSL es verdadera en todos los estados, su tiempo inverso también
debe ser cierto en todos los estados [18].8
los establece que para cualquier línea de mundo infinita pasada W pasado, el horizonte
pasado H pasado = ∂I + (W pasado) no puede aumentar a medida que pasa el tiempo:
. (11)
Por supuesto, depende de las condiciones iniciales si hay líneas de mundo infinitas en el pasado
, (12)
donde A es el valor esperado de su área y S out es la entropía de von Neumann de la región
espacialmente exterior a ella, G> 0 es el valor de la constante de Newton en la escala de
renormalización y la corrección Q a la entropía de Bekenstein-Hawking se supone que está
subtitulado en ħ (o algún otro parámetro pequeño como la longitud de la cadena). Esto es natural
si Q proviene de correcciones radiativas, como se describe en la sección 2.2.
Suponemos que las divergencias en S out pueden regularse utilizando algún regulador
ultravioleta como la información mutua [40]. Este regulador debe cortar la entropía de
entrelazamiento a escalas de distancia menores que algunas ε, mucho más pequeñas que la
escala de longitud λ de los campos cuánticos (para capturar toda la física convergente) pero más
grande que L Planck para evitar el régimen de gravedad cuántica. .
Debido a que se conserva la entropía de grano fino, todas las superficies de Cauchy del exterior
deben tener el mismo valor de S out.
En el régimen semiclásico se puede mostrar el siguiente teorema útil sobre el aumento de la
entropía generalizada de grano fino al comparar dos superficies nulas:
Teorema 1:Sean N y M superficies nulas futuras de codimensión 1, cada una de las cuales divide
el espacio-tiempo en dos regiones, una Int "interior" y una Ext "exterior". Sea M dentro o sobre
N en todas partes (es decir, M ∩ Ext (N) está vacı́o). (La ubicació n de las super icies nulas puede
depender en general del estado de los campos).
Supongamos que hay una g geodésica nula que se encuentra tanto en N como en M, y un
segmento de tiempo ∑ que se cruza con g en g 0. Suponga que en alguna vecindad de g 0, el
espacio-tiempo es semiclásico y que N y M son suaves.10 Muy cerca de g 0, las superficies nulas N
y M casi coincidirán, pero pueden estar separadas por una pequeña distancia adecuada f.
. (13)
donde Δ indica el cambio en una cantidad cuando evoluciona de ∑ por ∑ ′. 11 El teorema 1 se
probará mediante una serie de tres lemas.
Lema A:En el punto g 0, la superficie M se expande al menos tan rápido como N. Vea la Fig. 8.3.
Figura 8.3 Dos superficies nulas N y M se representan como aparecen al mismo tiempo, en el corte ∑. N no está en ninguna parte
dentro de M y coincide con M en g 0. (i) los vectores nulos generadores ka, proyectados sobre la superficie ∑, deben ser normales
a las superficies nulas. Debido a que M solo puede doblarse hacia adentro en relación con N en g 0, se está expandiendo más rápido
que N allí (Lema A). (ii) f es la distancia adecuada entre las dos superficies nulas N y M, vista como una función de M. Cerca del
punto g 0, f tiene una pendiente muy suave y, por lo tanto, se pueden identificar los puntos en N y M. La integración de ∇ 2 f muestra
que siempre es posible encontrar un punto X cerca de g 0 en el que M se expanda más rápido que N, a menos que (iii) las superficies
coincidan exactamente en una vecindad de g 0 (Lema B).
Prueba:Dado que N y M coinciden y son suaves en el punto g 0, y M no puede cruzar de Int (N) a
Ext (N), N y M deben compartir el mismo plano tangente. La curvatura extrínseca nula de una de
las superficies nulas, por ejemplo, N se define como:
(14)
donde h ab es el retroceso del tensor métrico sobre la superficie del cod imension 2 ∑ ∩ N, y ka
es un vector nulo (orientado al futuro) que apunta en la dirección de los generadores nulos en N.
La curvatura extrínseca nula mide el cambio en la geometría de la superficie nula a medida que
se mueve en la dirección ka. Hay dos contribuciones. El primero es un componente temporal que
surge cuando el corte ∑ en sí mismo tiene una curvatura extrínseca, pero esto puede ignorarse
porque es el mismo para N y M. El segundo es un componente espacial proporcional a la
curvatura extrínseca K ab de ∑ ∩ N en ∑ (con un factor de normalizació n que proviene del
tamaño de la proyección de ka sobre el corte ∑). Para cualquier vector υ a y el punto x, la
componente de curvatura extrínseca K ab υ a υ b (x) mide cuánto se aleja la superficie N de su
plano tangente, al segundo orden, a medida que uno se aleja de x en la dirección de υ una . Un
valor positivo significa que se curva alejándose de la dirección de movimiento de la superficie
nula,
El hecho de que M esté dentro de N ahora impone restricciones a la curvatura extrínseca de N
y M en g 0. Como N está fuera de M, N debe doblarse hacia afuera al menos tanto como M. Por
eso:
(15)
La expansión de una superficie nula está relacionada con la curvatura extrínseca nula de la
siguiente manera:
, (dieciséis)
donde A es el área infinitesimal cerca de un generador, y λ es un parámetro afín que satisface λ,
también conocido como = 1. La ecuación. (15) luego requiere que en la vecindad de g 0,
. (17)
QED
Si la desigualdad estricta θ (M)> θ (N) se cumple, entonces, por continuidad, la desigualdad
(17) también se cumple en una vecindad del punto g 0. En el límite clásico S out puede
despreciarse, por lo que θ da el cambio de entropía . En este caso especial, sigue el Teorema 1.
En el caso saturado donde θ (M) = θ (N), el Lema A no es suficiente. Para probar la versión clásica
del Teorema 1, es necesario alejarse una pequeña distancia del punto g 0:
Lema B:En cualquier vecindario pequeño de g 0, o hay un punto X en el que θ (M)> θ (N), o M y
N coinciden en todas partes en ese vecindario. En el primer caso, el área aumenta más rápido en
M que en N cuando ∑ se empuja hacia adelante en el tiempo lo suficientemente cerca del punto
X; en el último caso, el aumento de área es el mismo para M y N en todo el vecindario. De cualquier
manera, el Teorema 1 es clásico.
Comentario 1.1: El lema A es un caso especial del lema B y se probó por separado por razones
pedagógicas.
Prueba:En el corte espacial ∑, deje que la distancia adecuada más corta entre las superficies M
y N esté dada por una función f (M). Dado que los planos tangentes de N y M coinciden en g 0, f
desaparece a cero y primer orden cuando uno se aleja de g 0. Dado que f es solo distinto de cero
en segundo orden y superior, en una vecindad de escala de longitud e, . Debido a que la
distancia entre M y N es en este sentido pequeña, es posible identificar puntos en N y M, lo que
permite definir la función en cualquiera de las dos superficies nulas: f (N) = f (M).
Esta identificación de puntos en N y M también permite comparar los vectores generadores de
nulos ka en N y M (figura 8.3). Cuando el ka de N o M se proyecta sobre ∑, debe ser normal a esa
superficie, porque un frente de luz siempre viaja en la dirección perpendicular al frente mismo.
Entonces ka (∑) = cn a, donde na es un vector normal que apunta hacia afuera yc> 0 es una
constante arbitraria dependiendo de la normalización del parámetro afín λ en N y M. Para
comparar los vectores ka, λ será elegido de modo que c = 1 en todas partes en N y M.
Para ∇f pequeño, esto se puede usar para encontrar la diferencia entre ka en N y M.
(18)
donde hasta los términos de orden superior, Δk a se encuentra en la superficie D - bidimensional
M ∩ ∑ (o N ∩ ∑). La diferencia de curvatura extrı́nseca ahora se puede calcular a partir de la Ec.
(14):
, (19)
donde las derivadas covariantes son intrínsecas a la superficie ∑ ∩ N. Junto con Eq. (16) esto
implica
(20)
que es una derivada total. Sea M (o N) una coordenada r que represente la distancia adecuada
desde g 0, y sea dσ el elemento de volumen en el espacio dimensional (D - 3) de r constante en M
∩ ∑.
Definamos una función de Green G (y) en la bola de puntos y con r <R, para que sea la solución
a estas ecuaciones:
. (21)
Para un R suficientemente pequeño, la métrica h ab está muy cerca de ser una métrica euclidiana
plana, de modo que G ∝ (r D −4 - RD −4) / (D - 4) (o ln (R / r) en D = 4). En cualquier dimensión,
G (y)> 0 para r <R, y por lo tanto ∂ r G | r = R <0. Para un R suficientemente pequeño, estas
desigualdades deben continuar siendo válidas si la métrica se deforma ligeramente por una
curvatura distinta de cero. Ahora se puede usar G para integrar Δθ en la codimensión 2 bola B:
. (22)
donde hemos integrado por partes dos veces y usamos el hecho de que f (0) = 0.
Ahora bien (i) f = 0 en una vecindad de x, o bien (ii) uno puede encontrar valores
arbitrariamente pequeños de R tales que el lado derecho de la Ec. (22) es estrictamente positivo,
en cuyo caso Δθ también debe ser positivo para al menos algunos puntos arbitrariamente
cercanos a x. QED
El tema del tercer lema es el término de entropía exterior S out, sobre el que todavía no se ha
mostrado nada.
Lema C: Si las dos superficies N y M coinciden en una vecindad de g 0, y ∑ evoluciona hacia
adelante en el tiempo hasta ∑ ′ en esta vecindad, la entropía S out aumenta más rápido en M que
en N.
Prueba: Existe una cantidad teórica de información llamada información mutua I (B, C), definida
para dos sistemas separados B y C, que mide la cantidad por la cual la entropía deja de ser aditiva:
. (23)
La información mutua mide la cantidad de entrelazamiento entre los sistemas B y C. Para todos
los sistemas de mecánica cuántica, esta cantidad aumenta monótonamente a medida que se
aumenta el tamaño de uno de los sistemas agregando un tercer sistema D [40]:
. (24)
Esto tiene sentido intuitivamente, ya que se espera que la cantidad de entrelazamiento entre dos
sistemas solo se pueda aumentar cuando se amplía un sistema. Esta propiedad se puede
aprovechar estableciendo:
(25)
(26)
(27)
donde Δ∑ es el volumen del espacio-tiempo entre ∑ y ∑ ′. Vea la Fig. 8.4.
Figura 8.4(i) Dos superficies nulas M y N dibujadas en un segmento de tiempo ∑, donde N no está en ninguna parte dentro de M.
Coinciden en una vecindad de g 0. Esta es la misma situación que la figura 8.3, ilustrada con una elección diferente de M y N. La
línea de puntos es la sección transversal espacial utilizada para hacer (ii) un diagrama de espacio-tiempo de la misma situación. N
y M se mueven hacia afuera a la velocidad de la luz. El segmento de tiempo ∑ evoluciona hacia adelante en el tiempo a un nuevo
segmento de tiempo ∑ ′ cerca de g 0. Toda la informació n en Ext (M) ∩ ∑ está contenida en tres regiones: B, C y D. La eliminació n
de la región D solo puede disminuir la cantidad de entrelazamiento entre B y C, que se puede usar para mostrar que la entropía
fuera de M aumenta más rápido que la entropía fuera de N.
(28)
Similar,
, (29)
donde la rebanada C ∪ D ha evolucionado hacia atrá s hasta la super icie ∑, utilizando el hecho
de que la evolución temporal unitaria conserva la entropía. Sustituyendo la ecuación. (28) y Eq.
(29) en la monotonicidad Eq. (24), se obtiene
, (30)
lo que muestra que la entropía exterior está aumentando tan rápido para M como para NQED
Prueba del teorema 1:En el límite semiclásico, cualquier efecto que sea de orden superior en ħ
estará dominado por cualquier efecto distinto de cero que sea de orden inferior en ħ. Sea la
contribución de orden principal a θ (M) −θ (N) de orden ħ p +1, que corresponde a una
Figura 8.5 La región R está dividida por una superficie nula N en una región pasada P y una región futura F. Un segmento de tiempo
∑ de R evoluciona hacia adelante en el tiempo hasta ∑ ′. Toda la información en R se almacena en las tres regiones B, C y D. La
monotonicidad débil implica que la entropía generalizada de F aumenta más rápido que la entropía generalizada de P.
(31)
Prueba:La prueba dada en la Ref. [18] se resume aquí. Dado que las regiones I - (N) e I + (N)
comparten el mismo límite N en el interior de R, el cambio en la entropía del horizonte ΔS H es
el mismo para ambos. Además, cualquier divergencia en la entropía de entrelazamiento cerca
del límite debe ser la misma en ambos lados [18]. Entonces, la única cantidad que puede ser
diferente es la parte convergente de los términos S out. En todos los sistemas de mecánica
cuántica, la entropía de tres sistemas cuánticos disjuntos B, C, D obedece a la condición de
monotonicidad débil [42]:
. (32)
Intuitivamente, cuanto más se entrelaza un sistema con un sistema cuántico, menos se puede
entrelazar con otro. Establezca B = F ∩ ∑, C = P ∩ ∑ ′ y D = N ∩ Δ∑ (donde Δ∑ es la región entre
∑ y ∑ ′). La evolución unitaria en el tiempo se puede usar para hacer evolucionar el segmento B
∪ D hacia adelante en el tiempo hacia ∑ ′, y para evolucionar C ∪ D hacia atrá s en el tiempo hacia
∑, sin cambiar la entropía, por lo que la Ec. (32) evalúa a
, (33)
que luego implica la ecuación. (31). QED
Corolario 2.1: El GSL (de grano fino) y no se puede mantener en la misma superficie nula
N a menos que ambos estén saturados, y la monotonicidad débil también esté saturada. En un
estado adecuadamente genérico, estas desigualdades no estarán saturadas, por lo que N no
puede ser tanto un horizonte pasado como futuro.
Comentario 2.2:Para los Teoremas 1 y 2, al aplicar las propiedades de monotonicidad (24) o
(32), uno puede preocuparse de que el procedimiento de renormalización necesario para hacer
que S sea finito interfiera con la propiedad de monotonicidad. Sin embargo, siempre que las
cantidades infinitas restadas de la entropía de una región solo dependan de características
extensas e invariantes de Lorentz del límite de la región, los términos divergentes se combinan
de tal manera que se cancelan en el resultado final. Cf. Árbitro. [18] para una discusión más
detallada de este punto.
Comentario 2.3:Debido a que el teorema 2 se deriva de propiedades teóricas de la entropía
puramente informativas, no se requiere la aproximación semiclásica. Los únicos requisitos son
que las regiones B, C, D sean sistemas cuánticos disjuntos con entropía definida y que la
evolución temporal de ∑ a ∑ ′ sea unitaria y causal.
. (34)
Por lo tanto, si N fuera un horizonte, el GSL de grano fino se violaría para la evolución en el tiempo
cerca de g 0.
Suponga que la aproximación semiclásica se mantiene cerca de g 0, mientras que para el resto
del espacio-tiempo solo asumimos que puede ser descrita por una variedad de Lorentz. Entonces
el GSL implica que el generador nulo g no se puede extender infinitamente en N (ya sea porque
sale de N, o porque el espacio-tiempo es nulo geodésicamente incompleto).
Prueba:Si g permanece en N durante una distancia afín infinita, entonces también debe ser
acronal. Además, tendrá un horizonte H en el que se satisface el GSL, ya que el GSL también debe
aplicarse a los horizontes de infinitos rayos nulos como se discutió en la sección 2.2. H debe estar
completamente en el pasado de N, porque el pasado de g debe ser un subconjunto del pasado de
N. Dado que g es similar a la luz y acronal, g debe ser un generador de H así como de N. Entonces
el teorema 1 implica que la entropía generalizada también está disminuyendo en H, lo que
violaría la GSL. QED
Comentario 5: Dado que por simetría de inversión del tiempo el debe ser tan cierto como
el GSL detallado, las inversiones de tiempo de los teoremas 1-4 también son válidas.
4 aplicaciones
4.1 Agujeros negros y bebés
Ahora aplicaremos el GSL de grano fino al caso del colapso de un agujero negro para mostrar que
debe haber una singularidad de agujero negro en alguna parte (o un horizonte de Cauchy debido
a la falla de la hiperbolicidad global). Esto requiere una "superficie atrapada cuántica" en la que
se está violando el GSL. Para un agujero negro con radio , el agujero negro debería
describirse normalmente mediante una métrica aproximadamente clásica. Por lo tanto, es
suficiente encontrar una superficie T que esté clásicamente atrapada (es decir, su área se contrae
antes de tener en cuenta cualquier efecto cuántico). Esta disminución de área implica entonces
una disminución de O (ħ − 1) en la entropı́a generalizada, que no puede ser compensada por el
aumento de O (ħ0) en S out. En consecuencia, la superficie T también está atrapada
cuánticamente, lo que según el Teorema 4 implica que debe ser nula, geodésicamente incompleta
o no globalmente hiperbólica, exactamente el mismo resultado obtenido por el teorema de la
singularidad de Penrose, pero ahora aplicable a ciertas situaciones de la mecánica cuántica.
Sin embargo, el hecho de que haya una singularidad en alguna parte no significa
necesariamente que deba haber una singularidad en todas partes. ¿Es posible evitar las
singularidades de alguna manera y terminar en un nuevo universo? Definamos con más cuidado
lo que queremos decir con un universo bebé: un universo bebé es una región del espacio-tiempo
que está 1) dentro del horizonte de eventos de un agujero negro, 2) contenida en el futuro del
exterior del agujero negro, y 3) puede durar un tiempo indefinidamente largo, medido por al
menos un observador. Es decir, debe poder existir una línea de mundo infinita en el futuro W fut
dentro del horizonte de sucesos. (Tenga en cuenta que si el universo bebé termina en una fase
de expansión tipo De Sitter, puede haber múltiples opciones de W fut que están separadas por
horizontes causales).
Proviso (1) asegura que el universo bebé es distinto del universo madre. Proviso (2) descarta
otros universos que no están formados completamente a partir de nuestro propio universo, pero
que tienen pasados que están causalmente desconectados con nuestro propio universo. En
particular, el universo bebé no debería haber surgido de una singularidad inicial propia. Por
ejemplo, Schwarzschild-de Sitter no sería un ejemplo de un espacio-tiempo del universo bebé.
Proviso (3) es necesario para distinguir un universo bebé de la imagen habitual del interior de
un agujero negro en el que todo debe terminar en una singularidad en un tiempo propio finito. 13
Suponga que el agujero negro está en un espacio-tiempo asintóticamente plano. Hay dos
coordenadas de tiempo diferentes que se pueden utilizar para parametrizar cualquier W fut. Sea
una gran esfera estacionaria alrededor del agujero negro con una coordenada de tiempo
adecuada t. La coordenada de tiempo avanzada υ (x) de cualquier punto x se define como el valor
máximo de t en esa parte de la esfera que está al pasado de x. Otra posible coordenada es el
tiempo adecuado τ de la línea de tiempo W fut dentro del universo bebé. Los universos bebés se
pueden clasificar por medio de la relación monótona entre las dos coordenadas de tiempo υ (τ)
de la siguiente manera (ver Fig. 8.6):
Figura 8.6 Ejemplos de diagramas de Penrose para universos bebés que se forman a partir de un agujero negro colapsado. Cada
universo bebé se muestra al futuro de una línea dentada que representa la singularidad clásica, y tiene una línea de mundo infinita
futura W fut cayendo en ella. Esta singularidad clásica puede resolverse en algunos lugares mediante efectos cuánticos, sin
embargo, el GSL requiere que las singularidades verdaderas también aparezcan en algún lugar del espacio-tiempo (también
mostrado por líneas dentadas). Además, impone restricciones sobre los tipos de universos bebés que son posibles. (i) Un universo
bebé viable, descartado por la GSL. Dado que el universo del bebé termina en una fase de De Sitter, se pueden seleccionar varios
horizontes futuros diferentes dependiendo de la elección de W fut. En el ejemplo que se muestra, el agujero negro se evapora por
completo, lo que resulta en un espacio desconectado. Sin embargo, el GSL también excluye a los bebés viables que permanecen
conectados al universo materno. (ii) Un universo bebé dependiente, permitido por la GSL. El agujero negro no puede evaporarse
por completo. (iii) Un universo bebé trascendental, descartado por la hiperbolicidad global. En τmax, la línea mundial W fut cruza
un horizonte de Cauchy. A medida que cruza, ve la historia completa del universo exterior, infinitamente cambiada de azul.
1. Bebés viables: los médicos consideran que un feto es viable cuando es capaz de existir por
sí solo sin más soporte vital del útero de la madre. Adaptando esta definición para los
universos bebés, definamos un “universo bebé viable” como un bebé que eventualmente
se vuelve capaz de existir causalmente por sí mismo sin el apoyo de la madre. Esto
requiere que exista al menos un W fut tal que τ → + ∞, υ → υ max para algún υmax finito.
Esto equivale a decir que W fut está en el futuro de una región espaciotemporal compacta.
2. Bebés dependientes: Un universo bebé es dependiente si requiere influencias causales
continuas provenientes del universo madre para seguir existiendo. Aparte de estas
influencias causales, el bebé solo puede durar un tiempo específico finito. Esto significa
que para todo W fut, τ → + ∞, υ → + ∞.
3. Bebés trascendentales: La posibilidad lógica restante es que para algunos W fut, τ → τ max
para algunos τmax initos, υ → + ∞. Esto signi ica que el universo bebé requiere un
período infinito de gestación para alcanzar un tiempo finito adecuado, ¡y luego pasa a ser
independiente! Este comportamiento muy extraño viola la hiperbolicidad global, porque
si uno toma un punto p fuera del horizonte, y un punto q ∈ W fut con τ> τ max), la región I
+ (p) ∩ I + (q) causalmente entre ellos no es compacto. Por tanto, W fut cruza un
horizonte de Cauchy en τmax. Por lo tanto, fallaría la capacidad de predicción a lo largo de
la superficie de Cauchy a menos que entrara en juego algún nuevo principio de física no
local. Un ejemplo de tal espacio-tiempo es la métrica de Reissner-Nordström
analíticamente continuada.
Un universo bebé comenzará a estar conectado al universo madre por un cordón umbilical a
través del horizonte de eventos del agujero negro. Sin embargo, un agujero negro dejado en el
vacío eventualmente irradiará su masa hasta que alcance la escala de Planck. Lo que sucede
después de eso depende de las suposiciones de cada uno sobre la gravedad cuántica. Si el agujero
negro se evapora por completo, entonces la conexión debe romperse a un valor finito de υ. Llame
al universo bebé resultante un bebé desconectado. (Supondremos que una vez que el universo
bebé se desconecta, permanece separado en lugar de reconectarse en un momento posterior).
Tales espaciotiempos cambiantes de topología no son hiperbólicos globalmente [45]. Sin
embargo, este tipo de violación de la hiperbolicidad global bien podría ser físicamente razonable,
ya que la pérdida de predictividad solo ocurre en un único punto de la variedad.
La alternativa es un bebé conectado, que siempre permanece conectado al universo madre, ya
sea porque queda un remanente de la evaporación del agujero negro o porque el agujero negro
está iluminado por suficiente materia que cae para evitar la evaporación total. También es
posible que un bebé conectado sea viable si, por ejemplo, entra en una fase de expansión de De
Sitter, de modo que se formen horizontes alrededor de las líneas de mundo futuras individuales.
Todos los bebés viables, ya sean globalmente hiperbólicos o no, son descartados por el GSL,
porque la condición de viabilidad asegura que W fut tenga un horizonte futuro espacialmente
compacto ∂I - (W fut) existente fuera del agujero negro, que separa los puntos que puede influir
causalmente en el universo bebé desde los puntos que no pueden. Sin embargo, cuando se traza
el horizonte ∂I - (W fut) hasta la región asintótica lejos del agujero negro, entonces su entropía
generalizada debe estar disminuyendo con el tiempo. Para mostrar esto, primero
consideraremos el caso simétrico esférico y luego generalizaremos al caso simétrico no esférico.
Supondremos que la aproximación semiclásica es válida en la región asintóticamente plana, lejos
del agujero negro.
En el caso de simetría esférica, el horizonte futuro se define por υ = υ max (el último momento
del tiempo avanzado desde el cual una señal puede llegar al universo bebé). Lejos del agujero
negro, el horizonte es, por tanto, una esfera que se contrae. Dado que el área de tales superficies
está disminuyendo en la métrica clásica de fondo de un agujero negro, la entropía del área de
Bekenstein-Hawking se está reduciendo en un término O (ħ − 1). Cualquier corrección cuántica
procedente de S out es O (ħ0), que es de orden inferior en la expansión semiclásica. En
consecuencia, la entropía generalizada de un horizonte futuro está disminuyendo,
contrariamente a la GSL.
Si el espacio-tiempo no es esféricamente simétrico, entonces ∂I - (W fut) puede mentir
parcialmente al pasado de υ = υ max. Sin embargo, sigue siendo cierto que ∂I - (W fut) llega hasta
el infinito nulo pasado, y que el área asintótica de ∂I - (W fut) ∩ I - es infinita. Por otro lado, el
área de una rebanada compacta de ∂I - (W fut) es finita cuando la rebanada se toma a una
distancia grande (pero finita) del agujero negro. Para pasar del área infinita al área finita, debe
existir algún punto g 0 lejos del agujero negro donde ∂I - (W fut) se contrae clásicamente. Pero
luego, por el mismo argumento que en el párrafo anterior, la entropía generalizada disminuye
en g 0.
Por lo tanto, si la GSL es verdadera, no puede existir tal W fut; en otras palabras, no hay un
universo bebé viable. Ésta es una generalización de un teorema de la relatividad general clásica
utilizando la condición de energía nula [8].
Hasta ahora no hemos asumido que el espacio-tiempo del bebé sea globalmente hiperbólico.
La hiperbolicidad global descartaría a los bebés trascendentales, así como a los bebés
desconectados. Pero de los dos, los bebés trascendentales parecen mucho más patológicos
debido al “infinito desplazamiento hacia el azul” de los modos de campo que atraviesan el
horizonte en tiempos tardíos. Entonces, incluso si se permiten eventos de cambio de topología,
todavía parece razonable rechazar a los bebés trascendentales. Eso excluiría el proceso de túnel
cuántico propuesto, descrito en la Ref. [46], así como el espacio-tiempo del universo bebé de Ref.
[24]. (Incluso si se permitieran bebés trascendentales, probablemente serían muy sensibles al
destino a largo plazo del universo, ya que solo pueden surgir dentro de agujeros negros que
tienen una probabilidad finita de nunca evaporarse por completo).
Por lo tanto, asumiendo tanto el GSL como la hiperbolicidad global, solo se permite la
posibilidad de bebés dependientes. La razón por la que la GSL no prohíbe a los bebés
dependientes es que I - (W fut) incluye todo el exterior del agujero negro. Por tanto, no hay
horizonte que separe los puntos que pueden influir en el bebé de los puntos que no pueden. Sin
embargo, debido a que los bebés deben ser dependientes, las oportunidades para la creación del
universo son limitadas.
En primer lugar, un universo bebé dependiente siempre debe permanecer conectado por su
cordón umbilical al universo madre para que no muera. Pero cualquier agujero negro que se deje
solo se evaporará debido a la radiación de Hawking. Entonces, a menos que se permitan los
remanentes, todo lo que está dentro del agujero negro debe ser destruido si el agujero negro deja
de alimentarse.
En segundo lugar, un universo bebé dependiente no puede tener una cosmología similar a
nuestro propio universo, que parece dirigirse a una fase de expansión de De Sitter. El espacio de
De Sitter tiene un horizonte de futuro compacto alrededor de cualquier línea de mundo infinita
futura W fut. Sea un segmento espacial ∑ en el que ∑ ∩ J - (W fut) es una región compacta.14 Para
cualquier bebé no trascendental, υ debe ser inito en todos los puntos de ∑ ∩ J - (W fut). Dado
que υ es una función continua, por compacidad, esto significa que υ tiene un límite superior en
la región ∑ ∩ J - (W fut). Esto significa que ninguna información puede llegar a W fut después de
un cierto tiempo avanzado υ; por tanto, el universo bebé es viable. En consecuencia, ningún
universo bebé dependiente puede terminar en una fase de expansión de De Sitter.
Entonces, la GSL requiere que cualquier universo bebé (y su progenie para siempre) debe
permanecer dependiente de este, y tener una cosmología diferente a la que parece tener nuestro
propio universo. (Las restricciones adicionales sobre la formación del universo vendrán dadas
grano fino , se sigue del Teorema 4 que el espacio-tiempo tiene una singularidad inicial, si
el espacio-tiempo es globalmente hiperbólico y el espacio no es compacto. No importa si la
cosmología FRW tiene pequeñas perturbaciones no homogéneas porque las pequeñas
perturbaciones no pueden eliminar las superficies anti-atrapadas.
Al igual que en el caso del agujero negro, el mero hecho de que exista una singularidad inicial
no necesariamente nos dice que no hay líneas de mundo infinitas pasadas W pasadas que eviten
la singularidad. Pero se pueden imponer algunas restricciones a esta posibilidad asumiendo que
existe tal W pasado y luego aplicando el lo. Supongamos que existe un horizonte pasado ∂I
+ (W pasado) en el universo actual. Debido a la expansión del universo, tal horizonte debería ser
ahora un objeto grande, casi clásico. Y por el no debe expandirse en todas partes. En una
cosmología FRW en expansión, esto solo es posible si cada componente conectado del horizonte
pasado es compacto y suficientemente pequeño. Por lo tanto, la totalidad del universo infinito
compartiría una historia pasada común, excepto posiblemente por un conjunto de burbujas, cada
una con un volumen espacial finito.dieciséis
Esto está en marcado contraste con la cosmología de FRW de Big Bang caliente estándar, en la
que regiones espaciales suficientemente distantes nunca han estado en contacto casual entre sí.
Pero no es muy diferente de la cosmología inflacionaria, en la que la expansión exponencial del
universo hace que regiones distantes compartan un pasado causal. Una forma de proporcionar
al espacio-tiempo la propiedad requerida sería si hubiera un período infinito de inflación en el
pasado del universo infinito. Tal espacio-tiempo tendría líneas de mundo infinitas en el pasado,
pero también sería nulo geodésicamente incompleto debido al hecho de que un universo inflado
infinito ocupa solo una parte del espacio de De Sitter.
De manera similar, un universo espacialmente finito puede tener fácilmente todos los puntos
en su fase FRW eventualmente en contacto causal, y ni siquiera necesita ninguna singularidad
inicial para hacerlo. Un ejemplo sería una cosmología A-FRW con rebote.
Para analizar las propiedades termodinámicas de tal modelo infinito pasado, ahora invocamos
el GSL de grano grueso. Suponiendo, de acuerdo con las observaciones actuales, que el universo
terminará en una fase de expansión similar a la de De Sitter, habrá líneas de mundo infinitas en
el futuro W fut comenzando en la Tierra que terminarán rodeadas por un horizonte futuro
compacto, que contiene una cantidad finita de entropía generalizada (aproximadamente A / 4ħG
del horizonte). Suponiendo una hiperbolicidad global, este horizonte futuro debe permanecer
compacto a medida que se traslada al pasado, e incluye en particular todo el pasado de la Tierra.
Esto significa que 1) la entropía generalizada dentro del horizonte ha aumentado desde valores
arbitrariamente negativos, o 2) solo hay una cantidad finita de procesos de producción de
entropía en nuestro cono de luz pasado,
La opción (1) no es posible si la entropía generalizada tiene una interpretación de conteo de
estado directo en términos de grados de libertad discretos en la escala de Planck y, en cualquier
caso, parece algo extraña. La opción (2) implicaría que el universo esté en un estado cercano al
equilibrio durante la primera "mitad" de la eternidad y luego, por alguna razón inexplicable,
salga de este equilibrio. La opción (3), aunque de apariencia extraña, surge naturalmente si las
“condiciones iniciales” de baja entropía del universo se imponen realmente en un intervalo de
tiempo finito (cf. sección 2.1). En este escenario, se puede decir que el universo tiene un
comienzo en un sentido termodinámico incluso si no tiene un comienzo en un sentido
geométrico.
La opción (3) funciona mejor si el universo es espacialmente finito. En un universo
espacialmente finito, el horizonte de W fut puede, cuando se traza hacia atrás en el tiempo,
cruzarse y desaparecer por completo en un tiempo t *. (En el caso de un universo espacialmente
infinito, globalmente hiperbólico, el horizonte solo puede desaparecer por completo al chocar
con una singularidad inicial). Dado que antes de t * no hay horizonte, la entropía generalizada de
grano fino es simplemente una constante, igual a la fina. -entropía arraigada del universo total.
Esto explica por qué la entropía de grano fino no disminuye indefinidamente cuando uno
retrocede en el tiempo. Pero si el horizonte retrocede en el tiempo para siempre, uno tendría
problemas con el GSL de grano fino. Dado que el GSL de grano fino no depende de una flecha de
tiempo (véase la sección 2.2),
Poniendo todas estas consideraciones juntas, si el GSL es una ley de la naturaleza válida,
sugiere fuertemente que o el universo tuvo un comienzo finito en el tiempo, o es espacialmente
finito y la flecha del tiempo se invirtió antes del Big Bang.17 En el último caso, aún podría decirse
que el universo tuvo un comienzo en un sentido termodinámico, porque ambas ramas de la
cosmología estarían al futuro termodinámico del Big Bang.
Más precisamente, definamos un "impulso warp" como una región espaciotemporal compacta
D ∈ M, con la propiedad de que existen puntos L - ∈ I - y L + ∈ I + tales que (ver Fig. 8.8):
Figura 8.8 i) Un diagrama de espacio-tiempo del impulso warp. La curva nula g pasa a través de la región D para conectar los
puntos L - y L + en el límite conforme. Existen puntos p hacia el futuro nulo de L + a los que no se puede acceder desde L - sin pasar
por la región D. La curva nula g se encuentra tanto en el horizonte futuro H fut = ∂I - (L +) como en el horizonte pasado H pasado =
∂I + (L -). Sin embargo, estos horizontes no tienen por qué coincidir excepto en g. ii) Una imagen de un corte espacial que atraviesa
el punto g 0. Los dos horizontes definen tres regiones, F al futuro de g, P al pasado de g, y la otra región O separada en forma de
espacio.Suponiendo que la aproximación semiclásica es válido en g 0, los teoremas 1 y 2 se pueden aplicar para mostrar una
violación de la GSL o.
L - y L + son acronales (es decir, no están conectados por ninguna curva temporal),
Existe una curva nula g que viaja de L - a L + pasando por la región D, pero
En el espacio-tiempo parcial M - D, cualquier curva nula que viaje de L - a I + se retrasa en un
tiempo finito. En otras palabras, para cualquier otro punto p ∈ I +, si p es nulo separado
de L +, y si p está lo suficientemente cerca de L +, entonces no es posible enviar una señal
de L + ap.
Para resumir esta definición, L + y L - están separados como la luz en M, pero separados como
el espacio en M - D. Esto indica que las curvas nulas que viajan a través de D avanzan en un tiempo
finito en comparación con las que giran alrededor de D.
Algunos comentarios sobre esta definición: Primero, las condiciones 1 y 2 requieren
implícitamente que g sea una curva nula acronal, lo que a su vez implica que es una geodésica
“más rápida posible” que conecta I - e I +. La existencia de una curva con la máxima velocidad
posible se deriva de la hiperbolicidad global para cualquier espacio-tiempo de impulso warp, ya
que el espacio de curvas causales entre dos subconjuntos compactos cualesquiera de un espacio-
tiempo globalmente hiperbólico es en sí mismo compacto [52].
Los puntos L - y L + deben estar en direcciones espaciales diametralmente opuestas, ya que
todos los demás puntos en I + son crónicos a cualquier L -. Esta es la razón por la que la condición
3 anterior restringe la atención a los puntos en I + que son nulos separados por L +.
Uno podría ingenuamente que incluso en el espacio-tiempo plano, una región D podría
satisfacer esta definición simplemente bloqueando el camino más corto entre L - y L +, y forzando
así cualquier luz que conecte L - y L + en M - D a recorrer un camino más largo . Sin embargo,
debido a que L - y L + están infinitamente lejos, las bandejas de luz solo necesitan doblarse una
pequeña cantidad para sortear D, lo que lleva a un retraso que puede hacerse arbitrariamente
pequeño, lo que significa que la condición 3 no se cumple.
Finalmente, esta definición se aplica solo a los impulsores warp que conducen a un avance
finito para las bandejas de luz que viajan a una distancia infinita. El resultado no se aplica a los
casos en los que hay una aceleración solo en una distancia finita.
usando muestra que si existen actualmente máquinas del tiempo, es imposible que se
destruyan.
La conclusión correcta es que el electrón podría no estar en estado ascendente, una afirmación
muy diferente.
De manera similar, si la entropía generalizada disminuye en algún lugar de una superficie nula
N, la conclusión adecuada a extraer no es que N no sea un horizonte, sino que N podría no ser un
horizonte. Tomemos como ejemplo específico el resultado de los agujeros de gusano no
atravesables de la sección 4.1. Un viajero espacial lo suficientemente aventurero podría no verse
disuadido de intentar cruzar un agujero de gusano simplemente porque no está seguro de si lo
logrará o no. Supongamos entonces que nuestro intrépido héroe vive en un universo
asintóticamente plano con el estado Ψ, y luego salta al agujero de gusano aunque solo tenga una
probabilidad 1> p> 0 de alcanzar con éxito el otro lado. Suponiendo que llegue al otro lado, es
apropiado, al menos en el futuro, proyectar el estado del universo en un nuevo estado Ψ ′ en el
que ciertamente ocurre el salto del agujero de gusano,
(35)
donde χ es algún estado ortogonal.
Aquí hay que tener cuidado. Como es habitual en la medición de la mecánica cuántica, el estado
Ψ ′ no será una buena descripción del estado del universo antes del momento de la medición. De
hecho, dado que la rama adicional χ de la superposición se define usando una condición de
frontera futura, por los argumentos de la sección 2.1, se espera que la entropía ordinaria de grano
grueso de χ disminuya con el tiempo antes del acto de medición. Sin embargo, no es necesario
insistir en que Ψ ′ es el verdadero estado del universo, o que el colapso de la función de onda es
la interpretación correcta de las mediciones de la mecánica cuántica. Solo se requiere que Ψ ′ sea
un estado bien definido en la teoría, al que, por lo tanto, se debe aplicar el GSL de grano fino. Se
espera que Ψ ′ sea asintóticamente plano ya que esta condición de frontera no debería verse
afectada por nada que suceda en el interior del espacio-tiempo. Entonces Ψ ′ es un espacio-
tiempo asintóticamente plano en el que existe un agujero de gusano atravesable con
probabilidad 1, lo que contradice el resultado de la sección 4.1. Argumentos similares se aplican
a los otros resultados prohibidos de superficie atrapada en la sección 4. 19
Por lo tanto, se deduce del GSL que la probabilidad de formar un universo bebé, un agujero de
gusano atravesable o reiniciar la inflación en un espacio-tiempo asintóticamente plano o AdS, es
exactamente cero. Esto es un poco sorprendente porque uno podría haber pensado que estas
cosas podrían ocurrir a través de un túnel cuántico [48, 46]. Sin embargo, está de acuerdo con la
observación de la Ref. [47] que no se puede reiniciar la inflación en los espaciotiempos de AdS
en el contexto de AdS / CFT.
Esto deja el análisis de la región Y fuertemente acoplada, que podría estar en cualquiera de los
regímenes # 2 - 4. Para que el GSL esté bien definido, es necesario que el concepto de horizonte
causal aún exista. La noción está claramente definida en el régimen semiclásico fuerte (# 2)
debido a la existencia de un espacio-tiempo lorentziano. Para una variedad Lorentziana cuántica
(# 3), la estructura causal se vuelve borrosa y, por lo tanto, uno podría preocuparse por si el
horizonte causal está definido. Supongamos los siguientes principios de correspondencia: A) que
el requisito en relatividad general de que las coordenadas sean suaves es meramente por
conveniencia técnica y que, por lo tanto, uno puede formular consistentemente la relatividad
general como covariante bajo la elección de coordenadas continuas arbitrarias, no solo
difeomorfismos,
Sea algún lugar geométrico de los puntos L definido por alguna prescripción generalmente
covariante. Entonces, ∂I - (L) es una superficie continua (pero no necesariamente lisa) de
codimensión 1. Por el supuesto A anterior, es consistente con la relatividad general de calibre
fijo usando un sistema de coordenadas en el que una coordenada x satisface x = 0 en ∂I - (L). En
este sistema de coordenadas, la ubicación del horizonte está en una posición fija y bien definida
en el espacio y, por lo tanto, no fluctúa en su posición. Si se toma L como una línea de mundo
infinita en el futuro definida por cualquier prescripción invariante de coordenadas, esto muestra
que la noción de un horizonte futuro está bien definida. Entonces, el GSL puede definirse para
requerir que cualquier horizonte causal futuro tenga una entropía no decreciente, al menos en
la región semiclásica X donde sabemos cómo definir S gen.
Incluso si la geometría del espacio-tiempo es descrita por alguna nueva estructura discreta (#
4), todavía parece razonable creer que la noción de un horizonte futuro puede estar bien
definida, si esta estructura discreta tiene una noción fundamental de causalidad incorporada. Se
puede pensar en la ubicación de un horizonte causal como definido por la forma en que divide
los puntos del espacio-tiempo en regiones exteriores e interiores. El exterior de un horizonte
futuro se puede definir como J - (W fut), el pasado causal de una línea de mundo infinita en el
futuro. Una línea de mundo W se puede definir como una cadena de puntos en secuencia causal.
La única parte de la definición que depende de cualquier otra cosa que no sea una estructura
causal, es el requisito de que W futuro sea infinito. Pero esto se puede definir naturalmente en
una geometría discreta al requerir que W consista en un número infinito de puntos.
Entonces, si la geometría cuántica del universo es un conjunto causal discreto o algo más rico,
la noción de un horizonte futuro debería estar bien definida y debería ser posible preguntarse si
la GSL es verdadera. Por supuesto, podría resultar falso. Por ejemplo, si la gravedad cuántica
viola la invariancia de Lorentz, entonces los argumentos de Ref. [61] sugieren que la GSL no será
válida.
Sin embargo, parece más elegante que el GSL sea cierto en la gravedad cuántica. Esto explicaría
el éxito de la termodinámica del horizonte en la relatividad general semiclásica. No solo eso, sino
que, por los resultados de las secciones 4.3 y 4.4, también garantizaría que la teoría tenga
energías positivas y buena causalidad.
Hiperbolicidad global.Aproximadamente la mitad de los resultados en la sección 4 asumen
hiperbolicidad global, ya sea directamente o mediante el uso de los teoremas 2 o 4. Esto incluye
la generalización del teorema de la singularidad de Penrose (secciones 4.1 y 4.2), parte de la
discusión sobre el comienzo termodinámico de la universo (4.2) y la prohibición de impulsos
warp y objetos de masa negativa (4.3). Por otro lado, las prohibiciones sobre universos bebés
viables, agujeros de gusano atravesables y reiniciar la inflación (4.1) usan solo el GSL, mientras
que el resultado de las máquinas sin tiempo (4.4) usa una forma debilitada de hiperbolicidad
global.
Si la teoría de la gravedad cuántica es completamente predictiva, se espera que algún análogo
de la hiperbolicidad global sea cierto, pero puede que no tenga las mismas implicaciones que en
la relatividad general. El hecho de que el cambio de topología esté prohibido para las variedades
hiperbólicas globales continuas [45] no significa necesariamente que no pueda ocurrir en
espaciotiempos discretos. Por tanto, es necesario examinar si se espera que los teoremas 2 y 4
sigan siendo válidos. El teorema 2 solo depende de la hiperbolicidad global en la medida en que
sea necesaria para identificar subsistemas causales; por lo tanto, es probable que se mantenga
en cualquier teoría con causalidad.
El teorema 4 depende de la hiperbolicidad global de una manera más sutil. El supuesto básico
de causalidad que subyace al Teorema 4 es que una superficie causal que se mueve hacia afuera
en una porción espacial no compacta no puede llegar a su fin sin encontrar un límite del espacio-
tiempo. Esto podría suceder de dos formas diferentes: (a) un espacio no compacto podría
volverse compacto como resultado de la evolución del tiempo, o (b) un espacio no compacto
podría dividirse en dos regiones, una de ellas compacta y la otra no compacta. Parece poco
probable que el cambio de topología cuántica pueda permitir (a), ya que requeriría un evento de
túnel "infinitamente grande". El escenario (b) es el escenario del universo bebé desconectado,
que está prohibido por GSL sin utilizar la hiperbolicidad global.23 Aceptando estos argumentos
en contra de (a) y (b), no es improbable que un análogo del Teorema 4 pueda aplicarse en plena
gravedad cuántica.
Por tanto, existe una posibilidad razonable de que el teorema de la singularidad de Penrose
pueda demostrarse incluso en el contexto de la gravedad cuántica total. Esto iría en contra de la
sabiduría convencional de que las singularidades son un síntoma de lo incompleto de la teoría
clásica y se resuelven mecánicamente cuánticamente. Sin embargo, debe señalarse que el hecho
de que haya singularidades en el sentido de que el espacio-tiempo llega a su fin en algunos
lugares, no significa que haya cantidades físicas que se vuelvan infinitas en la singularidad. Una
geometría discreta aún podría resolver la singularidad en el último sentido cortando el espacio-
tiempo a distancias más cortas que la escala de Planck.
6. Conclusión
Se ha demostrado anteriormente que, bajo el supuesto de que el espacio-tiempo es una variedad
Lorentziana hiperbólica globalmente, el GSL de grano fino requiere que los agujeros negros y los
universos FRW infinitos tengan singularidades, y impone severas restricciones a los universos
bebés y cualquier cosmología anterior al Big Bang. . Además, evita que los espaciotiempos
asintóticamente planos tengan masas ADM negativas, impulsos de deformación o agujeros de
gusano transitables, o que desarrollen máquinas del tiempo o regiones de inflado. En todos estos
casos, los teoremas de la relatividad general clásica se han extendido a escenarios semiclásicos
utilizando el GSL como premisa en lugar de la condición de energía nula. La noción de una
"superficie atrapada" aún persiste en este escenario cuántico y asegura que estas características
cualitativas de la gravedad semiclásica son las mismas que las de la relatividad general clásica.
También hay algunos indicios, necesariamente especulativos, de que estos resultados podrían
ser válidos en una teoría completa de la gravedad cuántica. Aunque la aproximación semiclásica
se usó para derivar algunos de los resultados de no-go, solo se usó en regiones casi clásicas, ya
sea a una gran distancia o a un largo tiempo de distancia de las regiones de gravedad cuántica de
alta curvatura. Aparte del GSL en sí, las únicas suposiciones sobre la región de alta curvatura
fueron que el espacio-tiempo continúa teniendo algunas de las mismas propiedades primitivas
que un espacio-tiempo de Lorentz: una noción de causalidad usada para definir horizontes, una
noción de predictividad análoga a la hiperbolicidad global, distinciones entre longitudes finitas
e infinitas, y regiones compactas y no compactas. Dados los éxitos de la termodinámica del
horizonte, es natural suponer que el GSL se mantiene incluso en el nivel de gravedad cuántica,
El argumento mecánico estadístico para un comienzo en el tiempo, basado en el hecho de que
la entropía disminuye cuando se va al pasado, también se generalizó a un argumento del GSL de
grano grueso. Junto con el teorema de la singularidad, esto conduce a un argumento prima facie
de que el tiempo tuvo un verdadero comienzo en el Big Bang hace unos 13.700 millones de años.
En la sección 4.2, para hacer una cosmología plausible que satisfaga GSL con un pasado infinito,
fue necesario postular tanto que el cosmos es espacialmente finito como que la flecha del tiempo
se invirtió antes de algún tiempo t 0. Este tipo de rebote evade tanto las restricciones de la flecha
termodinámica como la singularidad, pero todavía tiene en cierto sentido un "comienzo"
termodinámico en el tiempo en el momento de la entropía más baja. Es decir, tanto el pasado
como el futuro se explicarían en términos del estado de baja entropía en t 0, mientras que el
estado en t 0 en sí mismo no tendría explicación en términos de nada para el futuro o el pasado.
(Por lo tanto, el momento t 0 parecería suscitar el mismo tipo de preguntas filosóficas que
cualquier otro tipo de comienzo en el tiempo).
El hecho de que los resultados prohibidos prohíben varios procesos con probabilidad 0 es
interesante porque va en contra de la experiencia habitual en la teoría cuántica de campos de
que todo lo que no esté prohibido por la cinemática o las leyes de conservación debe ocurrir con
alguna probabilidad distinta de cero. Esto sugiere que puede haber una formulación de
geometría cuántica basada en la termodinámica del horizonte en la que estas restricciones
parecen más naturales.
La noción de una superficie cuántica atrapada del Teorema 4 puede ser una pista aquí. Si
pensamos que la termodinámica del horizonte funciona debido a la mecánica estadística de los
grados de libertad de la gravedad cuántica cerca o en el horizonte, ¿qué deberíamos hacer con el
hecho de que en ciertas superficies la entropía sí disminuye? Es como si cada superficie nula
debiera elegir ser un horizonte causal y comportarse en ciertos aspectos como un sistema
cerrado, o bien violar la segunda ley y ser castigada por llegar a su fin en un tiempo finito. ¿Puede
explicarse esta dicotomía básica de alguna manera desde la perspectiva de los grados de libertad
del horizonte microscópico?
Expresiones de gratitud
Este trabajo fue apoyado por las subvenciones de la NSF PHY-0601800 y PHY-0903572, el Centro
de Física Fundamental de Maryland, el Instituto Perimetral de Física Teórica y la Fundación
Simons. Agradezco las conversaciones con Ted Jacobson, William Donnelly, Sudipta Sarkar,
Latham Boyle, Rob Myers, Don Marolf, Robert Brandenberger, Netta Engelhardt, Ed Witten y los
comentarios detallados de árbitros anónimos.
Apéndice
Este apéndice demostrará un teorema utilizado en la sección 2.1 para demostrar que la entropía
aumenta en el contexto de la termodinámica ordinaria. Allí, el enfoque fue modelar nuestra
incertidumbre sobre la evolución del tiempo utilizando una mezcla de posibles operadores
unitarios, actuando en cualquier Espacio de Hilbert separable.
Sea dU una distribución de probabilidad sobre el espacio de posibles operadores unitarios, de
manera que la probabilidad total sea 1:
(36)
Entonces la operación a realizar en el estado ρ es
(37)
Tes un mapa lineal desde el espacio de todas las matrices de densidad a sí mismo. Hay algunas
consecuencias del hecho de que el mapa es solo una suma de operadores unitarios: a) Por
conservación de probabilidad, T debe preservar la traza de ρ. b) Dado que las probabilidades no
pueden ser negativas, T debe mapear estados con autovalores no negativos a otros estados con
autovalores no negativos. Además, c) Dado que toda U conserva el estado de identidad I, T (I) =
I.
Tales mapas no pueden disminuir la entropía, un hecho que se ha derivado de la teoría de
mezcla de Uhlmann [20], por medio de una afirmación aún más fuerte sobre los valores propios
de probabilidad: es decir, que no hay forma de transferir la probabilidad de un valor propio más
pequeño a uno más grande. uno.
Más precisamente, para todos los números naturales i, la suma del i-ésimo valor propio más
grande de la matriz de densidad final no debe ser mayor que el i-ésimo valor propio más grande
de la matriz de densidad inicial. En otras palabras, si consideramos el espectro de autovalores de
probabilidad de ρ, un autovalor de probabilidad solo puede aumentar de valor si lo hace a
expensas de autovalores con mayor probabilidad. Esta declaración más fuerte es más poderosa
que simplemente afirmar que la entropía aumenta, porque produce una declaración separada
para cada número i.
Uno podría preocuparse por cómo interpretar “la suma de los iésimos vectores propios más
grandes” si ρ es degenerado. Entonces existe una ambigüedad en cuanto a a) qué base usar para
contar los vectores propios, yb) cómo ordenar los valores propios, ya que algunos de ellos son
iguales. Sin embargo, debido a que, por definición, todos los valores propios degenerados tienen
el mismo valor, no hay diferencia en la suma de cómo dividimos los estados degenerados siempre
que hagamos alguna elección.
A continuación se muestra una prueba de este resultado:
Definiciones:
ρ es la matriz de densidad,
T() es el mapa lineal positivo que conserva el rastro y la identidad,
I es la matriz de identidad,
M = ρ - p i I, donde pi es el i-ésimo valor propio más grande,
PAG se proyecta en el i-ésimo valor propio más grande de ρ, y
Q se proyecta sobre el i-ésimo valor propio más grande de T (ρ).
Teorema 5: El teorema que se va a demostrar ahora se puede enunciar de la siguiente manera:
(38)
Prueba: Dado que P conmuta con ρ y, por tanto, M, podemos escribir
(39)
donde A y B son manifiestamente positivos. Ahora por positividad,
(70)
dado que un rastro parcial de una matriz positiva no puede dar más que el rastro completo,
mientras que
(41)
porque cada operación conserva la positividad. Por tanto, por linealidad,
(42)
lo que muestra que la suma de los i valores propios más grandes solo puede disminuir. Pero M y
ρ solo difieren en I = T (I), por lo que el resultado también es válido para ρ. QED
Corolario 5.1:Cualquier cantidad expresable como tr (f (ρ)), donde f es cualquier función
convexa, no es decreciente. Esto está implícito en el hecho de que los valores propios de
probabilidad solo pueden evolucionar hacia la ecualización [20].
Esta afirmación más fuerte sobre los valores propios de probabilidad es equivalente a decir
que cualquier función convexa de los valores propios de probabilidad no es decreciente. Elija la
función convexa:
(43)
(44)
(45)
lo que implica que los valores propios de probabilidad solo se pueden igualar.
NOTAS
1 Un conjunto es acronal si no hay dos puntos conectados por curvas temporales.
2 No pudieron probar ningún teorema de singularidad, porque estos típicamente requieren que la condición de energía nula
promediada se mantenga en un rayo nulo semi-infinito con un punto final, una condición que puede ser violada por campos
cuánticos.
3 Si bien se espera que los efectos de la gravedad cuántica sean importantes cerca de las singularidades, otras aplicaciones del
teorema de Penrose no los requieren (véase la sección 5.2).
4 O más generalmente, simetría CPT.
5También es necesario no hacer ninguna restricción sobre el estado final del universo. Si hubiera una suposición de baja
entropía tanto para el estado inicial como para el final, no sería correcto calcular solo desde la condición inicial, ya
que eso ignoraría información adicional relevante. Esta suposición está implícita en el argumento para el OSL dado
anteriormente.
6Aquí estamos hablando de la entropía ordinaria del interior del agujero negro, no de la entropía generalizada de su horizonte
(que es el tema de la siguiente sección). Este último está limitado a cualquier energía finita; lo primero podría no serlo,
dependiendo de las opiniones que uno tenga sobre los límites de la entropía y la pérdida de información de los agujeros
negros. Mis afirmaciones en este artículo no requieren tomar una posición sobre esta controversia, ya que se basarán en la
entropía generalizada en lugar de en la entropía ordinaria.
8Técnicamente, las leyes de la física son invariantes bajo CPT, no T por sí mismas. Esto no afecta el argumento porque la
entropía generalizada es invariante bajo C y P. Pero si las leyes de la gravedad cuántica violaran el CPT, el GSL y su tiempo
inverso podrían ser independientes entre sí.
9 Esto es diferente de la aproximación semiclásica que involucra un gran número de N de especies, en la que Nħ se mantiene
fijo cuando se toma el límite ħ → 0, que se discutirá en la secció n 5.2.
10Una superficie nula típica desarrollará cúspides donde sus generadores entran o salen de la superficie, y en estos puntos la
superficie no será lisa. En un espacio-tiempo uniforme, estas partes no lisas de la superficie nula suelen ser de menor
dimensión, por lo que esta suposición es razonable si el punto g 0 es genérico.
11 Se supone que tanto ∑ como ∑ ′ son aproximadamente constantes a lo largo de la escala de longitud establecida por la
distancia adecuada f; de lo contrario, se podría satisfacer el teorema 1 simplemente evolucionando hacia adelante en el
tiempo en solo una de las dos superficies nulas N o M.
12 Tradicionalmente, la hiperbolicidad global también requiere que el espacio-tiempo satisfaga una fuerte causalidad, pero esta
forma aparentemente más fuerte de hiperbolicidad global se ha probado recientemente a partir de la definición que se da
aquí [43].
13Técnicamente, esta definición excluye los universos bebés que eventualmente terminan en un Big Crunch sin generar nuevos
universos por sí mismos. Sin embargo, el teorema de no ir posiblemente podría extenderse a tales casos argumentando así:
mientras el universo bebé se expanda durante mucho tiempo sin volver a colapsar, existen W futuros aproximados en forma
de líneas de mundo que existen durante mucho tiempo. sin colapso. Dado que la GSL es válida para W fut infinito, por
continuidad debería haber algún sentido en el que la GSL sea muy cercana a la verdadera para líneas de mundo muy largas
pero finitas.
14 J - se ha utilizado en lugar de I - para cerrar esta región.
15También hay teoremas de singularidad que se aplican a universos espacialmente finitos [6], pero estos teoremas utilizan la
condición de energía fuerte. Esta condición puede ser violada incluso por campos escalares clásicos, mínimamente acoplados
(y fue violada en el universo temprano, si la cosmología inflacionaria es cierta). Hay pocas razones para creer que estos
teoremas o algún análogo cuántico se apliquen al universo temprano.
dieciséisSegún la condición genérica utilizada en el Corolario 2.1, estas burbujas están delimitadas por superficies atrapadas en
el futuro. Según el Teorema 3, eventualmente deben contraerse hasta desaparecer. Si la cosmología FRW no tiene una
singularidad final, esto debe suceder simplemente por el cruce de las bandejas de luz. Por lo tanto, existe un segmento
espacial completo ∑ en la cosmología de FRW con la propiedad de que todo ∑ se encuentra en el futuro de cualquier línea de
mundo infinita W pasado.
17 En un escenario de rebote, no es lógicamente necesario que el momento de menor entropía sea el mismo que el momento
de menor tamaño, pero parece natural hacer esta identificación.
18 Si cree que una línea de mundo circular no debería contar como "infinita" en el sentido relevante, simplemente considere
una línea ligeramente ondulada cerca del CTC que nunca se cruza exactamente a sí misma.
19Por el contrario, las fluctuaciones de entropía son relevantes cuando se aplica el GSL a la cosmología inflacionaria. En un
escenario inflacionario, hay un campo escalar Φ con algún potencial V (Φ), que da lugar a energía de vacío y una expansión
exponencial similar a la de De Sitter. A medida que este campo escalar reduce el potencial, la inflación se detiene. El
argumento de la inflación eterna es que las fluctuaciones cuánticas a veces empujan el campo hacia arriba del potencial y,
por lo tanto, aumentan en lugar de disminuir la energía del vacío [56]. Dado que una fluctuación ascendente da como
resultado una disminución en el área del horizonte, ingenuamente parecería que el GSL prohíbe este proceso también. Si es
así, la energía del vacío no aumentaría con el paso del tiempo. Y si no puede aumentar, generalmente se esperaría que
disminuya y, finalmente, salga de la inflación en todas partes. Evaluar la validez de este argumento requiere una
consideración cuidadosa de las fluctuaciones del vacío. El argumento anterior de que las fluctuaciones de entropía no
importan se aplica a espaciotiempos asintóticamente planos. El espacio de De Sitter es diferente por dos razones: a) En el
espacio de De Sitter hay un valor máximo de la entropía generalizada; por lo que la fluctuación descendente necesaria ΔS de
la entropía del horizonte es finita en lugar de infinita. b) Para tener inflación eterna, no es necesario que ninguna región
preseleccionada del espacio-tiempo permanezca inflando, sino solo que exista alguna región que continúe haciéndolo. Si,
durante un intervalo de tiempo dado, un volumen de Hubble aumenta en volumen en un factor de N, solo es necesario tener
una probabilidad de aproximadamente 1 / N de que la inflación continúe en cada volumen de Hubble para mantener la
inflación en algún lugar. Si ln N> ΔS, entonces uno esperaría que ocurriera la fluctuación de entropía necesaria en una de las
N regiones. Sería interesante comprobar si esta condición impone restricciones importantes a los escenarios de inflación
eterna.
20 Por supuesto, si estos resultados continúan siendo incluso en más espaciotiempos cuánticos (regímenes # 2-4), por las
razones sugeridas a continuación, tanto mejor.
21Como hecho matemático general, cuando se resuelven singularidades en alguna función, la resolución tiende a ser no
perturbativa. En cualquier orden finito en la teoría de la perturbación, la singularidad normalmente se vuelve más divergente
en lugar de menos divergente. Un ejemplo simple: si Taylor expande la función f (x) = 1 / (x 2 + a 2) en a alrededor de a = 0,
cada término en la serie de Taylor es progresivamente más divergente con respecto a x, pero en finito positivo valores de a,
no hay singularidad. Me gustaría agradecer a Ed Witten por señalar este problema.
22 Y antes, si se resuelve la singularidad.
23Además, (b) plantea problemas potenciales de causalidad. Si uno ejecuta el proceso en tiempo inverso, se encuentra que dos
regiones del espacio-tiempo completamente no relacionadas se unen espontáneamente. Esto parece ser una violación
extrema de la localidad. Pero vea la Ref. [62] para una posible forma de eludir este argumento.
Referencias
[1] BS DeWitt, “Teoría cuántica de la gravedad. I. La teoría canónica ”, Phys. Rev. 160, 1113 (1967); CW Misner, KS Thorne,
JA Wheeler, Gravitation, WH Freeman and Company 1973.
[2] G. Veneziano, “Cosmología de cuerdas: el escenario anterior al Big Bang”, arXiv: hep-th / 0002094v1 (2000); J. Khoury,
BA Ovrut, N. Seiberg, PJ Steinhardt, N. Turok, “Del Big Crunch al Big Bang”, Phys. Rev. D 65, 086007 (2002), arXiv: hep-
th / 0108187; M. Gasperini, G. Veneziano, “El escenario anterior al Big Bang en cosmología de cuerdas”, Phys. Rept. 373,
1 (2003), arXiv: hep-th / 0207130.
[3] M. Bojowald, "Ausencia de una singularidad en la cosmología cuántica de bucles", Phys. Rev. Lett. 86, 5227 (2001), arXiv:
gr-qc / 0102069; A. Ashtekar, "Resolución de singularidad en la cosmología cuántica de bucles: una breve descripción";
J. Phys. Conf. Ser. 189, 012003 (2009), arXiv: 0812.4703v1.
[4] RH Brandenberger, “Cosmology of the Very Early Universe”, arXiv: 1003.1745v1, y citas en el mismo.
[5] RD Sorkin, “Sobre la entropía del vacío fuera de un horizonte”, charla pronunciada en las actas de la conferencia GR10 en
Padua, 1983; V. Frolov, I. Novikov, "Origen dinámico de la entropía de un agujero negro", Phys. Rev. D 48, 4545 (1993),
arXiv: gr-qc / 9309001; L. Susskind, J. Uglum, "La entropía del agujero negro en la gravedad cuántica canónica y la
teoría de supercuerdas", Phys. Rev. D 50, 2700 (1994), arXiv: hep-th / 9401070; T. Jacobson, “Entropía del agujero
negro y gravedad inducida” (1994), arXiv: gr-qc / 9404039; AO Barvinsky, VP Frolov, AI Zelnikov, "Función de onda de
un agujero negro y el origen dinámico de la entropía", Phys. Rev. D 51, 1741 (1995), arXiv: gr-qc / 9404036; VP Frolov,
DV Fursaev, AI Zelnikov, "Origen estadístico de la entropía del agujero negro en la gravedad inducida", Nucl. Phys. B
486, 339 (1997), arXiv: hep-th / 9607104.
[6] SW Hawking, GFR Ellis, La estructura a gran escala del espacio-tiempo, Cambridge University Press 1973. Véase también
RM Wald, General Relativity, University of Chicago Press 1984.
[7] MS Morris, KS Thorne, U. Yurtsever, "Agujeros de gusano, máquinas del tiempo y la condición de energía débil", Phys.
Rev. Lett. 61, 1446 (1988); JL Friedman, K. Schleich, DM Witt, "Censura topológica", Phys. Rev. Lett. 71, 1486 (1993),
arXiv: gr-qc / 9305017v2;
[8] E. Farhi, AH Guth, "Un obstáculo para crear un universo en el laboratorio" Phys. Letón. B 183, 149 (1987).
[9] FJ Tipler, “Violación de la causalidad en espacio-tiempos asintóticamente planos”, Phys. Rev. Lett. 37, 879 (1976); SW
Hawking, “Conjetura de protección cronológica”, Phys. Rev. D 46, 603 (1992).
[10] KD Olum, “El viaje superlumínico requiere energías negativas”, Phys. Rev. Lett. 81, 3567 (1998), arXiv: gr-qc /
9805003v2.
[11] M. Visser, BA Bassett, S. Liberati, “Censura superluminal”, Nucl. Phys. Proc. Supl. 88, 267 (2000), arXiv: gr-qc /
9810026v2. 20.
[12] E. Woolgar, "La Positividad de la Energía para el Espacio-Tiempo Asintóticamente Anti-de Sitter", Clase. Quant. Grav.
11, 1881-1900 (1994), arXiv: gr-qc / 9404019.
[13] S. Gao, RM Wald, "Teoremas sobre el retardo de tiempo gravitacional y cuestiones relacionadas", Clase. Quant. Grav. 17,
4999 (2000), arXiv: gr-qc / 0007021.
[14] R. Penrose, RD Sorkin, E. Woolgar, "Un teorema de masa positiva basado en el enfoque y el retardo de geodésicas
nulas", arXiv: gr-qc / 9301015v2.
[15] LS Brown, GJ Maclay, “Tensión de vacío entre placas conductoras: una solución de imagen”, Phys. Rev. 184, 1272
(1969); H. Epstein, V. Glaser, A. Jaffe, “No positividad de la densidad de energía en teorías de campo cuantificadas”,
Nuovo Cim. 36, 1016 (1965); SA Fulling, PCW Davies, “Radiación de un espejo móvil en espacio-tiempo bidimensional:
anomalía conforme”, Proc. R. Soc. Lond. A 348, 393 (1976); PCW Davies, SA Fulling, “Radiación de espejos en
movimiento y de agujeros negros”, Proc. R. Soc. Lond. A 356, 237 (1977). Para el descubrimiento de SL Braunstein de
que los estados comprimidos de campos electromagnéticos pueden tener densidad de energía negativa, ver MS Morris,
KS Thorne, “Agujeros de gusano en el espacio-tiempo y su uso para viajes interestelares: una herramienta para enseñar
la relatividad general”, Am. J. Phys 56, 5 (1988).
[16] JB Bekenstein, “Cosmologías relativistas generales no singulares”, Phys. Rev. D 11, 2072 (1975); C. Barceló, M. Visser,
“¿Crepúsculo para las condiciones energéticas?”, Int. J. Mod. Phys. D 11, 1553 (2002), arXiv: gr-qc / 0205066v1.
[17] N. Graham, KD Olum, “Condición de energía nula promediada acrónica”, Phys. Rev. D 76, 064001 (2007), arXiv:
0705.3193v2.
[18] AC Wall, “Demostración de la condición de energía nula promediada acrónica a partir de la segunda ley generalizada”,
Phys. Rev. D 81, 024038 (2010), arXiv: 0910.5751v2.
[19] M. Delbrück, G. Molière, Abhand. Preuss. Akad. Wiss. Phys. Matemáticas. 1, 25 (1936), citado por LW Bruch, H. Falk,
"Desigualdad de Gibbs en la mecánica estadística cuántica", Phys. Rev. A 2, 1598 (1970). Véase también H. Falk, E. Adler,
"Contraparte cuántica del teorema de Gibbs sobre la entropía y la dependencia estadística", Phys. Rev. 168, 185 (1968).
[20] Uhlmann, A., Wiss. Z. Karl-Marx-Univ. Leipzig 20, 633 (1971), id. 21, 427 (1972), id. 22, 139 (1973), citado por A. Wehrl,
"Propiedades generales de la entropía", Rev. Mod. Phys. 50, 221 (1978); A. Wehrl, "¿Cuán caótico es el estado de un
sistema cuántico?" Representante de matemáticas. Phys. 6, 15 (1974).
[21] SM Carroll, J. Chen, “La inflación espontánea y el origen de la flecha del tiempo” (2004), arXiv: hep-th / 0410270v1.
[22] TM Fiola, J. Preskill, A. Strominger, SP Trivedi, “Termodinámica de agujeros negros y pérdida de información en dos
dimensiones”, Phys. Rev. D 50, 3987 (1994), arXiv: hep-th / 9403137.
[23] JA Wheeler, 1974. “Más allá del fin de los tiempos”, en M. Rees, R. Ruffini, JA Wheeler, Agujeros negros, ondas
gravitacionales y cosmología: una introducción a la investigación actual., Gordon y Breach 1974.
[24] Vicepresidente Frolov, MA Markov, MA Mukhanov. “¿A través de un agujero negro hacia un nuevo universo?”, Phys.
Letón. B 216, 272 (1989).
[25] L. Smolin, "¿Evolucionó el universo?" Clase. Quantum Grav. 9, 173 (1992), "El destino de las singularidades de los
agujeros negros y los parámetros de los modelos estándar de física de partículas y cosmología" (1994), arXiv: gr-qc /
9404011, "El estado de la selección natural cosmológica" (2006) , arXiv: hep-th / 0612185v1.
[26] J. Khoury, BA Ovrut, PJ Steinhardt, N. Turok, "Universo ekpyrotic: Branes en colisión y el origen del big bang caliente",
Phys. Rev. D 64, 123522 (2001), arXiv: hep-th / 0103239v3.
[27] WG Unruh, RM Wald, “Radiación de aceleración y segunda ley generalizada de la termodinámica”, Phys. Rev. D 25, 942
(1982); "Límites de entropía, radiación de aceleración y la segunda ley generalizada", Phys. Rev. D 27, 2271 (1983); MJ
Radzikowski, WG Unruh, "Corrección de 'Radiación de aceleración y la segunda ley generalizada de la termodinámica'",
Phys. Rev. D 37, 3059 (1988); D. Marolf, R. Sorkin "Sobre el estado de los objetos altamente entrópicos" Phys. Rev. D 69,
024014 (2004), arXiv: hep-th / 0309218; D. Marolf, R. Roiban, "Nota sobre los estados vinculados y el límite de
Bekenstein", JHEP 08, 033 (2004), arXiv: hep-th / 0406037; DN Page, “Radiación de Hawking y termodinámica de
agujeros negros”, New J. Phys. 7, 203 (2005), arXiv: hep-th / 0409024.
[28] AC Wall “Diez pruebas de la segunda ley generalizada”, JHEP 0906, 021 (2009), arXiv: 0901.3865v2, y referencias.
[29] AC Wall "Una prueba de la segunda ley generalizada para los horizontes de Rindler en rápida evolución", Phys.Rev. D
82, 124019 (2010), arXiv: 1007,1493; AC Wall, “Una prueba de la segunda ley generalizada para campos que cambian
rápidamente y cortes de horizonte arbitrarios”, Phys. Rev. D 85, 104049 (2012), arXiv: 1105.3445v2.
[30] RM Wald, “La entropía del agujero negro es una carga de Noether”, Phys. Rev. D 48, 3427 (1993), arXiv: gr-qc /
9307038; V. Iyer, RM Wald, "Algunas propiedades de la carga de Noether y una propuesta para la entropía dinámica del
agujero negro", Phys.Rev. D 50, 846 (1994).
[31] SW Hawking, “Creación de partículas por agujeros negros”, Commun. Matemáticas. Phys. 43, 199 (1975).
[32] DV Fursaev, SN Solodukhin, "Sobre la renormalización de un bucle de la entropía de agujero negro", Phys. Letón. B 365,
51 (1996), arXiv: hep-th / 9412020; J.-G. Demers, R. Lafrance, RC Myers, “Entropía y renormalización del agujero
negro” (1995), arXiv: gr-qc / 9507042; SN Solodukhin, "Renormalización de un bucle de la entropía del agujero negro
debido a materia no mínimamente acoplada", Phys. Rev. D 52, 7046 (1995), arXiv: hep-th / 9504022; SP de Alwis, N.
Ohta, “Termodinámica de campos cuánticos en fondos de agujeros negros”, Phys. Rev. D 52, 3529 (1995), arXiv: hep-th
/ 9504033; E. Winstanley, “Entropía de agujero negro renormalizada en el espacio anti-de Sitter a través del método de
la 'pared de ladrillos'”, Phys. Rev. D 63, 084013 (2001), arXiv: hep-th / 0011176. Para obtener algunos resultados
bidimensionales, consulte VP Frolov, DV Fursaev, AI Zelnikov, “Black Hole Entropía: termodinámica, procedimiento
estadístico-mecánico y de resta ”, Phys. Letón. B 382, 220 (1996), arXiv: hep-th / 9603175; eid. “Entropía del agujero
negro: fuera de la cáscara vs dentro de la cáscara”, Phys. Rev. D 54, 2711 (1996), arXiv: hep-th / 9512184v2. Para una
aparente discrepancia para los campos escalares en dimensiones impares, ver Kim, Kim, Soh, Yee, “Entropía
termodinámica renormalizada de agujeros negros en dimensiones superiores”, Phys. Rev. D 55, 2159 (1997), arXiv: gr-
qc / 9608015v3.
[33] D. Kabat, “Entropía de agujero negro y entropía de entrelazamiento” Nucl. Phys. B 453, 281 (1995), arXiv: hep-th /
9503016; F. Larsen, F. Wilczek, “Renormalización de la entropía del agujero negro y de la constante de acoplamiento
gravitacional”, Nucl. Phys. B 458, 249 (1996), arXiv: hep-th / 9506066; DV Fursaev, G. Miele, "Conos, espines y granos
de calor", Nucl. Phys. B 484, 697 (1997), arXiv: hep-th / 9605153; W. Donnelly, AC Wall, "¿Contribuyen realmente los
campos de calibre negativamente a la entropía del agujero negro?", Phys. Rev. D 86, 064042 (2012), arXiv: 1206.5831.
[34] TA Jacobson, R. Parentani, “Entropía del horizonte”, Encontrado. Phys. 33, 323 (2003), arXiv: gr-qc / 0302099.
[35] Véase el apéndice B de la ref. [22], y discusión en la Ref. [28].
[36] RD Sorkin, “Diez tesis sobre la entropía del agujero negro”, Stud. Hist. Philos. Modificación. Phys. 36, 291 (2005), arXiv:
hep-th / 0504037.
[37] Ted Jacobson, Robert C. Myers, “Entropía de los agujeros negros de Lovelock”, Phys. Rev. Lett. 70, 3684 (1993); T. Liko,
Phys. Rev. D 77, 064004 (2008), arXiv: 0705.1518; S. Sarkar, AC Wall, título provisional "Violaciones de la segunda ley
en la gravedad de Lovelock", de próxima publicación.
[38] T. Jacobson, G. Kang, RC Myers, "Aumento de la entropía del agujero negro en una mayor curvatura de gravedad", Phys.
Rev. D 52, 3518 (1995), arXiv: gr-qc / 9503020.
[39] CP Burgess, "La gravedad cuántica en la vida cotidiana: la relatividad general como una teoría de campo eficaz", Living.
Rev. Rel. 7, 5 (2004), arXiv: gr-qc / 0311082.
[40] H. Casini, M. Huerta, “Una entropía de entrelazamiento finito y el teorema c”, Phys. Letón. B 600, 142 (2004), arXiv:
hep-th / 0405111v3.
[41] T. Shimomura, T. Okamura, T. Mishima, H. Ishihara, "¿Se cumple la segunda ley generalizada en forma de expresión
derivada del tiempo?", Phys.Rev. D 62 044036 (2000), arXiv: gr-qc / 9902029v1.
[42] N. Pippenger, "Las desigualdades de la teoría cuántica de campos", IEEE Trans. en Info. Teoría, 49, 773 (2003).
[43] AN Bernal, M. Sánchez, “Los espaciotiempos globalmente hiperbólicos se pueden definir como 'causales' en lugar de
'fuertemente causales'”, Class. Quant. Grav. 24, 745 (2007), arXiv: gr-qc / 0611138v1.
[44] A. Strominger, D. Thompson, "A Quantum Bousso Bound", Phys. Rev. D 70, 044007 (2004), arXiv: hep-th / 0303067.
[45] RP Geroch, “Topología en relatividad general”, J. Math. Phys. 8, 782 (1967).
[46] N. Sakai, K. Nakao, H. Ishihara, M. Kobayashi, "¿Es posible crear un universo a partir de un monopolo en un
laboratorio?", Phys. Rev. D 74, 024026 (2006), arXiv: gr-qc / 0602084v3.
[47] B. Freivogel, VE Hubeny, A. Maloney, RC Myers, M. Rangamani, S. Shenker, “Inflation in AdS / CFT”, JHEP 0603, 007
(2006), arXiv: hep-th / 0510046v4.
[48] S. Coleman, F. De Luccia, "Efectos gravitacionales sobre y del decaimiento del vacío", Phys. Rev. D 21, 3305 (1980); W.
Fischler, D. Morgan, J. Polchinski, "Nucleación cuántica de burbujas de vacío falso" Phys. Rev. D 41, 2638 (1990); E.
Farhi, AH Guth, J. Guven, "¿Es posible crear un universo en el laboratorio mediante túneles cuánticos?", Nucl. Phys. B
339, 417 (1990); EI Guendelman, J. Portnoy, “¿El universo a partir de una partícula elemental?”, Clase. Quant. Grav. 16,
3315 (1999), arXiv: gr-qc / 9901066v1.
[49] T. Banks, “Herejes del falso vacío: efectos gravitacionales sobre y del decaimiento del vacío 2”, arXiv: hep-th /
0211160v2; A. Aguirre, MC Johnson, “Dinámica e inestabilidad de las falsas burbujas de vacío”, Phys. Rev. D 72, 103525
(2005), arXiv: gr-qc / 0508093v2.
[50] G. Galloway, K. Schleich, D. Witt, E. Woolgar, "La conjetura de correspondencia AdS / CFT y la censura topológica", Phys.
Letón. B 505, 255 (2001), arXiv: hep-th / 9912119v2.
[51] M. Alcubierre, “El impulso warp: viaje hiperrápido dentro de la relatividad general”, Clase. Quant. Grav. 11, L73 (1994),
arXiv: gr-qc / 0009013; Allen E. Everett, "Impulso warp y causalidad", Phys. Rev. D 53, 7365 (1996); MJ Pfenning, LH
Ford, "La naturaleza no física de 'Warp Drive'", Clase. Quant. Grav. 14, 1743, (1997), arXiv: gr-qc / 9702026; WA
Hiscock, “Efectos cuánticos en el espacio-tiempo warp drive de Alcubierre”, Clase. Quant. Grav. 14, L183 (1997), arXiv:
gr-qc / 9707024; C. Van Den Broeck, “Un 'motor warp' con requisitos de energía total más razonables”, Clase. Quant.
Grav. 16, 3973 (1999), arXiv: gr-qc / 9905084; FSN Lobo, M. Visser, “Limitaciones fundamentales en los tiempos de
espacio de la 'unidad warp'”, Clase. Quant. Grav. 21, 5871 (2004), arXiv: gr-qc / 0406083; FSN Lobo, "Soluciones
exóticas en relatividad general: agujeros de gusano atravesables y espacio-tiempo de 'impulsión warp'", Investigación
de gravedad clásica y cuántica, ed. MN Christiansen, TK Rasmussen, Nova Sci. Pub. 2008, arXiv: 0710.4474; S. Finazzi, S.
Liberati, C. Barceló, “Inestabilidad semiclásica de impulsiones warp dinámicas”, Phys. Rev. D 79, 124017 (2009), arXiv:
0904.0141.
[52] RD Sorkin, E. Woolgar, “Un orden causal para los espaciotiempos con métricas de Lorentzian C0: prueba de la
compacidad del espacio de las curvas causales”, Clase. Quant. Grav. 13, 1971 (1996), arXiv: gr-qc / 9508018v3.
[53] E. Witten, "Inestabilidad del vacío de Kaluza-Klein", Nucl. Phys. B 195, 481.
[54] DN Page, S. Surya, E. Woolgar, “Masa positiva por causalidad holográfica”, Phys.Rev.Lett. 89, 121301 (2002), arXiv: hep-
th / 0204198.
[55] RD Sorkin, D. Sudarsky, "Grandes fluctuaciones en el área del horizonte y lo que pueden decirnos sobre la entropía y la
gravedad cuántica", Clase. Quant. Grav. 16, 3835 (1999), arXiv: gr-qc / 9902051.
[56] A. Vilenkin, Phys. Rev. D 27, 2848 (1983); A. Linde, "Universo inflanationary caótico que se reproduce a sí mismo
eternamente existente", Phys Lett. B 175, 395 (1986); A. Linde, D. Linde, A. Mezhlumian, “De la teoría del Big Bang a la
teoría de un universo estacionario” Phys. Rev. D 49, 1783 (1984), gr-qc / 9306035.
[57] M. Niedermaier, M. Reuter, "El escenario de seguridad asintótica en la gravedad cuántica", Liv. Rev. Relativity, 9, 5
(2006),http://www.livingreviews.org/lrr-2006-5.
[58] P. Wallden, “Conjuntos causales: gravedad cuántica desde un espacio-tiempo fundamentalmente discreto”, J. Phys. Conf.
Ser. 222, 012053 (2010), arXiv: 1001.4041v1.
[59] H. Sahlmann, “Gravedad cuántica de bucles - una breve reseña”, arXiv: 1001.4188v1.
[60] F. Hacquebord, “Simetrías e interacciones en la teoría de cuerdas matriciales”, arXiv: hep-th / 9909227v1.
[61] SL Dubovsky, SM Sibiryakov, “Ruptura espontánea de la invariancia de Lorentz, agujeros negros y perpetuum mobile
del segundo tipo”, Phys. Letón. B 638, 509 (2006), arXiv: hep-th / 0603158; C. Eling, BZ Foster, T. Jacobson y AC Wall,
“Violación de Lorentz y movimiento perpetuo”, Phys. Rev. D 75, 101502 (R) (2007), arXiv: hep-th / 0702124; T.
Jacobson, AC Wall, "Termodinámica del agujero negro y simetría de Lorentz", encontrado. Phys. 40, 1076 (2010), arXiv:
0804.2720; D. Blas, S. Sibiryakov, “Gravedad de Horava versus termodinámica: el caso del agujero negro”, arXiv:
1202.4497; P. Berglund, J. Bhattacharyya, D. Mattingly, “Mecánica de horizontes universales”, arXiv: 1202.4497. Véase
también el uso explícito de la invariancia de Lorentz en la Ref. [29].
[62] S. Coleman, “Agujeros negros como pistas falsas: fluctuaciones topológicas y pérdida de coherencia cuántica”, Nucl.
Phys. B 307, 867 (1988).
Conclusión
Aunque algunos objetarían, hoy se reconoce ampliamente que el universo físico espacio-
temporal tuvo un comienzo. Hay al menos dos modelos clásicos del Big Bang de la singularidad
inicial del tiempo t = 0. El primer modelo representa un intervalo de tiempo que se cierra en t =
0. En este modelo, t = 0 es un evento singular, temporalmente primero, del espacio-tiempo físico.
El segundo modelo presenta un intervalo de tiempo que es finito, abierto en el pasado y excluye
t = 0 como un punto del espacio-tiempo. Más bien, t = 0 se construye como un límite del espacio-
tiempo. En ambos modelos, no hay un instante de tiempo anterior a la singularidad inicial. Ahora,
varios teístas han aprovechado el reconocimiento de que el universo tuvo un comienzo para
revivir el antiguo argumento cosmológico kalām a favor de la existencia de Dios. El defensor del
argumento cosmológico kalām presenta tres dilemas exhaustivos y trata de establecer el cuerno
relevante de cada uno: (1) O el universo tuvo un comienzo o no lo tuvo. (2) Si el universo tuvo
un comienzo, entonces fue causado o no. (3) Si el comienzo del universo fue causado, la causa fue
personal o impersonal.
No hace falta decir que el argumento del kalām ha sido muy controvertido. Concedamos que el
pasado es temporalmente finito y que el universo tuvo un comienzo. En los últimos años, William
Lane Craig y Adolf Grünbaum se han involucrado en un estimulante y acalorado debate sobre el
dilema (3).1Para comprender este intercambio, comencemos por hacernos esta pregunta: si el
origen del universo no debe tomarse como un hecho bruto, ¿qué tipo de explicación deberíamos
dar? Por al menos dos razones, Craig ha argumentado que es obvio que una explicación causal
del evento no será suficiente.2Primero, ya sea que t = 0 sea el primer evento en el tiempo o el
límite del tiempo y, por lo tanto, no sea un evento, se da el caso de que (i) si la prioridad causal
implica prioridad temporal, entonces no puede haber causa de evento para t = 0 , y (ii) si la
prioridad causal no implica una prioridad temporal (es decir, una causa puede ser simultánea
con su efecto), entonces la causa del evento para t = 0 sería en sí misma el primer evento
(explicativo), en lugar de la singularidad inicial y, a su vez, se necesitaría una explicación del
evento causal, ad infinitum.3En segundo lugar, Craig ha afirmado que la causa del comienzo del
universo debe ser sin causa, eterna e inmutable (sin la creación). Además, la causa debe ser
personal “[p] o la única forma en que un efecto temporal podría originarse a partir de una causa
eterna e inmutable parecería ser si la causa es un agente personal que elige eternamente crear
un efecto en el tiempo. Una causa inmutable que opera mecánicamente produciría un efecto
inmemorial o ninguno en absoluto; pero un agente dotado de libre albedrío [libertario] puede
tener una determinación eterna de operar causalmente en un (primer) momento de tiempo y
por lo tanto producir un primer efecto temporal.4
Desde el punto de vista de Craig, entonces, no solo una explicación causal del evento es
inadecuada para el comienzo del universo, sino que una explicación personal es adecuada.
Grünbaum ha arremetido contra una explicación personal del comienzo del universo y ha
planteado una serie de objeciones contra Craig que buscan mostrar la ininteligibilidad o
insuficiencia de una explicación personal teísta para la singularidad inicial. El propósito de este
artículo es mostrar que una vez que se aclaran los recursos conceptuales de la agencia libertaria
y la causalidad del agente, estos recursos son suficientes para refutar las objeciones planteadas
por Grünbaum contra Craig y para inclinar la balanza de su limitado debate a favor de Craig. No
buscaré justificar el argumento cosmológico kalām en su totalidad, ni argumentaré que la
agencia libertaria y la causación del agente son, de hecho, el modelo correcto de acción humana,
aunque creo que ese es el caso. Comenzaré discutiendo la causa del evento y el agente y las
formas de explicación apropiadas para cada uno. A esto le seguirá una aplicación de la causalidad
del agente y la explicación personal a la tarea de refutar los cinco argumentos clave presentados
por Grünbaum contra Craig.
Causa del evento, causa del agente y explicación: La causalidad de eventos es un modelo de
causalidad eficiente ampliamente utilizado en la ciencia. Supongamos que un ladrillo rompe un
vaso. En general, la causalidad del evento se puede definir de esta manera: un evento del tipo K
(el movimiento del ladrillo) en circunstancias del tipo C (el vidrio está en un estado sólido y no
líquido) que ocurre en una entidad del tipo E (el objeto de vidrio en sí) hace que se produzca un
evento de tipo Q (la rotura del vidrio). Aquí, todas las causas y efectos son eventos que
constituyen cadenas causales interpretadas de manera determinista (las condiciones causales
son suficientes para que se obtenga un efecto) o probabilísticamente (las condiciones causales
son suficientes para fijar las posibilidades de que se obtenga un efecto). Asociado con la
causalidad de un evento hay un modelo de explicación de la ley de cobertura según el cual algún
evento (el explanandum) se explica dando un argumento deductivo o inductivo correcto para
ese evento. Tal argumento contiene dos características en su explanans: una ley de la naturaleza
(universal o estadística) y las condiciones causales iniciales.
Algunos filósofos —compatibilistas, por ejemplo— describen las acciones humanas en
términos de causalidad de eventos y emplean un modelo de ley de cobertura para explicar tales
acciones. Los defensores de la libertad libertaria objetan y han desarrollado diferentes versiones
de un modelo alternativo de acción humana. Una comprensión ampliamente aceptada de la
agencia libertaria identifica el componente central de la acción intencional como esfuerzo
intencional, es decir, ejercer un poder para tratar de producir algún efecto por una razón. 5Como
veremos más adelante, algunos libertarios ofrecen versiones ligeramente modificadas de acción
intencional. Pero por ahora, podemos incorporar esta caracterización de la acción intencional en
la siguiente descripción de la agencia libertaria: La persona P ejerce la agencia libertaria, y libre
e intencionalmente provoca algún evento e solo en el caso 1) P es una sustancia que tiene el
poder activo de provocar e; 2) P ejerció su poder como primer motor (un "originador") para
producir e; 3) P tenía la capacidad categórica de abstenerse de ejercer su poder para producir e;
4) P actuó en aras de una razón que sirve como causa final o meta teleológica por la que P actuó.
Tomados solos, 1-3 establecen las condiciones necesarias y suficientes para un acto voluntario
puro. Las proposiciones 1 a 4 establecen las condiciones necesarias y suficientes para un acto
intencional.
Por "sustancia" me refiero a un miembro de una especie natural, un particular esencialmente
caracterizado que mantiene la igualdad absoluta a través del cambio (accidental) y que posee
una unidad primitiva de partes, propiedades y capacidades / poderes a la vez. El “poder activo”
es una noción epistémicamente primitiva que tiene un sentido que finalmente se entiende
ostensivamente en actos de conciencia introspectiva en primera persona de la propia iniciación
del cambio.6Una marca característica del poder activo es la capacidad de iniciar el movimiento,
de provocar algo. La potencia activa es una habilidad dual. Así entendido, es imposible que un
ejercicio de poder activo sea causado causalmente por eventos previos. Un "primer motor" es
una sustancia que tiene poder activo. La noción de "capacidad categórica" en 3) tiene dos
aspectos importantes. Primero, expresa el tipo de habilidad que posee un primer motor que
puede ejercer el poder activo y, como tal, contrasta con la habilidad condicional que emplean los
compatibilistas. En segundo lugar, la capacidad categórica es una capacidad dual; si uno tiene la
capacidad de ejercer su poder para hacer (o voluntad de hacer) A, entonces también tiene la
capacidad de abstenerse de ejercer su poder para hacer (o querer hacer) A. Finalmente, 4)
expresa una visión de razones como irreductibles, objetivos teleológicos por los que actúa una
persona. En general, podemos caracterizar esto diciendo que la persona S Φ 'd (por ejemplo, fue
a la cocina) para Ψ (por ejemplo, tomar café o satisfacer el deseo de S de tomar café). Esta
caracterización de la acción, según 4), no puede reducirse a una teoría causal de la acción que
utiliza la causalidad del evento creencia / deseo.
Se deben mencionar tres cosas sobre esta definición de agencia libertaria. Primero, hay dos
escuelas de pensamiento básicas con respecto a la cuestión de si los agentes causan o no sus
acciones. Los defensores de la primera escuela se aferran a la causalidad del agente y, por lo
tanto, creen que el primer motor en 2) causa sus acciones. Por ejemplo, Roderick Chisholm
afirma que una teoría adecuada de la agencia debería incluir la noción de que “hay un cierto
evento o situación que un agente causó o provocó ('Jones mató a su tío' implica que la muerte del
tío de Jones fue causado o provocado por Jones ... ”). 7De manera similar, Marilyn Adams afirma
que “[nosotros] los adultos con problemas de libertad somos responsables de nuestras
decisiones. . . en el sentido de que somos los agentes causantes de ellos ". 8Los defensores de la
segunda escuela aceptan una visión no causal de la agencia en la que las acciones de los
impulsores inmóviles son eventos no causados realizados por razones como causas finales. Tales
razones proporcionan explicaciones para actos libres, pero no lo hacen citando la razón misma
o al agente como causa eficiente del acto. Stewart C. Goetz es un gran defensor de la teoría no
causal de la agencia libertaria: “En la visión no causal de la agencia que estoy desarrollando, la
causalidad no juega un papel positivo en la explicación de la realidad. . . de libertad. . . . Las
acciones con respecto a las cuales un agente es libre y responsable son eventos no causados ".9
De cualquier manera, los libertarios están de acuerdo en que un motor inmóvil es un agente que
puede actuar sin condiciones causales suficientes que requieran que el agente actúe; el agente es
la fuente absoluta de sus propias acciones.
En segundo lugar, los teóricos de la agencia libertaria están divididos sobre el papel o las
razones en una teoría general de la agencia. Las teorías no causales de la agencia son claras al
ver las razones como causas finales, metas teleológicas por las cuales alguien actúa. Los
defensores de la causalidad del agente aceptan esta visión de las razones o sostienen que las
razones son condiciones causales necesarias (eficientes) que, junto con el propio ejercicio activo
del poder del agente (y, quizás, otras condiciones), causan la acción. 10Por lo tanto, algunos
agentes causalistas ajustarían 4) en consecuencia. En tercer lugar, es lógicamente imposible que
una persona sea obligada a causar algo como agente. Los actos libertarios son espontáneos en el
sentido de que no existen antecedentes causales suficientes para determinar que un agente actúa
con libertad libertaria.
Los defensores de la agencia libertaria emplean una forma de explicación personal que
contrasta con un modelo de ley de cobertura. Para comprender esta forma de explicación,
primero debemos mirar una distinción que es parte de la teoría de la acción: la diferencia entre
una acción básica y no básica. Para captar la diferencia entre una acción básica y no básica,
observe primero que a menudo se logra más de una cosa en un solo ejercicio de agencia. Algunas
acciones se realizan haciendo otras; por ejemplo, realizo el acto de ir a la tienda a comprar pan
al entrar en mi coche y conducir hasta la tienda. Las acciones básicas son fundamentales para el
desempeño de todos los demás, pero no se realizan haciendo otra cosa. En general, el Φ-ing de S
es básico si y solo si no hay otra descripción de acción no equivalente 'S Ψ-ing' tal que sea cierto
que S Φ-ed por Ψ-ing. Mi esfuerzo por mover mi brazo para obtener mis llaves es una acción
básica. Una acción no básica contiene acciones básicas que son parte y medio de la intención
última por la cual se realizó la acción no básica. Para cumplir con una intención no básica, debo
formar un plan de acción: un cierto conjunto ordenado de acciones básicas que tomo para ser un
medio eficaz de lograr mi intención no básica. El plan de acción que consiste en ir a la tienda a
comprar pan incluye los actos de recoger mis llaves y caminar hasta mi coche. un cierto conjunto
ordenado de acciones básicas que tomo para ser un medio eficaz de lograr mi intención no básica.
El plan de acción que consiste en ir a la tienda a comprar pan incluye los actos de recoger mis
llaves y caminar hasta mi coche. un cierto conjunto ordenado de acciones básicas que tomo para
ser un medio eficaz de lograr mi intención no básica. El plan de acción que consiste en ir a la
tienda a comprar pan incluye los actos de recoger mis llaves y caminar hasta mi coche. 11
En mi opinión, una acción es algo contenido totalmente dentro de los límites del agente. Por lo
tanto, estrictamente hablando, los resultados de una acción no son partes propias de esa acción.
Un resultado básico de una acción es un efecto intencionado provocado inmediatamente por la
acción. Si intento mover el dedo con éxito, el resultado básico es el movimiento del dedo. Los
resultados no básicos son efectos pretendidos más remotos causados por resultados básicos o
cadenas de resultados básicos más efectos pretendidos más remotos. El disparo del arma o el
asesinato de Lincoln son ilustraciones respectivas de este tipo de resultados no básicos.
Teniendo esto en cuenta, una explicación personal (divina o de otro tipo) de algún resultado
básico R provocado intencionalmente por la persona P, donde esta provocación de R es una
acción básica A, citará la intención I de P de que R ocurra y la El poder B que P ejerció para
producir R. P, I y B proporcionan una explicación completa de R: el agente P provocó R al ejercer
el poder B para realizar la intención I como una meta irreductiblemente teleológica. Para
ilustrarlo, suponga que estamos tratando de explicar por qué Wesson simplemente movió su
dedo (R). Podríamos explicar esto diciendo que Wesson (P) realizó un acto de esforzarse por
mover su dedo (A) en el sentido de que ejerció su capacidad para mover (o voluntad de mover)
su dedo (B) con la intención de mover el dedo (I) . Si Wesson moviendo su dedo fue una expresión
de la intención de mover un dedo para disparar un arma y matar a Smith, entonces podemos
explicar los resultados no básicos (el disparo del arma y el asesinato de Smith) diciendo que
Wesson (P) realizó un acto de matar a Smith (I3) al intentar mover su dedo (A) intencionalmente
(I1) ejerciendo su poder para hacerlo (B), con la intención de disparar el arma (I2) para matar a
Smith. Una explicación de los resultados de una acción no básica (como ir a la tienda a comprar
pan) incluirá una descripción del plan de acción.12
Explicación personal, acción divina y crítica de Grünbaum: Ahora estamos en condiciones de
discutir la explicación personal y la acción divina. 13 Los teístas difieren sobre la naturaleza
precisa de la propia actividad causal del mundo, pero quiero dejar de lado estas disputas y
concentrarme en explicar la diferencia entre los actos milagrosos causales primarios de Dios en
el mundo natural y el uso de causas secundarias por parte de Dios.14En el curso ordinario de los
eventos naturales, los patrones climáticos o las reacciones químicas, por ejemplo, Dios sostiene
las entidades naturales en existencia junto con sus propios poderes causales, pero esas entidades
tienen disposiciones causales para producir cambios por sí mismas si se ven afectadas de ciertas
maneras. En las cadenas causales ordinarias, Dios no mueve a las entidades naturales,
simplemente las sostiene. En tales casos, Dios no es directamente responsable de los cambios de
estado de cosas en las cosas, y la causación del evento, junto con un modelo de explicación de ley
que lo cubra, es apropiado, incluso si Dios emplea secuencias causales naturales para asegurar
una intención divina. Sin embargo, cuando se trata de actos milagrosos directos y causales
primarios de Dios para producir cambios en el mundo (dividir el Mar Rojo, crear el universo de
la nada, por ejemplo), Dios ejerce la agencia libertaria como causa principal. Algunos han
concebido una actividad como la de Dios, ya sea trayendo algo a la existencia ex nihilo o
proporcionando momentáneamente a las entidades naturales nuevos poderes causales
diferentes de sus poderes normales, lo que, a su vez, desencadena una reacción en cadena de
divergencia en el universo. Independientemente de la naturaleza precisa de la actividad causal
primaria Divina, sin embargo, al menos los resultados básicos de tales actos son causados por un
ejercicio de la agencia libertaria Divina y deben ser explicados por una explicación teísta
personal.
Por lo que puedo decir, la refutación de Adolf Grünbaum del empleo de Craig de la explicación
teísta personal para la singularidad inicial se reduce a cinco argumentos clave:
Apliquemos estas ideas a las críticas de Grünbaum a la causalidad del agente divino. Resulta
que sus objeciones en realidad hacen una excepción a la causalidad del agente y no a la acción
divina per se. Con respecto a la objeción (1), la noción de causalidad del agente divino no es
incoherente en absoluto. Existe una literatura bien desarrollada sobre la causalidad del agente,
así como su aplicación a la acción divina, y la mayoría de los filósofos que rechazan la causalidad
del agente no lo hacen basándose en que es incoherente. Además, la primera respuesta de Craig
a la acusación de incoherencia (el acto de Dios de causar el origen del universo fue simultáneo
con su comienzo) es bastante plausible. La voluntad de Dios (CA I-III) o su ejercicio de poder y
su voluntad (CA III) podrían tomarse como simultáneos o coincidentes con el resultado básico
de la voluntad de Dios: la creación de la singularidad inicial. AC I-III hacen inteligible la noción
de que un Dios intemporal sin creación podría producir espontáneamente la singularidad inicial.
En AC I, Dios causa atemporalmente la volición-para-crear-el-universo-en-t = 0 y esta volición es
simultánea o coincidente con la singularidad inicial. AC II describe el ejercicio del poder de Dios
como algo provocado por Dios, pero que no es en sí mismo un cambio dentro de Dios. De modo
que se vuelve inteligible suponer que Dios podría existir sin cambios y ejercer Su poder para
producir una volición para causar la-creación-del-universo-en-t = 0. Nuevamente, la volición
sería simultánea o coincidente con la singularidad inicial. Si Dios pudiera hacer esto sin cambios,
No veo ninguna razón para negar que también podría hacerlo atemporalmente porque la
temporalidad es relevante para la causalidad eficiente en gran parte porque a veces se piensa
erróneamente que un ejercicio de causalidad eficiente implica cambio, y el cambio es temporal.
En AC III, el ejercicio del poder de Dios sería simplemente el evento sin causa de que el agente
directamente provocara su voluntad para producir la singularidad inicial. Tal ejercicio no estaría,
de hecho, no podría ir precedido de un evento anterior que lo haya provocado. En este sentido,
tal ejercicio lo realiza un agente de forma espontánea. de hecho, no podría ser precedido por un
evento anterior que lo provocó. En este sentido, tal ejercicio lo realiza un agente de forma
espontánea. de hecho, no podría ser precedido por un evento anterior que lo provocó. En este
sentido, tal ejercicio lo realiza un agente de forma espontánea.
El segundo modelo de Craig (Dios existe atemporalmente y sin tensión causa la singularidad
inicial) también es plausible (dejando de lado los problemas de reconciliar este modelo con una
visión del tiempo en serie A) si dejamos de lado la teoría volitiva de la acción: un agente produce
un efecto. sin hacerlo por medio de un cambio volitivo interno dentro del agente. En AC I, Dios
podría causar eternamente desde la eternidad el-comienzo-del-universo-en-t = 0. En AC II, un
ejercicio de poder produciría la singularidad inicial, pero el ejercicio de poder no sería en sí
mismo un evento. AC III no sería aplicable al segundo modelo de Craig porque describe un
ejercicio de poder como un evento dentro del agente.
La objeción (2) también está fuera de lugar. Por un lado, la creación divina de la singularidad
inicial es precisamente análoga a los actos libertarios humanos, por ejemplo, ambos involucran
a los primeros que inician el cambio. No hay nada particularmente misterioso o inescrutable en
este último; de modo que, en ausencia de una buena razón para pensar que existe algún problema
específico con la creación Divina inicial, la acusación de inescrutabilidad es incuestionable.
Además, entendemos los ejercicios de poder principalmente a partir de la conciencia
introspectiva de nuestros propios actos libertarios, y utilizamos el concepto de acción así
derivado para ofrecer explicaciones en tercera persona del comportamiento de otras personas
humanas. No hay nada oscuro en tales explicaciones de los efectos producidos por otras personas
finitas, y no veo ninguna razón para pensar que este enfoque sea ilícito en el caso de la creación
inicial Divina. De hecho, naturalistas como John Searle, John Bishop y Thomas Nagel admiten que
nuestro concepto básico de acción en sí mismo es libertario. 23Searle llega incluso a decir que
nuestra comprensión de la causalidad de los eventos se deriva conceptualmente de nuestra
experiencia en primera persona de nuestra propia causalidad. Existe una tradición importante
en la filosofía de que la causalidad del agente es más clara y más básica que la causalidad de un
evento, y en realidad puede ser que si algún tipo de causalidad es inescrutable, sea la causalidad
del evento. Al afirmar que Dios creó la singularidad inicial, queremos decir que (1) no hubo
suficiente antecedente causal para la singularidad inicial (temporal o de otro tipo) aparte de (i)
Dios causó directamente la singularidad inicial sin hacer algo primero (AC I) o (ii) un ejercicio
del poder Divino para producir la singularidad inicial (CA II o III); (2) en un acto libertario básico,
Dios provocó libre y espontáneamente una voluntad que causó t = 0 como resultado básico.
La objeción (3) también está fuera de lugar. Un acto libertario básico que produce un resultado
básico no tiene vínculos causales intermedios entre el acto y el resultado. El resultado básico se
produce directamente. Además, el tipo de explicación personal que acompaña a las acciones
libertarias básicas y los resultados básicos no emplea vínculos causales intermedios en sus
explicaciones. Como vimos anteriormente, los ejemplos de este tipo de explicación hacen
referencia al agente mismo, la intención del agente y el poder básico ejercido. Dado que los
teístas describen la creación de la singularidad inicial como un acto Divino básico en el que un
Primer Motor provocó la iniciación del cambio, dando como resultado la singularidad inicial
como resultado básico, no existe un intermediario causal.
En filosofía de la ciencia, se reconoce ampliamente que, dados dos paradigmas en competencia,
a veces un rival considerará un fenómeno básico y que no necesita una solución, empírica o de
otro tipo. Por lo tanto, puede rechazar preguntas sobre cómo o por qué ocurre ese fenómeno y,
por lo tanto, difícilmente se puede culpar por no ser fructífero al sugerir líneas de investigación
empírica para procesos causales cuya existencia no postula la teoría. Como ha señalado Nicholas
Rescher,
[u] na manera en que un conjunto de conocimientos S puede abordar una pregunta es, por
supuesto, respondiéndola. Sin embargo, otra forma diferente e importante en la que S puede
abordar una pregunta es rechazándola. S rechaza [Q] cuando hay alguna presuposición de Q
que S no aprueba: dado S, simplemente no estamos en posición de elevar Q. 24
No sólo no es un vicio que una explicación personal teísta no cite un proceso causal intermedio;
también es una virtud que la explicación teísta no requiere tal proceso causal. Lo que sea que
haya causado t = 0 no podría haberlo hecho por medio de un proceso causal temporal intermedio
del tipo que Grünbaum anuncia como una virtud de la explicación científica, ya que t = 0 es el
primer evento o el límite inicial a partir del cual se derivan los eventos. De cualquier manera, no
hay eventos antes de t = 0 y, por lo tanto, una explicación causal del evento que cita un proceso
causal que conduce a t = 0 está fuera de discusión. Así, el modelo teísta es superior al modelo
científico de Grünbaum como explicación de la singularidad inicial porque el primero evita pero
el segundo requiere un vínculo causal intermedio.
En mi opinión, esta tercera objeción no es más que una afirmación que plantea preguntas de
que si las explicaciones causales del agente no se ajustan a las ofrecidas por las explicaciones
causales del evento, entonces las primeras son inferiores como estrategias explicativas
generales. Así entendida, la tercera objeción de Grünbaum no está realmente dirigida
principalmente a una explicación teísta. En cambio, es un ataque a la agencia libertaria y el tipo
de explicación asociada con ella. Parecería, entonces, que esta tercera objeción no es muy
impresionante. Algunos filósofos pueden pensar que los modelos compatibilistas de libertad son
preferibles a los modelos libertarios,
Con respecto a (4), hasta donde sabemos, solo los agentes conscientes se esfuerzan o quieren
algo. Entonces, incluso si es lógicamente posible que la Primera Causa no fuera consciente, no es
epistémicamente posible a la luz de lo que sabemos sobre los tipos de agentes que son capaces
de una acción libertaria. Si el origen del universo espacio-temporal no debe tomarse como un
hecho bruto, entonces, como hemos visto, la teoría de la agencia libertaria divina proporciona
una explicación para la singularidad inicial y las explicaciones causales del evento no pueden
proporcionar tal explicación. Ahora, no conozco ningún ejemplo de un agente libertario
esforzado que no fuera consciente. Grünbaum debe hacer algo más que afirmar la mera
posibilidad lógica de que la Primera Causa no fuera consciente. Debe demostrar que es
epistémicamente plausible pensar que tal agente podría ejercer un poder y hacer que la
singularidad inicial se materialice y, sin embargo, no sea consciente. Y este Grünbaum no lo ha
hecho.
Además, John Bishop ha argumentado que dada la naturaleza del naturalismo científico
contemporáneo, “la idea de un agente responsable, con la capacidad 'originaria' de iniciar
eventos en el mundo natural, no encaja fácilmente con la idea de [un agente como] un organismo
natural ".25En otra parte, Bishop señala que “. . . el problema de la agencia natural es un problema
ontológico, un problema sobre si la existencia de acciones puede admitirse dentro de una
perspectiva científica natural. . . . [A] gentes relaciones causales no pertenecen a la ontología de
la perspectiva natural. El naturalismo no emplea esencialmente el concepto de una relación
causal cuyo primer miembro está en la categoría de persona o agente (o incluso, para el caso, en
la categoría más amplia de continuante o "sustancia"). Todas las relaciones causales naturales
tienen primeros miembros en la categoría de evento o estado de cosas ". 26 Si admitimos que los
objetos abstractos no tienen poderes causales eficientes, entonces las observaciones de Bishop,
si son correctas, parecerían implicar que la causa eficiente de la singularidad inicial no es sólo
consciente, sino también sobrenatural.
Finalmente, a la luz de lo que hemos visto en nuestro análisis de la agencia libertaria y la
explicación personal, la objeción (5) es simplemente falsa o suplica. Los agentes provocan sus
propios ejercicios de poder y, en virtud de nuestro análisis del CA II, estos pueden
razonablemente tomarse como no eventos. Dado AC II, la afirmación de Grünbaum de que solo
los eventos pueden calificar como efectos momentáneos de otros eventos o acciones de agentes
no es correcta. Además, en las acciones no básicas, los agentes son los primeros que generan una
cadena de eventos. Si consideramos que un ejercicio de poder o una voluntad es el primer evento
en tal cadena, el agente provocó este evento. Sin embargo, si consideramos que una acción no
básica es el inicio de una secuencia causal temporal a seguir, de modo que el ejercicio de poder
/ volición forma un límite inicial para esa secuencia, el agente aún provocó el ejercicio del poder
/ volición. En la medida en que los agentes libertarios son los primeros en moverse, cuando
realizan acciones no básicas, la secuencia causal de eventos provocados por tales agentes tiene
un límite inicial de una manera exactamente análoga al origen del universo espacio-temporal. En
el caso de las acciones no básicas libertarias normales, el agente provoca el límite temporal inicial
de la secuencia de eventos, así como el resto de la cadena subsiguiente. En principio, entonces,
no hay ninguna dificultad con la idea de que un agente libertario Divino provoque t = 0, así como
el resto de los eventos que siguen. Entonces, incluso si admitimos que t = 0 no es un evento, la
teoría de la acción libertaria tiene los recursos para permitir que podría ser un efecto de un acto
creativo libre, Divino. En la medida en que los agentes libertarios son los primeros en moverse,
cuando realizan acciones no básicas, la secuencia causal de eventos provocados por tales agentes
tiene un límite inicial de una manera exactamente análoga al origen del universo espacio-
temporal. En el caso de las acciones no básicas libertarias normales, el agente provoca el límite
temporal inicial de la secuencia de eventos, así como el resto de la cadena subsiguiente. En
principio, entonces, no hay ninguna dificultad con la idea de que un agente libertario Divino
provoque t = 0, así como el resto de los eventos que siguen. Entonces, incluso si admitimos que t
= 0 no es un evento, la teoría de la acción libertaria tiene los recursos para permitir que podría
ser un efecto de un acto creativo libre, Divino. En la medida en que los agentes libertarios son los
primeros en moverse, cuando realizan acciones no básicas, la secuencia causal de eventos
provocados por tales agentes tiene un límite inicial de una manera exactamente análoga al origen
del universo espacio-temporal. En el caso de las acciones no básicas libertarias normales, el
agente provoca el límite temporal inicial de la secuencia de eventos, así como el resto de la
cadena subsiguiente. En principio, entonces, no hay ninguna dificultad con la idea de que un
agente libertario Divino provoque t = 0, así como el resto de los eventos que siguen. Entonces,
incluso si admitimos que t = 0 no es un evento, la teoría de la acción libertaria tiene los recursos
para permitir que podría ser un efecto de un acto creativo libre, Divino. la secuencia causal de
eventos provocados por tales agentes tiene un límite inicial de una manera exactamente análoga
al origen del universo espacio-temporal. En el caso de las acciones no básicas libertarias
normales, el agente provoca el límite temporal inicial de la secuencia de eventos, así como el
resto de la cadena subsiguiente. En principio, entonces, no hay ninguna dificultad con la idea de
que un agente libertario Divino provoque t = 0, así como el resto de los eventos que siguen.
Entonces, incluso si admitimos que t = 0 no es un evento, la teoría de la acción libertaria tiene los
recursos para permitir que podría ser un efecto de un acto creativo libre, Divino. la secuencia
causal de eventos provocados por tales agentes tiene un límite inicial de una manera
exactamente análoga al origen del universo espacio-temporal. En el caso de las acciones no
básicas libertarias normales, el agente provoca el límite temporal inicial de la secuencia de
eventos, así como el resto de la cadena subsiguiente. En principio, entonces, no hay ninguna
dificultad con la idea de que un agente libertario Divino provoque t = 0, así como el resto de los
eventos que siguen. Entonces, incluso si admitimos que t = 0 no es un evento, la teoría de la acción
libertaria tiene los recursos para permitir que podría ser un efecto de un acto creativo libre,
Divino. el agente provoca el límite temporal inicial de la secuencia de eventos, así como el resto
de la cadena subsiguiente. En principio, entonces, no hay ninguna dificultad con la idea de que
un agente libertario Divino provoque t = 0, así como el resto de los eventos que siguen. Entonces,
incluso si admitimos que t = 0 no es un evento, la teoría de la acción libertaria tiene los recursos
para permitir que podría ser un efecto de un acto creativo libre, Divino. el agente provoca el
límite temporal inicial de la secuencia de eventos, así como el resto de la cadena subsiguiente. En
principio, entonces, no hay ninguna dificultad con la idea de que un agente libertario Divino
provoque t = 0, así como el resto de los eventos que siguen. Entonces, incluso si admitimos que t
= 0 no es un evento, la teoría de la acción libertaria tiene los recursos para permitir que podría
ser un efecto de un acto creativo, libre y divino.
En resumen, en su intercambio sobre la adecuación de la explicación teísta personal para la
singularidad inicial, ni Craig ni Grünbaum aclaran la naturaleza de la agencia libertaria y la
causación del agente para arrojar luz sobre su intercambio. He tratado de hacer avanzar este
debate haciendo precisamente eso. Por lo que hemos visto, independientemente de la opinión
que uno tenga sobre la idoneidad del argumento cosmológico kalām en general, los argumentos
de Grünbaum contra el empleo de Craig de la explicación teísta personal no logran ser
persuasivos.
NOTAS
1William Lane Craig, “El origen y la creación del universo: una respuesta a Adolf Grünbaum”, British Journal for the Philosophy
of Science 43 (1992): 233–40; “Cosmología y cosmología del Big Bang”, Philosophia naturalis 31 (1994): 217–24; "Profe.
Grünbaum sobre la creación ”, Erkenntnis 40 (1994): 325–41; “Una respuesta a Grünbaum sobre la creación y la cosmología
del Big Bang”, Philosophia naturalis 31 (1994): 237–49; Adolf Grünbaum, "El pseudo-problema de la creación en cosmología
física", Filosofía de la ciencia 56 (1989): 373-94; "La creación como una pseudoexplicación en la cosmología física actual",
Erkenntnis 35 (1991): 233–54; “Algunos comentarios sobre 'Creación y cosmología del Big Bang' de William Craig”,
Philosophia naturalis 31 (1994): 225–36.
2 Asumo aquí que no existe un tiempo metafísico anterior al tiempo físico.
3Si la singularidad inicial se toma como un evento, entonces la causa del evento sería simultánea con la singularidad inicial en
el sentido de ser al mismo tiempo que la singularidad. Si la singularidad inicial se toma como un límite de tiempo, entonces la
causa, estrictamente hablando, no sería un evento (en cuyo caso, la causalidad del evento no sería aplicable), pero aún podría
ocurrir de manera coincidente en que tanto la causa como el efecto ocurren en t = 0. Para obtener más información sobre esto,
consulte William Lane Craig, "Creation and Big Bang Cosmology", Philosophia naturalis 31 (1994): 222.
4 Craig, "Cosmología y cosmología del Big Bang", pág. 219.
5Esto no es del todo correcto porque, a veces, un agente realiza una acción intencional simplemente permitiendo que ocurra
una determinada secuencia de eventos. Aquí, un agente da una especie de permiso pasivo y no hace nada para detener una
secuencia de eventos que cumplen la intención del agente. El agente se abstiene de esforzarse.
6Timothy O'Connor sostiene que el elemento primitivo y central de nuestro concepto de causalidad es el de la "producción" o
"provocación" de un efecto. Véase Timothy O'Connor, “Agent Causation”, en Agents, Causes, & Events, ed. por Timothy
O'Connor (Nueva York: Oxford University Press, 1995), 175–78. Para O'Connor, este elemento central es un género en el que
el agente y la causa del evento son especies distintas. Mi afirmación de que el poder activo es epistémicamente primitivo es
coherente con la afirmación de O'Connor en este sentido. A través de la conciencia introspectiva de mis propios actos libres,
soy consciente de mi propio poder activo. Reflexionando, puedo formar un concepto de poder activo. Reflexionando sobre el
concepto de poder activo, puedo formar un concepto de producción causal per se eliminando de mi concepto de poder activo
el componente de poder abstenerse.
7Roderick M. Chisholm, "El agente como causa", en Action Theory, ed. por Myles Brand y Douglas Walton (Dordrecht, Holanda:
D. Reidel, 1976), 199.
8Marilyn McCord Adams, "El problema del infierno: un problema del mal para los cristianos", en Fe razonada, ed. Eleonore
Stump (Ithaca: Cornell University Press, 1993), 313.
9Stewart C. Goetz, "Una teoría no causal de la agencia", Filosofía e investigación fenomenológica 49 (1988): 311; ver también
su “Libertarian Choice”, Faith and Philosophy (de próxima publicación). Compárese con Alan Donagan, Choice: The Essential
Element in Human Action (Nueva York: Routledge & Kegan Paul, 1989); Richard Taylor, Acción y propósito (Englewood Cliffs,
Nueva Jersey: Prentice-Hall, 1966).
10Cf. Randolph Clarke, “Toward a Creible Agent-Causal Account of Free Will”, Noûs 27 (1993): 191–203.
11Existe cierto debate sobre si cada una de estas acciones básicas requiere su propia intención. Richard Swinburne sostiene
que al realizar acciones que toman mucho tiempo (escribir un capítulo), no ejercemos una voluntad separada para cada
acción intencional (por ejemplo, querer escribir la primera oración) que es parte del acto a largo plazo. Más bien, solo
pretendemos producir el efecto a largo plazo provocando una serie de eventos generalmente concebidos y el cuerpo
selecciona inconscientemente una rutina particular para lograr ese efecto. Véase Richard Swinburne, The Evolution of the
Soul (Oxford: Clarendon Press, 1986), 94–95. Dejo el asunto abierto, excepto para señalar que en la medida en que una acción
no básica contenga subactos de naturaleza discontinua (recoger las llaves, subir a un automóvil frente a una serie de pasos
para dar una caminata de una hora),
12 Así, vemos que hay al menos tres tipos de acciones intencionales: acciones básicas con una intención básica (simplemente
mover mi dedo intencionalmente), acciones básicas con intenciones no básicas (intenciones últimas que tienen otras
intenciones como medios, por ejemplo, intencionalmente apretar mi dedo para disparar un arma y matar a Smith), y acciones
no básicas (aquellas que contienen subactos, subesfuerzos e intenciones, como partes, por ejemplo, ir a la tienda a comprar
pan).
13 Para obtener excelentes tratamientos de la acción divina relevantes para este artículo, véanse los capítulos de Jonathan
L.Kvanvig y Hugh J. McCann, Philip L. Quinn, Peter van Inwagen y William P. Alston en Divine & Human Action: Essays in the
Metaphysics of Teísmo (Ithaca, NY: Cornell University Press, 1988).
14Los puntos de vista principales de la actividad causal del mundo en relación con la de Dios son el punto de vista de la
causalidad secundaria completa (Dios sostiene el mundo en existencia, pero en el curso normal de las cosas, las entidades
del mundo ejercen sus propios poderes causales y tales esfuerzos son suficientes para producir cambios en el mundo),
ocasionalismo (no hay poderes causales autónomos y distintos que posean los objetos creados; Dios es la única causa
verdadera y las entidades naturales no provocan ningún efecto en la naturaleza), y concurrencia (cada causa de evento tiene
a Dios colaborando con la entidad causal natural, cooperando con su actividad causal ratificando esa actividad). Mi propia
opinión es la primera posición.
15Grünbaum, "La creación como una pseudoexplicación en la cosmología física actual", 244. Cf. “Algunos comentarios sobre
'Creación y cosmología del Big Bang' de William Craig”, págs. 231–35.
dieciséis Grünbaum, "La creación como una pseudoexplicación en la cosmología física actual", 239.
17 Ibíd., 235.
18 Ibíd., 235. En la misma página, Grünbaum confiesa: "Yo, por mi parte, me quedo en blanco cuando me dicen que Dios creó
los fotones".
19 Ibíd., 234–35.
20Grünbaum, "El pseudo-problema de la creación en cosmología física". Compárese con William Lane Craig, “El origen y la
creación del universo: una respuesta a Adolf Grünbaum”, British Journal for the Philosophy of Science 43 (1992): 233–35.
21 Grünbaum, “Algunos comentarios sobre 'Creación y cosmología del Big Bang' de William Craig”, 237.
22 William Rowe, Thomas Reid sobre la libertad y la mortalidad (Ithaca, NY: Cornell University Press, 1991), 30–40, 145–61.
23En Searle, Minds, Brains and Science (Cambridge, Mass .: Harvard University Press, 1984), 98; John Bishop, Agencia Natural
(Cambridge: Cambridge University Press, 1989), 58, 69, 72, 95–96, 103–104, 126–127, 140–141, 144; Thomas Nagel, The
View From Nowhere (Nueva York: Oxford University Press, 1986), 110–37.
24 Nicholas Rescher, Los límites de la ciencia (Berkeley: University of California Press, 1984), 22.
25 Agencia natural, 1. La propia solución de Bishop evita la agencia libertaria a favor de una versión de la teoría causal de la
acción.
26Ibíd., 40. Una implicación interesante del punto de vista de Bishop es que el naturalismo no puede permitir que haya un
primer evento en el sentido absoluto de no estar precedido por otros eventos porque todos los eventos son causados por
eventos anteriores o simplemente no son causados. En el último caso, la llegada del evento no puede ser “natural” ya que es
solo un hecho bruto. En el primer caso, esto significa que si el argumento cosmológico de kalām es correcto y hubo un
comienzo para el universo, entonces el comienzo en sí no fue un evento natural ni fue su causa si tuvo uno. Para obtener más
información sobre esto, consulte William Lane Craig y Quentin Smith, Theism, Atheism, and Big Bang Cosmology (Oxford:
Clarendon, 1993).
10
La causalidad y la imposibilidad lógica de una causa
divina1
Quentin Smith
1. Introducción
Se arroja alguna luz interesante sobre la naturaleza de la causalidad, el origen del universo y los
argumentos a favor del ateísmo si abordamos la pregunta: ¿Es lógicamente posible que el
universo tenga una causa divina originaria?
Creo que prácticamente todos los teístas, agnósticos y ateos contemporáneos creen que esto
es lógicamente posible. De hecho, la principal tradición filosófica desde Platón hasta el presente
ha asumido que la oración "Dios es la causa originaria del universo" no expresa una
contradicción lógica, aunque muchos filósofos han argumentado que esta oración es sintética y
sin sentido (por ejemplo, los positivistas lógicos), o afirma una falsedad sintética y a priori (por
ejemplo, Kant y Moore), o afirma una falsedad sintética y a posteriori (por ejemplo, los
defensores contemporáneos del argumento probabilístico del mal).
Creo que la prevalencia de esta suposición se debe al hecho de que los filósofos no han
emprendido el tipo de investigación metafísica necesaria sobre la naturaleza de la causalidad.
Esta investigación es el propósito de este artículo; específicamente, argumentaré que la tesis de
que el universo tiene una causa divina originaria es lógicamente inconsistente con todas las
definiciones existentes de causalidad y con un requisito lógico sobre estas y todas las posibles
definiciones o teorías de causalidad válidas. Concluiré que los argumentos cosmológicos y
teleológicos a favor de una causa del universo pueden tener cierta fuerza, pero que estos
argumentos, tradicionalmente entendidos como argumentos a favor de la existencia de Dios, son
de hecho argumentos a favor de la inexistencia de Dios.
La definición de Hume incluye tres condiciones para ser causa: prioridad temporal, contigüidad
espacio-temporal y relación nomológica (“todo objeto como la causa produce siempre algún
objeto como el efecto”).
También se puede permitir una ley probabilística L, en cuyo caso "ser deducido de" sería
reemplazado por "ser apoyado inductivamente por".
Sin embargo, la condición nomológica para ser una causa es lógicamente inconsistente con una
causa divina del Big Bang, ya que Dios por definición es un ser sobrenatural y sus acciones no
están gobernadas por leyes de la naturaleza. Además, el hecho de que la voluntad de Dios sea
omnipotente hace que “el big bang ocurra” sea deducible de “Dios quiere que ocurra el big bang”
solo, sin necesidad de ninguna premisa nomológica suplementaria, lo que viola la condición de
que una premisa nomológica es una lógica necesaria. condición para la derivación de la
conclusión de que el efecto existe a partir de premisas, una de las cuales es que ocurre el evento
causal.
En este punto, ya hemos descartado prácticamente todas las definiciones existentes de
causalidad, ya que la mayoría de las definiciones incluyen la condición de contigüidad espacio-
temporal o la condición nomológica. Nos quedamos con definiciones de causalidad de no
contigüidad y singularistas.
Una definición de no contigüidad no menciona la contigüidad espacio-temporal y no requiere
que la causa sea temporal y espacialmente contigua al efecto; Las variantes de las definiciones
de no contigüidad pueden permitir actos divinos atemporales y / o actos divinos temporales que
no están espacialmente cerca o en contacto con el efecto. Una definición singularista permite que
un evento cause un efecto en un solo caso, sin que la causa y el efecto necesiten instanciar alguna
ley. Sin embargo, las formulaciones existentes que son singularistas y / o definiciones de no
contigüidad son pocas y distantes entre sí y resultan problemáticas para un defensor de la
posibilidad lógica de una causa divina originaria.
Dado que la condición nomológica se rechaza explícitamente, parece que esta definición se aplica
a la voluntad de Dios de que ocurra el Big Bang.
Sin embargo, una inspección más profunda de la definición de Ducasse muestra que no se
aplica, ya que su definición requiere contigüidad espacio-temporal. Ducasse afirma que la causa
c es una condición suficiente del efecto e y que c es suficiente para e si (i) c es un cambio que
ocurrió durante un tiempo y en todo un espacio que termina en un instante i en una superficie s
de un objeto ; (ii) el cambio e ocurrió durante un tiempo ya través de un espacio comenzando en
el instante i en la superficie s; (iii) ningún cambio que no sea c ocurrió durante el tiempo y a
través del espacio de c; y (iv) ningún cambio que no sea e ocurrió durante el tiempo y durante el
espacio de e.6Por lo tanto, la explicación de Ducasse cumple con el criterio singularista pero no
con el criterio de no contigüidad. (Aunque Ducasse llama a su relato una "definición" de una
causa, es solo una definición parcial, ya que comienza su definición con "si", no "si y solo si").
(1) Para dos eventos o estados particulares cualesquiera xey, si x es una condición
lógicamente suficiente de y, entonces x no es una causa de y.
Por ejemplo, el hecho de que un cuerpo esté en movimiento es una condición lógicamente
suficiente del espacio que ocupa el cuerpo, pero el hecho de que el cuerpo esté en movimiento
no es la causa de la ocupación del espacio por parte del cuerpo. Sin embargo, la voluntad de Dios
de que ocurra el big bang es una condición lógicamente suficiente del big bang, porque las
proposiciones expresadas por “Dios quiere que ocurra el big bang” y “el big bang no ocurra” son
lógicamente incompatibles. La razón de esto es que Dios es omnipotente y, por lo tanto, su
voluntad siempre tiene éxito (por necesidad lógica); si un ser omnipotente x quiere que e y e no
ocurran, entonces x no es omnipotente, lo cual es una contradicción. (Dios puede hacer todo lo
que es lógicamente posible; Dios no puede crear una piedra que sea demasiado pesada para que
él la levante, pero crear una piedra así no es una posibilidad lógica.
Las variables en la proposición (1) varían sobre eventos o estados particulares; no abarcan
eventos particulares tomados junto con leyes de la naturaleza o generalizaciones universales
bajo las cuales se subsumen los particulares. Como hemos visto, las definiciones nomológicas de
causalidad determinista implican que un evento c particular, junto con una ley de la naturaleza,
necesita lógicamente el evento e que es el efecto. El sol brilla sobre una piedra, junto con la ley
de que todo lo que se ilumina se calienta, lógicamente requiere que la piedra se caliente. La
Proposición (1), sin embargo, implica solo que el sol brillando sobre la piedra no requiere
lógicamente que la piedra sea calentada. El sol brillando sobre la piedra es una condición no
lógicamente suficiente para que la piedra esté caliente (es nomológicamente suficiente,
Se pueden hacer dos objeciones a mi argumento de que las voliciones divinas son condiciones
lógicamente suficientes y, por lo tanto, no son causas.
Objeción 1.Se puede objetar que toda causa puede describirse de una manera que implica
lógicamente la ocurrencia de su efecto y, por lo tanto, que las voliciones divinas no son distintas
de las causas. Por ejemplo, la causa de la explosión que quemó la casa lógicamente necesita su
efecto el incendio de la casa, ya que es una contradicción lógica afirmar que “hay una explosión
que quemó la casa y sin embargo no hay evento de la casa en llamas ".
Pero esta objeción es falaz ya que “la explosión que quemó la casa” no se refiere meramente a
la causa sino que también se refiere al efecto. Una descripción definida que se refiere meramente
al evento causal puede satisfacerse consistentemente con la no ocurrencia del efecto; por
ejemplo, la descripción definitiva "la explosión que ocurrió en la casa" puede satisfacerse
consistentemente con la insatisfacción de "el incendio de la casa".
La falacia de esta objeción puede explicarse con mayor precisión en términos de contextos
referencialmente transparentes y referencialmente opacos. La descripción definitiva “la
explosión que resultó en el incendio de la casa” es un contexto referencialmente transparente;
esto implica que “el incendio de la casa” ocupa un lugar en “la explosión que resultó en el incendio
de la casa” que está abierto a sustitución y cuantificación. Una descripción de la forma "la
explosión que resultó en la F" permite que las expresiones de correferencia sean sustituidas por
"la F", y si se satisface una descripción de esta forma, se deduce que hay una F. Dado que la
descripción del efecto , "La F", ocurre en un contexto referencialmente transparente, "la
explosión que resultó en la F" se refiere tanto a la causa como al efecto.
Por el contrario, la descripción definida "la voluntad divina de que ocurra el Big Bang" es un
contexto referencialmente opaco y se refiere simplemente a la voluntad divina. Esta descripción
es referencialmente opaca ya que es una construcción de actitud proposicional, y las posiciones
dentro de las construcciones de actitud no están abiertas a sustitución y
cuantificación.18Específicamente, una descripción definida de la forma "la voluntad por x de que
ocurra la F" no permite sustituciones de expresiones de correferencia por "la F", y "la F" no está
abierta a la cuantificación. Esto implica que si se satisface una descripción de la forma "la
voluntad por x de que ocurra la F", no se sigue que haya una F. Dado que la descripción del efecto,
"la F", ocurre en un contexto opaco, “La voluntad por x de que ocurra la F” se refiere solo a la
causa.
Dada esta distinción, podemos decir que una descripción definida D de una causa también se
refiere al efecto si y solo si D incluye un término para el efecto que está abierto a sustitución y
cuantificación. Una descripción definida D ¢ de una causa no se refiere al efecto si y sólo si D ¢ no
contiene un término para el efecto o contiene un término para el efecto en un contexto opaco.
Esto nos permite enunciar nuestro principio (1) sobre causas y condiciones lógicamente
suficientes en términos semánticos: La satisfacción de una descripción definida D de una causa
implica lógicamente la existencia del efecto si y sólo si D incluye un término para el efecto en un
contexto referencialmente transparente. Dado que la satisfacción de la descripción definida "la
voluntad divina de que ocurra el big bang" implica lógicamente que el big bang ocurre, a pesar
de que "el big bang" no ocurre en un contexto referencialmente transparente, se deduce que esta
descripción no ocurre referirse a una causa.
La razón por la que la satisfacción de la descripción "la voluntad divina de que ocurra el big
bang" implica que hay un big bang no se debe a la forma lógica de la descripción (la forma es
opaca) sino al contenido de la descripción . Este contenido se distingue porque hace que los
condicionales relevantes sobre la voluntad divina y el big bang sean verdades lógicas. La
expresión “un ser omnipotente” significa, en parte, un ser cuyos actos de voluntad
necesariamente actualizarán lo que se desea. Así, la oración "si un ser omnipotente desea que se
actualice el big bang, entonces el big bang se actualiza" expresa la misma proposición que la
oración "si un ser omnipotente, cuyos actos de voluntad necesariamente actualizarán lo que se
desea, desea que el el big bang se actualiza, luego el big bang se actualiza ”, lo cual es una verdad
de la lógica.
El principio (1) sobre causas y condiciones lógicamente suficientes implica que ningún
condicional causal es un teorema lógico, donde un condicional causal tiene la forma "si c ocurre,
entonces e ocurre" y las sustituciones de "c" son expresiones que se refieren a la causa y no
incluya un término para el efecto en un contexto referencialmente transparente.
Estas reformulaciones del principio (1) en términos semánticos y lógicos son suficientes para
refutar la primera objeción a mi argumento de que la voluntad divina no es una causa, la objeción
de que “para cada causa cy efecto e, hay alguna descripción de c que lógicamente implica la
existencia de e. "
Objeción 2.La primera objeción a mi argumento sobre las causas y las condiciones lógicamente
suficientes fue que las voliciones divinas no son únicas, ya que cada causa puede describirse de
una manera que lógicamente implica el efecto. Una segunda objeción es que hay alguna
descripción de la voluntad de Dios de que ocurra el big bang que no implica lógicamente que el
big bang ocurra, y por lo tanto (por esta razón diferente) las voliciones divinas no son diferentes
a las causas. La descripción "el querer que tiene por objetivo la actualización del big bang" puede
utilizarse como una descripción definitiva de la volición divina relevante y, sin embargo, "se
produce el querer que tiene por objetivo la actualización del big bang, pero la el big bang no se
actualiza ”no es una contradicción lógica. De ello se desprende (prosigue la objeción) que la
voluntad de Dios no necesita ser considerada como una condición lógicamente suficiente del Big
Bang. El objetor puede argumentar que la existencia de tales descripciones implica que si una
volición divina necesita o no lógicamente la existencia de su objeto volitivo no es un hecho sobre
la voluntad divina misma, sino que es relativo a cómo se describe la volición.
Pero esta objeción es inválida, ya que la existencia de una descripción de la voluntad divina
que no implica lógicamente que ocurra el big bang es consistente con que la voluntad divina
necesariamente posea la propiedad relacional de estar unida a la ocurrencia del big bang. Esta
consistencia es un ejemplo del principio más general de que “algo que necesariamente posee una
cierta propiedad F puede describirse mediante una descripción definida D que no incluya F entre
sus condiciones descriptivas, y D no implicará que todo lo que satisfaga D necesariamente posea
F . " Por ejemplo, el número 9 necesariamente posee rareza y se describe por "el número de
planetas en nuestro sistema solar"; pero dado que "el número de planetas en nuestro sistema
solar" no incluye la rareza entre sus condiciones descriptivas,
Estas respuestas a las dos objeciones ayudan a justificar mi afirmación de que la proposición
(1) Para dos eventos o estados particulares cualesquiera xey, si x es una condición
lógicamente suficiente de y, entonces x no es una causa de y
ambos son verdaderos e impiden que las voliciones divinas sean causas.
Por lo tanto, podemos estar de acuerdo con Sosa en que la causalidad se puede clasificar con
otras relaciones que producen resultados, como la necesidad lógica de una propiedad F por otra
propiedad G, como un tipo de relación que produce resultados, pero al mismo tiempo podemos
distinguir causalidad de estas otras relaciones no causales que producen resultados.
En segundo lugar, la teoría de la inefabilidad no tiene justificación para afirmar que existe esta
propiedad X. La teoría de la inefabilidad no menciona ningún dato que se utilice para explicar la
postulación de la propiedad X, y no introduce premisas a partir de las cuales se deduzca la
presencia de la propiedad X. La única justificación aparente podría ser que uno ha tenido una
experiencia mística y ha "contemplado" directamente el R-de Dios en el big bang y
"contemplado" la propiedad X de este R-ing, pero que al informar de esta intuición, uno se dio
cuenta de que no hay palabras adecuadas y literalmente usadas que puedan describir esta
propiedad X. Sin embargo, si la teoría de que Dios metafóricamente causa la existencia del
universo no es más que dichos oscuros sobre lo que se "contempla" en una experiencia mística
inefable, entonces esta no es una teoría basada en la razón natural, sino que es un vuelo hacia el
misticismo y las liberaciones de la "razón sobrenatural". No tendría ningún interés para un
filósofo que intenta construir una cosmovisión basada en la razón natural.
En tercer lugar, la mejor explicación de los orígenes de la "intuición" de que Dios provoca
metafóricamente el big bang, y no es simplemente una condición lógicamente suficiente del big
bang, no implica que esta intuición sea cierta. El origen de esta "intuición" es la larga y
omnipresente tradición (en filosofía, religión y "lenguaje ordinario") de usar palabras causales -
"causas", "crea", "voluntades", etc. - para describir la relación de Dios con el comienzo del
universo. Las asociaciones psicológicas producidas por la adopción de esta tradición lingüística
dan lugar a la "intuición" de que debe haber una propiedad X de la relación de Dios con el big
bang que fundamenta el uso metafórico de "causas".
Hay diferencias entre (por ejemplo) la relación del color naranja y la relación R de Dios con el
Big Bang, pero ninguna es de tipo causal. El naranja es una especie de color, pero la relación de
Dios con el Big Bang no es una especie de Big Bang. Además, la orangeness es una propiedad
monádica de la misma cosa de la cual ser coloreado es una propiedad, pero la propiedad R es
poliádica e interconecta diferentes objetos. En tercer lugar, ser naranja y ser coloreado son
propiedades físicas, mientras que la relación divina es una propiedad mental y ser el Big Bang es
una propiedad física.
También podemos especificar características formales de la relación R: es asimétrica,
transitiva e irreflexiva, pero muchas relaciones no causales también poseen estas características
formales.
Segunda objeción
El teísta, agnóstico o ateo que cree que es lógicamente inteligible decir que Dios es una causa
originaria del universo puede tomar al toro por los cuernos y afirmar arrogantemente que Dios,
siendo una condición lógicamente suficiente del Big Bang, es un contraejemplo de la definiciones
existentes de causalidad discutidas en la parte 2, que muestran que estas definiciones son
incorrectas, y que también es un contraejemplo válido de mi principio (1) que establece que las
causas no son condiciones lógicamente suficientes. El objetor proclama: “Toda contigüidad real
y posible o definiciones nomológicas de causalidad son falsas. La definición correcta es una
definición de no contigüidad y singularista que permite que algunas relaciones causales sean
relaciones lógicas ".
El problema con esta "objeción arrogante" es que no hay justificación aparente, aparte de los
supuestos actos de causalidad de Dios, para la creencia de que existe una definición correcta de
causalidad que no es contigua, singularista y permite relaciones lógicas. Pero estos actos de Dios
son precisamente los eventos cuya naturaleza causal está en disputa. Asumir, frente a los
argumentos que he dado, que estos actos son relaciones causales es una respuesta que suscita
preguntas. Para demostrar que la relación divina relevante es una relación causal, debemos tener
una razón lógicamente independiente para creer que existe alguna definición correcta de
causalidad que la relación divina R satisface. Pero no existe tal razón. Considere el argumento:
(2) Hay una razón suficiente para creer que existe una definición correcta de causalidad que
es singularista, no contigua y permite relaciones lógicas.
Por lo tanto,
Tercera objeción
Se puede argumentar que una definición disyuntiva puede resolver el problema. Supongamos
que tenemos esta definición disyuntiva de causalidad: c es una causa de e si y solo si c es una
condición lógicamente suficiente de e o c no es una condición lógicamente suficiente de e y, en
cambio, satisface (digamos) las condiciones humeanas.
Un problema con esta definición disyuntiva es que clasifica que el sol sea naranja como una
causa del color del sol. Así que no funciona por esta razón, así como por las otras razones
mencionadas en mi discusión de la explicación de la causalidad de Sosa.
Incluso si agregamos una condición de prioridad temporal, esta definición disyuntiva no
funcionará. Podemos decir: c es una causa de e si y solo si c es una condición lógicamente
suficiente de e y temporalmente anterior a e o c no es una condición lógicamente suficiente de e
y satisface (digamos) las condiciones de Hume. Sin embargo, la primera disyunción se satisface
con muchos elementos que no son causas. El hecho de que Juan sea un organismo vivo (o el hecho
de que Juan esté encarnado en un cuerpo mortal en el tiempo t) es temporal y es una condición
lógicamente suficiente de que Juan esté muerto, pero que Juan sea un organismo vivo (o que Juan
esté encarnado en un cuerpo mortal en el tiempo t) no es la causa de su muerte. Su muerte es
causada, digamos, por un automóvil que lo golpeó cuando cruzaba la calle. El concepto expresado
por "es un organismo vivo" incluye analíticamente el concepto expresado por "es mortal,
Supongamos que nos volvemos aún más específicos y decimos en su lugar: c es una causa de e
si y solo si c es la posición de Dios en la relación R con e o c no es una condición lógicamente
suficiente de e y satisface (digamos) las condiciones de Hume. Pero este intento de producir una
definición satisfactoria fracasa por dos razones interrelacionadas.
Primero, una condición lógicamente necesaria de una definición correcta de un universal
puramente cualitativo, ya sea una propiedad monádica o una relación (como causalidad o
intencionalidad), es que no incluya una disyunción que mencione un caso particular que no
cumpla con las condiciones generales. descrito en el otro disyuntivo. Un universal puramente
cualitativo no incluye ningún particular como constituyente. Un ejemplo de un universal
impuramente cualitativo es ser más alto que el monte Everest. Las definiciones de universales
puramente cualitativos mencionan condiciones generales y no incluyen ninguna mención de un
caso particular, como el caso particular de la posición de Dios en una relación R con algo.
En segundo lugar, si se permitiera violar esta condición lógica de las definiciones correctas de
los universales puramente cualitativos (es decir, la condición de no mencionar un caso particular
en una disyunción), entonces el procedimiento de probar las definiciones mediante el método de
contraejemplo (el método estándar de probar la exactitud de las definiciones) ya no sería
utilizable. Cualquier contraejemplo de una definición podría ser coherente con la definición
añadiéndole una disyuntiva que mencione el contraejemplo. Para salvar la definición "x es un
planeta si y solo si x es un cuerpo grande que orbita una estrella y no contiene vida", podemos
expandirlo a "x es un planeta si y solo si x es un cuerpo grande que orbita una estrella y no
contiene vida o x es la Tierra ". La distinción entre definiciones correctas y definiciones ad hoc
colapsaría.
Cuarta objeción
Un último argumento es que los filósofos desde Platón hasta Plantinga han descrito el estado
mental relevante de Dios como una causa del universo y, por lo tanto, esta es una noción
aceptable. Existe un uso filosófico establecido para llamar a la relación de Dios con el universo
una "relación causal" y una larga y venerable tradición que sostenía que era coherente describir
un estado mental divino como una causa.
Este argumento, que en efecto es una apelación a la autoridad, no tiene éxito, ya que si este
argumento fuera admisible, podría usarse para rechazar cualquier teoría nueva que sea
inconsistente con las teorías sostenidas tradicionalmente. Esta apelación a la autoridad, en el
mejor de los casos, nos motiva a examinar seriamente la noción de que los estados mentales de
Dios son causas, en deferencia al hecho de que prácticamente todos los filósofos y laicos han
aceptado esta noción como lógicamente sin problemas.
Quizás para responder plenamente a esta objeción también necesitemos una explicación de
por qué esta tradición equivocada ha prevalecido durante tanto tiempo y entre tantos filósofos.
Creo que la razón principal es que una investigación de la conexión lógica entre lo que se expresa
por “el comienzo de la existencia del universo es el resultado de un acto divino” y lo que se
expresa por “el evento natural e es el resultado causal del evento natural c ”no se ha llevado a
cabo de forma sistemática. (La principal excepción son las discusiones diferentes pero
esclarecedoras de esta conexión en los escritos recientes de Adolf Grünbaum). 23La mayoría de
los filósofos han supuesto tácitamente que la tesis de que "la causalidad divina es lógicamente
posible" no es problemática; pero una vez examinada esta tesis, se ve que la presuposición es
falsa.
Por lo tanto,
(6) el universo tiene una causa.
Este argumento no apoya la tesis de que Dios existe o de que existe una causa divina del universo.
De hecho, este argumento implica que la existencia del universo es el resultado de algo más que
un estado divino, es decir, una causa. Tampoco se puede utilizar ningún argumento inductivo
que se base en el hecho de que todo evento observado tiene una causa para respaldar la tesis de
que el big bang es el resultado de un estado divino, ya que tal argumento inductivo apoyaría la
tesis de que el big bang es el efecto de alguna causa.
De hecho, todos los diversos argumentos cosmológicos y teleológicos a favor de la existencia
de Dios son realmente argumentos a favor de la inexistencia de Dios. Estos argumentos son
argumentos para la tesis de que el universo tiene una causa y si el universo tiene una causa, Dios
no existe. Esto se puede demostrar de la siguiente manera.
La definición tradicional de Dios es: x es Dios si y solo si x es omnisciente, omnipotente,
omnibenevolente y es la causa de cualquier universo que exista. Hemos visto que lo que
tradicionalmente se expresa con "Dios es la causa del universo", si es lógicamente coherente,
debería expresarse en cambio como "Dios es el universo". Por lo tanto, la definición correcta de
Dios dice: x es Dios si y solo si x es omnisciente, omnipotente, omnibenevolente y Rs cualquier
universo que exista. De esta definición se deduce que es una propiedad esencial de Dios que él
es cualquier universo que exista. Dado que esta propiedad es esencial para Dios, no hay mundo
posible en el que sea cierto tanto que Dios existe como que hay un universo con el que Dios no
tiene una relación R.
Nuestra discusión de la teoría de la causalidad de Sosa sugirió que la relación causal y la
relación R divina son dos tipos diferentes de relaciones que producen resultados, para tomar
prestada la frase de Sosa. Si el universo es el resultado de una relación causal que produce
resultados, no es el resultado de una relación de tipo R que produce resultados, y si el universo
es el resultado de un acto divino de R, no es el resultado. de una causa. Si hay un mundo posible
en el que algún universo es el resultado de una causa, se sigue que Dios no existe en ese mundo
posible.
Esto muestra cómo se puede construir explícitamente un argumento cosmológico a favor de la
inexistencia de Dios. Las premisas e inferencias se exponen en el siguiente argumento:
Por lo tanto,
(9) no hay mundo posible en el que sea cierto tanto que Dios existe como que hay un
universo que es el resultado de una causa.
Si la cosmología del Big Bang es verdadera [y por lo tanto (5) es verdadera], parece que la
premisa con el estado epistémico más débil o más bajo es la primera premisa, "Todo lo que
comienza a existir tiene una causa". Pero William Lane Craig dice sobre esta premisa: “[L] a
primera premisa es tan intuitivamente obvia, especialmente cuando se aplica al universo, que
probablemente nadie en su sano juicio realmente crea que sea falsa”. 24 Si Craig tiene razón y mi
argumento es sólido, se deduce que probablemente nadie en su sano juicio que crea que el
universo tiene un comienzo cree realmente que Dios existe.
Las mismas consideraciones se aplican al argumento teleológico, una versión del cual dice:
(11) Algunos seres inteligentes hacen que existan artefactos con algún propósito en mente.
(12) El universo se parece a un artefacto.
(13) El universo es causado por algunos seres inteligentes con algún propósito en mente.
Si este es un argumento adecuado por analogía, entonces probablemente sea cierto que la
relación de producción de resultados que está involucrada en la explicación de por qué existe el
universo es una relación causal en la que algunos seres inteligentes están parados con el
universo. . De ello se desprende [proposiciones dadas (7) y (9)] que probablemente Dios no
existe.
Dado que se ha pensado que los argumentos cosmológicos y teleológicos son los argumentos
más fuertes a favor de la existencia de Dios, y dado que apoyan el ateísmo en lugar del teísmo,
ahora parece que el caso del teísmo es muy débil. Es difícil imaginar cómo uno podría establecer
inductiva o deductivamente, o encontrarlo evidente por sí mismo, que el big bang es la
consecuencia lógica de que algo esté en una relación R con el big bang. Quizás hay algunos
argumentos bastante plausibles de que el big bang tiene una causa, pero no existen argumentos
existentes o plausibles de que el big bang tenga una condición lógicamente suficiente en un
estado mental acausal. Esto sugiere que creer en la existencia de Dios es considerablemente
menos razonable de lo que incluso los teólogos naturales más cautelosos han supuesto
habitualmente.
Notas
1Las versiones anteriores de este artículo se leyeron en la Universidad de West Virginia (febrero de 1995) y en la Universidad
Metodista del Sur (marzo de 1996). Los filósofos de ambas universidades ofrecieron útiles comentarios sobre estas versiones
anteriores. Mark Aronszajn y William Lane Craig escribieron respuestas críticas a versiones anteriores, que resultaron útiles
al redactar el presente borrador. También estoy agradecido con Christopher Hill por varias sugerencias que me permitieron
mejorar un borrador anterior. La investigación para este artículo fue apoyada por una beca del American Council of Learned
Societies en 1996 y por un National Endowment for the Humanities Summer Stipend para 1995.
2 David Hume, “Un resumen de un tratado de la naturaleza humana”, en Una investigación sobre el entendimiento humano
(Nueva York: Bobbs-Merrill, 1955), 186–87.
3Vale la pena señalar que la teoría de Michael Tooley implica que una causa requiere una ley de la naturaleza subyacente, pero
que la causa no está especificada únicamente por la ley de la naturaleza y los hechos no causales. Aunque la definición de
Tooley difiere de las definiciones reductivas tradicionales, su inclusión de una condición nomológica impide que sea satisfecha
por una voluntad divina. Véase su Causation: A Realist Approach (Oxford: Clarendon Press, 1987).
4 Carl Hempel, Aspects of Scientific Explanation (Nueva York: The Free Press, 1965), 348–49.
5CJ Ducasse, "Sobre la naturaleza y la observabilidad de la relación causal", en Causation, ed. Ernest Sosa y Michael Tooley
(Oxford: Oxford University Press, 1993), 129.
6 Ibíd., 127.
7Héctor-Neri Castañeda, “Causas, causalidad y energía”, en Midwest Studies in Philosophy IX, ed. Peter A. French, Theodore E.
Uehling, Jr. y Howard K. Wettstein (Minneapolis: University of Minnesota Press, 1984); Galen Strawson, "Realismo y
causalidad", Philosophical Quarterly 37 (1987): 253–77; David Fair, “La causalidad y el flujo de energía”, Erkenntnis 14
(1979): 219–50; Jerrold Aronson, "El legado del análisis de causalidad de Hume", Estudios de historia y filosofía de la ciencia
7 (1971): 135–36.
8Castañeda, op. cit., 22.
9 Véase David Lewis, “Causation”, Journal of Philosophy 70 (1973): 556–67.
10Jaegwon Kim, “Eventos como ejemplos de propiedad”, en Action Theory, ed. Myles Brand y Douglas Walton (Dordrecht:
Reidel, 1976).
11 Véase Brian Leftow, Time and Eternity (Ithaca, NY: Cornell University Press, 1993).
12Véase Donald Davidson, "Causal Relations", en Sosa y Tooley, op. cit.
13Véase Nicholas Wolterstorff, “God Everlasting”, en God and the Good, ed. Clifton Orlebeke y Lewis Smedes (Grand Rapids,
Michigan: Eerdmans, 1975); Quentin Smith, Language and Time (Nueva York: Oxford University Press, 1993).
14David Lewis, Philosophical Papers, vol. 2 (Nueva York: Oxford University Press, 1983), 170.
15 Ibídem.
dieciséis Véase John Mackie, The Cement of the Universe (Oxford: Clarendon Press, 1974).
17Abogué por este enfoque en “El concepto de una causa del universo”, Canadian Journal of Philosophy 23 (1993): 1–24. En
este artículo anterior, afirmé que los casos de voliciones divinas son contraejemplos válidos de las definiciones existentes de
causalidad. Sin embargo, desde entonces he desarrollado un contraargumento a esta afirmación (ver parte 5, la segunda
objeción) que me ha llevado a abandonar la tesis de que las voliciones divinas son causas.
18Más exactamente, una ocurrencia en notación de un término en una posición dentro de las construcciones de actitudes no
está abierta a sustitución y cuantificación; una ocurrencia relacional de un término en esta posición está abierta a sustitución
y cuantificación. “F” ocurre relacionalmente en “y desea que haya una F” si se lee como “($ x) Fx. y desea que: ($ x) Fx ". Por
el contrario, "F" aparece en forma de notación si "y desea que haya una F" se lee como "y desea que: ($ x) Fx". Véase David
Kaplan, “Opacity”, en The Philosophy of WV Quine, ed. Lewis Edwin Hahn y Paul Arthur Schilpp (La Salle, Ill .: Open Court,
1986). Cuando hablo de “posiciones dentro de las construcciones de actitudes”, solo me refiero a las posiciones dentro de las
construcciones de actitudes en las que los términos ocurren de forma notación.
19Ernest Sosa, “Varieties of Causation”, en Sosa y Tooley, op. cit., 240.
20 Ibídem.
21 Ibídem.
22 Ibíd., 242.
23Adolf Grünbaum, "El pseudo-problema de la creación en cosmología física", en Filosofía y cosmología física, ed. John Leslie
(Nueva York: Macmillan, 1990), 92-112; "La creación como una pseudo-explicación en la cosmología física actual",
Erkenntnis 35 (1991): 233–54.
24 William Lane Craig y Quentin Smith, Teísmo, ateísmo y cosmología del Big Bang (Oxford: Clarendon Press, 1993), 57.
11
Más allá del Big Bang
William Lane Craig
J. Richard Gott y Li-Xin Li buscan romper este dilema defendiendo la extraordinaria hipótesis de
que el universo se creó a sí mismo. Al observar que `` la cuestión de la primera causa ha sido
preocupante para filósofos y científicos por igual durante más de dos mil años '', señalan que los
científicos modernos, como Aristóteles, han encontrado atractivos modelos del universo que
involucran la existencia sempiterna del universo, ya que en este manera 'uno no tendría que
preguntarse qué causó su existencia' (Gott y Li-Xin 1998: 023501-1). Sin embargo, 'ahora que es
evidente que nuestro universo comenzó con una explosión del big bang', 'los modelos con un
comienzo finito han tenido prioridad' y 'la pregunta de qué sucedió antes de que surja el big bang'
(Gott y Li-Xin 1998: 023501–1). Observan que la inflación parecía ser 'una respuesta muy
prometedora, pero como han demostrado Borde y Vilenkin, el estado inflacionario que precedió
al Big Bang no pudo haber sido de duración infinita; también debe haber tenido un comienzo.
¿De dónde vino? En última instancia, la pregunta difícil parece ser cómo hacer algo de la nada
”(Gott y Li-Xin 1998: 023501-1). Gott y Li-Xin, sin embargo, sugieren en cambio que deberíamos
preguntarnos si algo en las leyes de la física evitaría que el universo se cree a sí mismo.
Figura 11.1 Un universo que se crea a sí mismo. Se muestran cuatro universos de bebés inflados. Los universos A y D no han
creado ningún universo bebé. El Universo C ha creado el universo D. El Universo B ha creado tres universos: A, C y él mismo, B. La
región en forma de toro en la parte inferior es una región de curvas cerradas en forma de tiempo. Un universo así ni surgió de una
singularidad ni se hizo un túnel de la observación, sino que se creó a sí mismo.
Gott y Li-Xin concluyen que "las leyes de la física pueden permitir que el universo sea su propia
madre" (Gott y Li-Xin 1998: 023501-1).
Ahora podemos dejar que los físicos evalúen la afirmación de Gott y Li-Xin de que las leyes de
la física permiten tal escenario, así como la cuestión de si hay hechos físicos no legales que lo
contradigan. Pues la hipótesis de Gott-Li-Xin plantea cuestiones metafísicas fundamentales
sobre la naturaleza del tiempo que, creo, hacen que su hipótesis sea metafísicamente imposible
o superflua.
Los filósofos del tiempo han distinguido dos puntos de vista diferentes sobre la naturaleza del
tiempo, que se han denominado las teorías A y B del tiempo, respectivamente. 1Según la teoría A,
los momentos temporales pueden clasificarse como pasado, presente y futuro, y solo existe ese
momento que es presente. Los momentos pasados y las cosas o eventos que los ocupan han
pasado y ya no existen; los momentos, cosas y eventos futuros aún no han llegado a ser y, por lo
tanto, aún no existen. Según la teoría A del tiempo, las cosas entran y salen del ser y, por tanto,
el devenir temporal es una característica real y objetiva de la realidad.
Por el contrario, en la teoría B del tiempo, la distinción entre pasado, presente y futuro es una
ilusión subjetiva de la conciencia humana. Todas las cosas o eventos en el tiempo son igualmente
reales y existen, y los momentos, las cosas y los eventos simplemente se encuentran entre sí en
relaciones tensas de antes que, simultáneos con o después de. Nada entra ni sale del ser, y el
devenir temporal es una ilusión.
Ahora bien, todas las instancias de influencia causal sobre el pasado, ya sea que estemos
hablando de curvas cerradas similares a las del tiempo, viajes en el tiempo, retrocausalidad, anti-
teléfonos taquiónicos o lo que sea, presuponen la verdad de la teoría B del tiempo. 2Porque
claramente en la teoría A del tiempo, en el momento en que el efecto está presente, la causa es
futura y, por lo tanto, literalmente inexistente. Por lo tanto, el efecto simplemente surge de la
nada. Este escenario no solo parece absurdo, sino que también se reduce al primer cuerno del
dilema de Davies con respecto al origen del universo. El universo simplemente vino sin causa de
la nada.
Por tanto, la hipótesis de Gott-Li-Xin presupone la teoría B del tiempo. Pero si se presupone tal
visión del tiempo, entonces la hipótesis de Gott y Li-Xin se vuelve superflua. Porque según una
teoría B del tiempo, el universo nunca llega a existir realmente. 3Toda la variedad del espacio-
tiempo de cuatro dimensiones simplemente existe sin tensión, y el universo tiene un comienzo
solo en el sentido de que una vara de un metro tiene un comienzo antes del primer centímetro.
Aunque la variedad del espacio-tiempo es intrínsecamente temporal en el sentido de que una de
sus cuatro dimensiones es el tiempo, no obstante es extrínsecamente atemporal, en el sentido de
que no existe en un hiper-tiempo incrustado, sino que existe sin tensión, ni entrando ni saliendo
del ser. En este último sentido, la variedad espacio-tiempo tetradimensional es eterna. Por lo
tanto, no hay necesidad del dispositivo de bucles causales o curvas cerradas de tipo temporal al
principio para explicar cómo llegó a existir.
Ahora bien, el espacio no me permite revisar los argumentos a favor y en contra de las teorías
A y B del tiempo. He explorado este fascinante debate durante los últimos doce años e informo
mis hallazgos en otra parte.4 Aquí solo puedo esbozar mis razones para afirmar una teoría A del
tiempo como la visión más plausible del asunto:
Dada la verdad de la teoría A del tiempo, la idea de que el universo se ha creado a sí mismo, es
decir, que se creó a través de curvas cerradas en forma de tiempo, es metafísicamente imposible
o se reduce a la noción de que el universo surgió de un salto. existencia sin causa de la nada. Por
lo tanto, creo que estamos atrapados con el dilema de Davies: el comienzo del universo es un
evento sin causa o es el resultado de una agencia sobrenatural.
La alternativa sobrenaturalista
Supongamos que seguimos la ruta de postular que alguna agencia causal más allá del espacio y
el tiempo es responsable del origen del universo. Un análisis conceptual de las propiedades que
debe poseer una causa tan ultramundana nos permite recuperar un número sorprendente de los
atributos divinos tradicionales. Porque como causa del espacio y el tiempo, esta entidad debe
trascender el espacio y el tiempo y, por lo tanto, existir atemporal y no espacialmente, al menos
sin el universo. Por lo tanto, esta causa trascendente debe ser inmutable e inmaterial, ya que la
atemporalidad implica inmutabilidad y la inmutabilidad implica inmaterialidad. Tal causa debe
carecer de principio y de causa, al menos en el sentido de carecer de condiciones causales
precedentes. La navaja de Ockham eliminará otras causas, ya que no debemos multiplicar las
causas más allá de la necesidad.
Por último, y lo más sorprendente, es plausible que una causa tan trascendente se considere
personal. Como señala Swinburne, hay dos tipos de explicación causal: explicaciones científicas
en términos de leyes y condiciones iniciales y explicaciones personales en términos de agentes
y sus voliciones (Swinburne 1991: 32-48). Un primer estado del universo no puede tener una
explicación científica, ya que no hay nada antes que él y, por lo tanto, solo puede explicarse en
términos de una explicación personal. Además, la personalidad de la causa del universo está
implícita en su atemporalidad e inmaterialidad, ya que las únicas entidades que conocemos que
pueden poseer tales propiedades son las mentes o los objetos abstractos, y los objetos abstractos
no se encuentran en relaciones causales. Por tanto, la causa trascendente del origen del universo
debe ser del orden de la mente. Esta misma conclusión también está implícita en el origen de un
efecto temporal de una causa atemporal. Porque si la causa del universo fuera un conjunto
impersonal de condiciones necesarias y suficientes, no podría existir sin su efecto. La única
manera de que la causa sea atemporal e inmutable, pero que su efecto se origine de novo hace
un tiempo finito, es que la causa sea un agente personal que elige libremente producir un efecto
sin condiciones determinantes antecedentes. Por lo tanto, somos llevados, no meramente a una
causa trascendente del universo, sino a su creador personal. La única manera de que la causa sea
atemporal e inmutable, pero que su efecto se origine de novo hace un tiempo finito, es que la
causa sea un agente personal que elige libremente producir un efecto sin condiciones
determinantes antecedentes. Por lo tanto, somos llevados, no meramente a una causa
trascendente del universo, sino a su creador personal. La única manera de que la causa sea
atemporal e inmutable, pero que su efecto se origine de novo hace un tiempo finito, es que la
causa sea un agente personal que elige libremente producir un efecto sin condiciones
determinantes antecedentes. Por lo tanto, somos llevados, no meramente a una causa
trascendente del universo, sino a su creador personal.
Objeciones naturalistas
El naturalista, por supuesto, se resistirá a aceptar semejante bagaje metafísico. Pero piense en la
alternativa: que el universo nació sin causa de la nada. Eso parece metafísicamente absurdo. El
filósofo naturalista de la ciencia Bernulf Kanitscheider reprocha: `` Si se toma en serio, la
singularidad inicial choca frontalmente con el compromiso ontológico más exitoso que fue una
línea de investigación rectora desde Epicuro y Lucrecio '', es decir, de la nada no surge nada, lo
que Kanitscheider llama "una hipótesis metafísica que ha demostrado ser tan fructífera en todos
los rincones de la ciencia que seguramente se nos aconseja hacer todo lo posible por evitar los
procesos de origen absoluto" (Kanitscheider 1990: 344). Mario Bunge piensa que un origen
absoluto del universo 'sería acientífico, porque la ciencia se rige por los principios de que nada
surge de la nada ni se convierte en nada. . . y que todo sucede de acuerdo con la ley en lugar de
milagros ”(Bunge 1985: 238–9). Sobre la base del primer principio, Bunge, como Kanitscheider,
rechaza la opinión de que el universo surgió sin causa de la nada. Sobre la base del segundo
principio, piensa rechazar el teísmo. Pero mientras que el principio de que nada surge de la nada
es un primer principio tanto de la metafísica como de la ciencia, no hay incompatibilidad entre
ser un teísta metafísicamente y un naturalista metodológico científicamente; además, incluso el
naturalismo metodológico está lejos de ser indiscutible. Sobre la base del primer principio,
Bunge, como Kanitscheider, rechaza la opinión de que el universo surgió sin causa de la nada.
Sobre la base del segundo principio, piensa rechazar el teísmo. Pero si bien el principio de que
nada surge de la nada es un primer principio tanto de la metafísica como de la ciencia, no hay
incompatibilidad entre ser un teísta metafísicamente y un naturalista metodológico
científicamente; además, incluso el naturalismo metodológico está lejos de ser indiscutible.
Sobre la base del primer principio, Bunge, como Kanitscheider, rechaza la opinión de que el
universo surgió sin causa de la nada. Sobre la base del segundo principio, piensa rechazar el
teísmo. Pero mientras que el principio de que nada surge de la nada es un primer principio tanto
de la metafísica como de la ciencia, no hay incompatibilidad entre ser un teísta metafísicamente
y un naturalista metodológico científicamente; además, incluso el naturalismo metodológico está
lejos de ser indiscutible. no hay incompatibilidad entre ser un teísta metafísicamente y un
naturalista metodológico científicamente; además, incluso el naturalismo metodológico está
lejos de ser indiscutible. no hay incompatibilidad entre ser un teísta metafísicamente y un
naturalista metodológico científicamente; además, incluso el naturalismo metodológico está
lejos de ser indiscutible.14 Es difícil ver cómo una persona sensata, particularmente el naturalista,
puede pensar que el universo simplemente surgió sin causa de la nada.
Por lo tanto, ha sido notable observar en los últimos años el número de naturalistas que, bajo
la fuerza de la evidencia de un comienzo absoluto del universo, han abrazado la opinión de que
el universo es un contingente impreciso, algo que apareció sin ser causado por nada. Quentin
Smith declara: "El hecho es que la creencia más razonable es que venimos de la nada, de la nada
y para nada".15 En lugar de postular una causa del origen del universo, Smith advierte:
'Deberíamos reconocer nuestro fundamento en la nada y sentirnos asombrados por el hecho
maravilloso de que tenemos la oportunidad de participar brevemente en este increíble
resplandor solar que interrumpe sin razón el reinado de la Tierra. el no ser '(Smith 1993a: 135).
A veces se intenta hacer más plausible esta notable hipótesis, pero no suelen ser muy
impresionantes. Considere, por ejemplo, el relato de Peter Atkins sobre el origen del universo:
Ahora retrocedemos en el tiempo más allá del momento de la creación, cuando no había
tiempo y donde no había espacio. . . En el principio no había nada . . . . Por casualidad hubo
una fluctuación y un conjunto de puntos, emergiendo de la nada. . . definido un tiempo. . . De
la nada absoluta, absolutamente sin intervención, surgió una existencia rudimentaria. . . Sin
embargo, la línea del tiempo colapsó y el universo incipiente se evaporó, porque el tiempo
por sí solo no es lo suficientemente rico para existir. El tiempo y el espacio emergieron en
otra parte, pero ellos también volvieron a desmoronarse en su propio polvo, la coalescencia
de los opuestos, o simplemente nada. Los patrones emergieron una y otra vez, y otra vez.
Cada vez que el patrón formaba un tiempo, y a través de su patrón en el tiempo, los puntos
inducían su propia existencia. . . A veces, el azar marca puntos en un espacio además de en un
tiempo. . . Entonces, por casualidad, se produjo nuestra fluctuación. Los puntos llegaron a
existir al constituir el tiempo, pero esta vez, en este patrón, el tiempo fue acompañado por
tres dimensiones del espacio. . . con ellos viene la estabilidad, elementos posteriores y
elefantes aún posteriores ”(Atkins 1992: 129, 149–51).
Esta explicación es tan obviamente incoherente al postular el tiempo antes del tiempo y tan
confusa en su cosificación de las entidades matemáticas que podemos, con razón, descartarla
como la tontería pseudocientífica que es.dieciséis
O nuevamente, cuando John Gribbin afirma que el origen del universo a partir de la nada no
presenta ningún problema, ya que la energía positiva asociada a la masa se compensa
precisamente con la energía negativa asociada a la gravitación, de modo que en el caso del origen
del universo obtenemos "No es algo por nada, después de todo, pero nada por nada" (Gribbin
1986: 374), se compromete con la absurda posición de que nada existe (¡ni siquiera él mismo!).
En el mejor de los casos, el hecho de que el universo contenga cantidades equilibradas de energía
positiva y negativa podría mostrar que el universo no necesita tener una causa material; pero no
hace nada para obviar la necesidad de una causa eficiente. Como dice Isham, todavía existe la
"necesidad de siembra óntica" para producir la energía positiva y negativa, incluso si en conjunto
no es nada (Isham 1994: 8).
Más a menudo, los pensadores naturalistas han tratado de elogiar su punto de vista, ya sea
atacando el principio causal, todo lo que comienza a existir tiene una causa o argumentando la
inverosimilitud o incoherencia de la existencia de una causa del universo. Los ataques al
principio causal suelen basarse en una apelación a la indeterminación cuántica. Por ejemplo, a
veces se dice que las partículas virtuales constituyen un contraejemplo del principio porque
surgen sin causa del vacío mecánico cuántico. Totalmente aparte de la controvertida cuestión de
si las partículas virtuales existen realmente,17el punto central que debe entenderse aquí es que
el vacío cuántico del que dependen para su existencia no es nada. Es por esa razón que las
afirmaciones hechas con frecuencia con respecto a los modelos de fluctuación del vacío de que
'el universo cuántico se convirtió en un túnel a partir de la nada', o que 'la nada es inestable' a las
fluctuaciones que crecen en universos, o que 'el universo es un universo. almuerzo gratis 'porque
en este caso' obtuvimos algo a cambio de nada 'no puede tomarse en serio, ya que no tratan nada
como si fuera algo, una especie de sustancia que posee propiedades y se rige por las leyes de la
física cuántica. De hecho, tales declaraciones resultan ser solo florituras retóricas que ningún
científico informado toma literalmente. El vacío cuántico, que subyace a toda la realidad del
espacio-tiempo, es un mar de energía fluctuante.
La microestructura violenta del vacío se ha utilizado para intentar explicar el origen del
universo como una fluctuación de vacío de larga duración. Pero algunos autores han
conectado con estas especulaciones legítimas [sic] afirmaciones metafísicas de largo alcance,
o como mucho expresaron sus matemáticas en un lenguaje altamente engañoso, cuando
sostuvieron "la creación del universo a partir de la nada". . .
Desde el punto de vista filosófico es fundamental señalar que lo anterior está lejos de ser
una generación espontánea de todo de la nada, pero el origen de esa burbuja embrionaria es
en realidad un proceso causal que conduce de un sustrato primordial con una rica estructura
física a un sustrato materializado del vacío. Es cierto que este proceso no es determinista,
incluye ese tipo débil de dependencia causal peculiar de todo proceso mecánico cuántico
(Kanitscheider 1990: 346-7).
Por tanto, la física cuántica no sirve para refutar el principio de que todo lo que comienza a existir
tiene una causa.
No es sorprendente que los naturalistas deban atacar la noción de una causa del universo, ya
que rechazan las realidades supra-naturales independientemente de su motivación para
justificar un origen no causado del universo a partir de la nada. A veces, estas críticas pueden
descartarse fácilmente. Por ejemplo, el metafísico John Post, obviamente, plantea la pregunta
cuando afirma que no puede haber una causa del origen del universo, ya que "por definición, el
universo contiene todo lo que existe, fue o será" (Post 1991: 85). Una vez más, es un non sequitur
obvio cuando infiere que debido a que 'la singularidad no puede ser causada por algún evento o
proceso natural anterior', por lo tanto 'el universo tiene un comienzo sin causa' y 'parece que la
cosmología física contemporánea no puede citarse en apoyo de la idea de una causa divina o
creador del universo '(Post 1991:
Por otro lado, Smith se da cuenta de que el metafísico debe tomarse en serio la "cuestión más
difícil" de "si la singularidad o el Big Bang es probablemente un efecto de una causa sobrenatural,
Dios" (Smith 1993a: 120). ¿Qué problemas, entonces, hay con una perspectiva sobrenaturalista?
Adolf Grünbaum ha argumentado enérgicamente contra lo que él llama "el argumento de la
nueva creación" para una causa sobrenatural del origen del universo. 18Su Ansatz básico se basa
en el supuesto de que la prioridad causal implica una prioridad temporal. Dado que no hubo
instantes de tiempo antes del Big Bang, se deduce que el Big Bang no puede tener una causa. 19
Me parece que el sobrenaturalista tiene varias opciones para lidiar con esta objeción, una de
las cuales es sostener que la causa trascendente del universo es causal, pero no temporalmente,
anterior al evento del Big Bang, de modo que Su acto de hacer que el universo comience a existir
es simultáneo, o coincidente, con su comienzo a existir. Grünbaum no proporciona ninguna
justificación para su supuesto de que la prioridad causal implica una prioridad temporal. Las
discusiones sobre la direccionalidad causal tratan de manera rutinaria casos en los que la causa
y el efecto son simultáneos. Un sobrenaturalista podría sostener que el Creador sin el universo
existe sin cambios y, por lo tanto, atemporalmente y en el Big Bang, la singularidad creó el
universo junto con el tiempo y el espacio. Para el Creador sin el universo, simplemente no hay
tiempo porque no hay eventos de ningún tipo;
El momento del primer evento sería no solo el primer momento en el que existe el universo,
sino también, técnicamente, el primer momento en el que existe Dios, ya que sin el universo Dios
existe atemporalmente.20El momento de la creación es, por así decirlo, el momento en el que Dios
entra en el tiempo. Su acto de creación es, por tanto, simultáneo con el origen del universo.
En respuesta a esta sugerencia, Grünbaum se ha opuesto al siguiente argumento: 21
1. El proponente de la causalidad asimétrica simultánea debe proporcionar un criterio
generalmente aceptado para distinguir uno de dos eventos simultáneos conectados
causalmente como la causa del otro, si la causación asimétrica simultánea es posible.
2. No existe una explicación generalmente aceptada de la direccionalidad causal.
3. Por lo tanto, no puede haber una causa asimétrica simultánea del Big Bang.
El argumento, si tiene éxito, eliminaría todos los supuestos casos de causalidad asimétrica
simultánea, no solo una causa del Big Bang.
Sin embargo, creo que el argumento es erróneo porque (1) es obviamente falso. Porque (i) ¿Por
qué el proponente de la causalidad asimétrica simultánea debe proporcionar un criterio
generalmente aceptado de direccionalidad causal para que dicha causalidad sea posible? ¿No es
esta una demanda extravagante? Grünbaum no se da cuenta de que no existe una explicación
generalmente aceptada de la direccionalidad causal überhaupt, incluidas las explicaciones que
apelan a la prioridad temporal como condición de la prioridad causal. De hecho, me atrevería a
decir que hoy en día no existe una explicación generalmente aceptada de la causalidad. Pero,
¿deberíamos inferir, por tanto, que la causalidad es imposible o inexistente? Compare la
situación en la epistemología contemporánea. En la actualidad, no existe una explicación
generalmente aceptada de la justificación o garantía racional con respecto a las creencias que
consideramos verdaderas; pero, ¿deberíamos inferir, por tanto, que el conocimiento es
imposible? Los deconstruccionistas y otros posmodernistas pueden pensar que sí, pero dudo que
Grünbaum esté dispuesto a seguir su camino. No hay razón para pensar que la posibilidad de una
causalidad simultánea dependa de que seamos capaces de llegar a un criterio indiscutible de
direccionalidad causal. (ii) De hecho, ¿qué razón hay para pensar que la posibilidad de una
causalidad asimétrica simultánea depende de que yo sea capaz de llegar a algún tipo de criterio
de direccionalidad causal? Mi enunciado de un criterio para distinguir una causa de su efecto es
un asunto epistémico; la existencia de una causalidad simultánea es una cuestión de ontología.
Un criterio nos ayuda a discernir causas simultáneas y asimétricas en el mundo; pero sugerir que
dicho criterio constituye de alguna manera tales relaciones causales en realidad es
verificacionismo en su forma más inverosímil. Grünbaum no ha sugerido ninguna incoherencia
o dificultad en la causalidad asimétrica simultánea; si existen tales causas en el mundo, no tienen
por qué esperar a que descubramos algún criterio para distinguirlas. (iii) No hay razón para
pensar que para que casos específicos de causalidad asimétrica simultánea sean posibles o
discernibles, uno debe poder proporcionar un criterio general lo suficientemente amplio para
cubrir todos esos supuestos casos. Todo lo que se necesita es una forma de distinguir la causa
del efecto en el caso específico. Ahora bien, en el caso de la hipótesis del creacionismo teológico,
tenemos un medio lógicamente hermético para distinguir la causa del efecto, a saber, es
metafísicamente imposible que Dios sea causado por el mundo, ya que si Dios existe, Su
naturaleza es tal que Él existe necesariamente, mientras que la existencia del mundo es
metafísicamente contingente (como es evidente desde su comienzo que existe). Eso implica que
no hay un mundo posible en el que Dios sea causado por el Big Bang. Por lo tanto, es fácil para el
teísta explicar en qué sentido Dios es causalmente anterior al universo o al Big Bang: Dios y el
universo están relacionados causalmente, y si el universo no existiera, Dios existiría sin embargo,
mientras que hay ningún mundo posible en el que el universo exista sin Dios. Por tanto, me
parece que la objeción de Grünbaum a una causa sobrenatural del origen del universo no tiene
éxito. mientras que la existencia del mundo es metafísicamente contingente (como es evidente
desde el principio de su existencia). Eso implica que no hay un mundo posible en el que Dios sea
causado por el Big Bang. Por lo tanto, es fácil para el teísta explicar en qué sentido Dios es
causalmente anterior al universo o al Big Bang: Dios y el universo están relacionados
causalmente, y si el universo no existiera, Dios existiría sin embargo, mientras que hay ningún
mundo posible en el que el universo exista sin Dios. Por tanto, me parece que la objeción de
Grünbaum a una causa sobrenatural del origen del universo no tiene éxito. mientras que la
existencia del mundo es metafísicamente contingente (como es evidente desde el principio de su
existencia). Eso implica que no hay un mundo posible en el que Dios sea causado por el Big Bang.
Por lo tanto, es fácil para el teísta explicar en qué sentido Dios es causalmente anterior al
universo o al Big Bang: Dios y el universo están relacionados causalmente, y si el universo no
existiera, Dios existiría sin embargo, mientras que hay ningún mundo posible en el que el
universo exista sin Dios. Por tanto, me parece que la objeción de Grünbaum a una causa
sobrenatural del origen del universo no tiene éxito. Es fácil para el teísta explicar en qué sentido
Dios es causalmente anterior al universo o al Big Bang: Dios y el universo están relacionados
causalmente, y si el universo no existiera, Dios, no obstante, existiría, mientras que no es posible.
mundo en el que el universo existe sin Dios. Por tanto, me parece que la objeción de Grünbaum
a una causa sobrenatural del origen del universo no tiene éxito. Es fácil para el teísta explicar en
qué sentido Dios es causalmente anterior al universo o al Big Bang: Dios y el universo están
relacionados causalmente, y si el universo no existiera, Dios, no obstante, existiría, mientras que
no es posible. mundo en el que el universo existe sin Dios. Por tanto, me parece que la objeción
de Grünbaum a una causa sobrenatural del origen del universo no tiene éxito.
El naturalista quizás planteará una objeción metafísica al escenario que he esbozado sobre el
estado del Creador sin el universo. Porque requiere que concibamos a un agente personal
atemporal, y algunos filósofos han argumentado que tal noción es contradictoria en sí
misma.22Porque es una condición necesaria de la personalidad que un individuo sea capaz de
recordar, anticipar, reflexionar, deliberar, decidir, etc. Pero estas son actividades
inherentemente temporales. Por tanto, no puede haber personas atemporales.
La falacia de este razonamiento es que combina las propiedades comunes de las personas con
las propiedades esenciales de las personas. El tipo de actividades delineadas anteriormente son
ciertamente propiedades comunes de las personas temporales. Pero eso no implica que tales
propiedades sean esenciales para la personalidad. Podría decirse que lo que es necesario y
suficiente para la personalidad es la autoconciencia y el libre albedrío, y estos no son
inherentemente temporales. En su estudio de la atemporalidad divina, John Yates escribe:
El teísta clásico puede admitir inmediatamente que conceptos como reflexión, memoria y
anticipación no podrían aplicarse a un ser atemporal (ni a ningún ser omnisciente), pero esto
no significa admitir que los conceptos clave de conciencia y conocimiento sean inaplicables a
tal deidad . . . no parece haber ningún elemento temporal esencial en palabras como. . .
"comprender", "estar consciente", "saber", etc. . . una deidad atemporal podría poseer la
máxima comprensión, conciencia y conocimiento en una sola visión que lo abarca todo de sí
mismo y la suma de la realidad (Yates 1990: 173).
De manera similar, Dios podría poseer una intención libre e inmutable de la voluntad de crear
un universo con un comienzo temporal. Por tanto, ni la autoconciencia ni la libre voluntad
implican temporalidad. Pero dado que estos son plausiblemente suficientes para la personalidad,
no hay incoherencia en la noción de un Creador personal eterno del universo.
Más recientemente, Smith ha argumentado que “la tesis de que el universo tiene una causa
divina originaria es lógicamente inconsistente con todas las definiciones existentes de causalidad
y con un requisito lógico sobre estas y todas las posibles definiciones o teorías de causalidad
válidas (Smith 1996: 169-70). Smith muestra que los análisis típicos de la relación causal en
términos de prioridad temporal, contigüidad espacio-temporal y relación nomológica son
inaplicables al evento de la voluntad de Dios de que ocurra el Big Bang y al evento del Big Bang.
Por lo tanto, estos dos eventos no pueden, según los análisis habituales, considerarse causa y
efecto. Análisis contrafactuales de la causalidad, como el de David Lewis, según el cual c causa e
si (i) c y e son eventos que ocurren y (ii) si c no hubiera ocurrido, e no habría ocurrido, no les va
mejor en opinión de Smith. Porque si c es la voluntad de Dios ye es el Big Bang, es cierto que si e
no hubiera ocurrido, entonces c no habría ocurrido. Pero esto implica que el Big Bang es la causa
de la voluntad de Dios, lo cual es falso. Lewis evita el problema de la dependencia causal inversa
espuria al estipular que si e no hubiera ocurrido, entonces c habría ocurrido pero no causó e.
Pero como Dios es omnipotente y su voluntad necesariamente efectiva, tal estipulación no puede
hacerse en el presente caso. Por lo tanto, bajo ningún análisis existente de causalidad se puede
decir que Dios causó el Big Bang. Lewis evita el problema de la dependencia causal inversa
espuria al estipular que si e no hubiera ocurrido, entonces c habría ocurrido pero no causó e.
Pero como Dios es omnipotente y su voluntad necesariamente efectiva, tal estipulación no puede
hacerse en el presente caso. Por lo tanto, bajo ningún análisis existente de causalidad se puede
decir que Dios causó el Big Bang. Lewis evita el problema de la dependencia causal inversa
espuria al estipular que si e no hubiera ocurrido, entonces c habría ocurrido pero no causó e.
Pero como Dios es omnipotente y su voluntad necesariamente efectiva, tal estipulación no puede
hacerse en el presente caso. Por lo tanto, bajo ningún análisis existente de causalidad se puede
decir que Dios causó el Big Bang.
El argumento de Smith se puede formular de la siguiente manera:
4. Si la afirmación de que Dios causó el Big Bang no puede analizarse en términos de las
definiciones existentes de causalidad, entonces Dios no puede haber causado el Big Bang.
5. La afirmación de que Dios causó el Big Bang no puede analizarse en términos de las
definiciones existentes de causalidad.
6. Por lo tanto, Dios no puede haber causado el Big Bang.
Una vez más, hay análisis de la causalidad del agente que son incluso más relevantes en el caso
de la causalidad divina que los análisis examinados por Smith. Smith considera exclusivamente
la causalidad del evento, pero se puede discutir si esta es la concepción correcta para aplicar al
caso de Dios. Smith sostiene que las consideraciones de la causalidad del agente no están
relacionadas con la discusión porque no nos interesa la relación entre Dios (el agente) y Su acto
de querer (el efecto), sino la relación entre Su acto de querer (un evento) y el Big Bang (un
evento). Pero no todos los defensores de la causalidad del agente interpretan la causalidad del
agente como una relación entre un agente y sus voliciones. Algunos defensores de la causalidad
del agente sostienen que un agente no causa sus voliciones, pero que al querer libremente
provoca algún evento intencionado (Lowe 2002: 205-10). En el caso que nos ocupa, Dios provoca
el Big Bang mediante el ejercicio de su poder activo. La expresión "la voluntad de Dios de que
ocurra el Big Bang" describe correctamente una acción, no un evento. El evento en este caso es
el Big Bang, y la causa de ese evento es Dios, quien, al querer, provocó el Big Bang. Por lo tanto,
es simplemente un error pensar que el Big Bang fue causado por el evento de la voluntad de Dios
y no por Dios mismo.24
Por lo tanto, ni (4) ni (5) se nos recomiendan como más plausiblemente verdaderos que sus
contradictorios. Smith reconoce estas deficiencias de su argumento, pero retrocede a lo que
considera una posición inexpugnable: "c es una causa de e" implica que "c no es una condición
lógicamente suficiente de e" (Smith 1996: 176). Esta vinculación impide que Dios sea la causa
del Big Bang porque la voluntad de Dios de que ocurra el Big Bang es una condición lógicamente
suficiente del Big Bang. Esto se debe a que Dios es omnipotente y, por tanto, necesariamente Su
voluntad tiene éxito. No hay mundo posible en el que Dios quiera el Big Bang y, sin embargo, el
Big Bang no se produzca. Por tanto, Dios no puede ser la causa del Big Bang.
Este argumento parece bastante fantasioso. Si tiene éxito, se puede generalizar para mostrar
que Dios no puede causar nada. Por lo tanto, precisamente porque es omnipotente, Dios es
completamente impotente, ¡una inferencia curiosa! Si ser omnipotente implica la incapacidad de
causar algo, entonces estamos usando 'causa' en un sentido altamente técnico que no es
incompatible con el hecho de que Dios provocó el Big Bang, que es, después de todo, el problema.
Si Dios 'causa' o no el Big Bang, todavía depende de Él si ocurre o no, y ocurre solo en virtud de
Su voluntad de que ocurra. Si parece que provocar el Big Bang implica una relación causal,
entonces simplemente rechazaremos el principio de implicación de Smith. Solo alguien que ya
sea naturalista se sentiría tentado a pensar que ese principio es cierto. Por lo tanto,
Smith considera tal respuesta e insiste en que es el teísta quien plantea la pregunta, ya que en
todos los demás casos de causalidad, las causas no son condiciones lógicamente suficientes de
sus efectos. No hay, dice, justificación para eximir a los supuestos actos causales de Dios de este
principio. Necesitamos tener alguna razón independiente para pensar que la relación entre Dios
y el Big Bang es una relación causal. Se pueden decir tres cosas sobre esta respuesta: (i) Dado
que solo Dios es omnipotente, no es de extrañar que Su caso sea la única excepción al principio
de que las causas no son lógicamente suficientes para sus efectos. Dios es un ser tan excepcional
que, en general, no encajará en nuestros esquemas habituales. Por ejemplo, es un principio
general que 'S cree que p' no es una condición lógicamente suficiente de 'p. Pero dado que Dios
es esencialmente omnisciente, en el caso de Dios, su creencia p es una condición lógicamente
suficiente de p. Por tanto, ¿deberíamos concluir que Dios no tiene creencias? De la misma
manera, debido a que Dios es omnipotente, ¿debemos pensar que Su voluntad no tiene ningún
efecto? (ii) Hay otros contraejemplos plausibles del principio de Smith. Por ejemplo, el cambio
es plausiblemente una causa de la existencia del tiempo, al menos desde una perspectiva
relacional del tiempo. La ocurrencia de eventos realmente da existencia al tiempo. Si hubiera un
estado absolutamente inactivo, entonces el tiempo no existiría. Pero si se produce un cambio, el
tiempo se produce de inmediato. Tal relación es plausiblemente causal; Ciertamente no es como
la relación puramente lógica entre, digamos, que una figura bidimensional tenga tres lados y
tenga tres ángulos. El tiempo es algo completamente distinto al cambio, dado que el tiempo
puede pasar, incluso la mayoría de los relacionalistas están de acuerdo, aunque el cambio debería
cesar (Shoemaker 1969). Por lo tanto, el cambio, si ocurriera, parecería hacer que exista el
tiempo. Sin embargo, el cambio necesariamente causa tiempo: no hay mundo posible en el que
el cambio se lleve a cabo sin tiempo. Por tanto, el cambio es lógicamente suficiente para la
existencia del tiempo, pero también es plausiblemente una causa de la existencia del tiempo. (iii)
La razón por la que la relación entre Dios y el Big Bang —o cualquier otro evento que Él
provoque— es causal es la estrecha semejanza entre Dios y nosotros como agentes. Sin duda,
nuestras intuiciones más profundas sobre la causalidad tienen sus raíces en nuestra propia
capacidad para producir efectos mediante un ejercicio intencional de nuestro poder. Pero Dios
es un agente personal como nosotros. La diferencia entre Él y nosotros es que Su poder es tan
grande que Él es infalible para llevar a cabo Sus empresas. ¿Se debe dudar ahora de su condición
de causa porque es infalible? ¡Difícilmente! En resumen, no creo que la objeción de Smith
suponga un obstáculo serio para pensar que el Big Bang tiene una causa sobrenatural o divina.
Todas las objeciones anteriores se han considerado como un intento de justificación de la
posición aparentemente increíble de que el universo surgió sin causa de la nada. Pero yo, por mi
parte, encuentro las premisas de esas objeciones mucho menos perspicuas que la proposición de
que todo lo que comienza a existir tiene una causa. Es mucho más plausible negar una de esas
premisas que afirmar lo que Hume llamó la `` proposición absurda '' de que algo podría surgir
sin una causa,25 que el universo, en este caso, debería surgir sin ser causado de la nada.
Conclusión
Podemos resumir nuestro argumento de la siguiente manera:
La premisa (7) es un primer principio metafísico captado intuitivamente. La premisa (8) está
respaldada por la evidencia inductiva de la cosmología contemporánea y goza de mayor
plausibilidad a la luz de esa evidencia que contradictoria. Un análisis de lo que es ser causa del
universo revela que
10. Si el universo tiene una causa de su existencia, entonces existe un Creador personal y sin
causa del universo, que sin el universo no tiene comienzo, es inmutable, inmaterial,
intemporal, sin espacio y enormemente poderoso.
11. Por lo tanto, existe un Creador del universo personal y sin causa, quien sin el universo no
tiene comienzo, es inmutable, inmaterial, atemporal, sin espacio y enormemente
poderoso.
Y esto, como señaló lacónicamente Tomás de Aquino, es lo que todos quieren decir con "Dios". 26
Notas
1 Para una útil introducción a estas dos perspectivas en competencia, ver Gale (1968a): 65–85.
2 Véase la discusión en Craig (1990): 150–6.
3Este es el punto sobresaliente de la crítica de Grünbaum a la inferencia a una Primera Causa del origen del universo
(Grünbaum: 2000). Como teórico B, Grünbaum no cree que el universo haya llegado a existir, incluso si tuvo un primer
intervalo temporal. Como escribe en otra parte, 'llegar a existir (o' devenir ') no es una propiedad de los eventos físicos en sí
mismos, sino solo de la conciencia humana o consciente de estos eventos' (Grünbaum 1967: 153). Lo que Grünbaum no ve,
sin embargo, es que la afirmación de que un comienzo absoluto del universo implica que el universo llegó a existir tiene sus
raíces, no en la presuposición de la llamada espontaneidad de la nada, sino en una teoría A del tiempo. .
4 Véanse los volúmenes complementarios The Tensed Theory of Time: a Critical Examination, Synthese Library (Dordrecht:
Kluwer Academic Publishers, (2000a); The Tenseless Theory of Time: a Critical Examination, Synthese Library (Dordrecht:
Kluwer Academic Publishers, 2000b).
5Para una destacada defensa de este punto, véase Smith (1991). Véase también Craig (1996a), Craig (1996b) y Craig (2000c).
6Uno de los portavoces más elocuentes de este punto de vista ha sido Schlesinger (1980), 34-9, 138-9. Véase también Craig
(1999a); Craig (1999b); y Craig (2001).
7Los más útiles aquí siguen siendo Broad (1938) y Dummett (1960): 497–504. Véase también Craig (1998a): 122–7.
8Este punto necesita más trabajo, pero ver Prior (1968): 1-14, y Loizou (1986): 44-5. Véase también Craig (2003); Craig
(2000d).
9Véase Smith (1991) cap. 7. Ver también Craig (2002).
10 Véanse las observaciones de Black (1962).
11 Para bosquejos de este argumento, ver Gale (1968b): 90-7 y Mellor (1981): 140. Para un desarrollo más completo, ver Craig
(de próxima publicación).
12 Nuevamente, este punto debe desarrollarse mejor, pero véanse Geach (1972): 306 y McGilvray, (1979): 275–99.
13Ver el excelente estudio de Merricks (1994); ver más Hinchliff, (1994); Lewis (1986); van Inwagen (1990).
14Véanse las muy interesantes discusiones recientes sobre la garantía del naturalismo metodológico en la ciencia, por ejemplo,
de Vries (1986); Plantinga, Van Till, Pun y McMullin, (1991); Hasker (1992); Plantinga (1992); Plantinga (1993); Moreland
(1994); Moreland, Meyer y Bube (1994).
15Smith (1993a): 135. En otra parte ha escrito, '[Este mundo] existe de manera no necesariamente, improbable y sin causa.
Existe sin ninguna razón. . . El impacto de esta comprensión cautivada sobre mí es abrumador. Estoy completamente
aturdido. Doy unos pasos aturdido en el prado oscuro y caigo entre las flores. Me quedo estupefacto, dando vueltas sin
comprensión en este mundo a través de innumerables mundos distintos de este ”(Smith 1986: 300-1). En Theism, Atheism,
and Big Bang Cosmology, Smith afirmó que el universo nació sin causa de la nada en la época de Planck; ¡pero desde entonces
se ha retractado de esa posición al darse cuenta de que los cosmólogos cuánticos están estudiando una ficción completa!
dieciséis John Leslie asks incredulously, ‘How could such nonsense have been churned out by the author of Physical Chemistry,
a superb textbook?’ (Leslie 1993: 3). For a good critique of Atkins, see Ward (1996),chap. 1.
17 Véase Weingard, (1982): 235–42.
18Grünbaum (1989). Para obtener una respuesta, consulte Craig (1992).
19Grünbaum (1991). Para obtener una respuesta, consulte Craig (1994a).
20Brian Leftow lo expresa muy bien cuando escribe: 'Si Dios existiera en el tiempo una vez que existió el tiempo y el tiempo
tuvo un primer momento, entonces Dios tendría un primer momento de existencia: habría un momento antes del cual Él no
existió, porque no existía no había 'antes' de ese momento. . . Sin embargo, incluso si Él. . . Si hubiera tenido un primer
momento de existencia, todavía se podría llamar ilimitada la existencia de Dios si se entendiera que Él habría existido incluso
si el tiempo no existiera. Mientras esto sea cierto, no podemos inferir de Dios, habiendo tenido un primer momento de
existencia, que Dios llegó a existir o no habría existido si no hubiera existido el tiempo ”(Leftow 1991: 269; cf. 201). Senor
ha denominado a tal modelo de eternidad divina "temporalismo accidental" (Senor 1993: 88). Véase además Craig (1996c).
21Grünbaum (1994). Para obtener una respuesta, consulte Craig (1994b).
22 Ver discusión y referencias en Craig (1998b).
23En Smith (1993b), Smith llega a esta conclusión él mismo. Afirma que 'las definiciones existentes de causalidad son
incorrectas, ya que no son coherentes con el concepto de causa del universo. . . Esto implica que o existe alguna otra definición
(aún no descubierta) de una causa que es correcta o que una causa es indefinible. En el último caso, el concepto de causa
sería primitivo y la relación causal sería una relación simple conocida sólo por ostensión (como podría decirse que es el caso
de relaciones tales como estar en contacto con o ser anteriores a). No conozco ningún medio de descubrir o formular una
definición correcta de una causa y no conozco ninguna razón para pensar que existe tal definición. En consecuencia, creo que
es razonable concluir que la relación causal es indefinible. Una forma de evitar esta conclusión sería rechazar el supuesto de
que los diversos ejemplos de causas del Big Bang. . . son auténticos ejemplos de causas. . . Yo diría que afirma que la creación
de Dios de la singularidad del Big Bang y otros ejemplos dados. . . son casos de posible causalidad son contraintuitivos y son
intentos ad hoc de retener una teoría contraejemplo. Es más plausible pensar que no se puede definir una causa que pensar
que la creación de una singularidad del Big Bang por la mente no podría ser un acto causal ”(Smith 1993b: 1, 24). Smith llegó
a pensar que la relación de Dios con el Big Bang no es causal porque ninguna causa es lógicamente suficiente para su efecto.
Pero Smith no justifica por qué las acciones de un ser omnipotente no serían excepciones a esta regla. . son auténticos
ejemplos de causas. . . Yo diría que afirma que la creación de Dios de la singularidad del Big Bang y otros ejemplos dados. . .
son casos de posible causalidad son contraintuitivos y son intentos ad hoc de retener una teoría contraejemplo. Es más
plausible pensar que no se puede definir una causa que pensar que la creación de una singularidad del Big Bang por la mente
no podría ser un acto causal ”(Smith 1993b: 1, 24). Smith llegó a pensar que la relación de Dios con el Big Bang no es causal
porque ninguna causa es lógicamente suficiente para su efecto. Pero Smith no justifica por qué las acciones de un ser
omnipotente no serían excepciones a esta regla. . son auténticos ejemplos de causas. . . Yo diría que afirma que la creación de
Dios de la singularidad del Big Bang y otros ejemplos dados. . . son casos de posible causalidad son contraintuitivos y son
intentos ad hoc de retener una teoría contraejemplo. Es más plausible pensar que no se puede definir una causa que pensar
que la creación de una singularidad del Big Bang por la mente no podría ser un acto causal ”(Smith 1993b: 1, 24). Smith llegó
a pensar que la relación de Dios con el Big Bang no es causal porque ninguna causa es lógicamente suficiente para su efecto.
Pero Smith no justifica por qué las acciones de un ser omnipotente no serían excepciones a esta regla. son casos de posible
causalidad son contraintuitivos y son intentos ad hoc de retener una teoría contraejemplo. Es más plausible pensar que no
se puede definir una causa que pensar que la creación por la mente de una singularidad del Big Bang no podría ser un acto
causal ”(Smith 1993b: 1, 24). Smith llegó a pensar que la relación de Dios con el Big Bang no es causal porque ninguna causa
es lógicamente suficiente para su efecto. Pero Smith no justifica por qué las acciones de un ser omnipotente no serían
excepciones a esta regla. son casos de posible causalidad son contraintuitivos y son intentos ad hoc de retener una teoría
contraejemplo. Es más plausible pensar que no se puede definir una causa que pensar que la creación de una singularidad
del Big Bang por la mente no podría ser un acto causal ”(Smith 1993b: 1, 24). Smith llegó a pensar que la relación de Dios
con el Big Bang no es causal porque ninguna causa es lógicamente suficiente para su efecto. Pero Smith no justifica por qué
las acciones de un ser omnipotente no serían excepciones a esta regla. Smith llegó a pensar que la relación de Dios con el Big
Bang no es causal porque ninguna causa es lógicamente suficiente para su efecto. Pero Smith no justifica por qué las acciones
de un ser omnipotente no serían excepciones a esta regla. Smith llegó a pensar que la relación de Dios con el Big Bang no es
causal porque ninguna causa es lógicamente suficiente para su efecto. Pero Smith no justifica por qué las acciones de un ser
omnipotente no serían excepciones a esta regla.
24Véase Moreland (1998). Estoy en deuda con mi colega por varias discusiones interesantes relacionadas con la agencia y la
creación.
25 David Hume a John Stewart, febrero de 1754, en Greig (1932), 1: 187.
26 Tomás de Aquino Summa theologiae 1a.2.3.
Bibliografía
Atkins, PW (1992) Creación revisitada, Nueva York: WH Freeman.
Black, M. (1962) Revisión de La filosofía natural del tiempo, Scientific American 206, 181-183.
Bludman, SA (1984) 'Termodinámica y el fin de un universo cerrado', Nature 308, 319-22.
Borde, A. y Vilenkin, A. (1994) 'Eternal Inflation and the Initial Singularity', Physical Review Letters 72, 3305–3308
Broad, CD (1938) Un examen de la filosofía de McTaggart, 2 vols., Cambridge: Cambridge University Press.
Bunge, M. (1985) Tratado de Filosofía Básica, vol. 7: Epistemología y Metodología III: Filosofía de la Ciencia y la Tecnología: Parte I:
Ciencias Formales y Físicas, Dordrecht: D. Reidel.
Craig, WL (1990) Presciencia divina y libertad humana: La coherencia del teísmo I: Omnisciencia, Estudios de historia intelectual
19, Leiden: EJ Brill.
Craig, WL (1992) 'El origen y la creación del universo: una respuesta a Adolf Grünbaum', Revista británica de filosofía de la
ciencia 43: 2, 233–40.
Craig, WL (1994a) «Prof. Grünbaum sobre la creación », Erkenntnis 40: 3, 325–41.
Craig, WL (1994b) 'Una respuesta a Grünbaum sobre la creación y la cosmología del Big Bang', Philosophia naturalis 31, 237–49.
Craig, WL (1996a) 'Tense and the New B-Theory of Language', Philosophy 71, 5-26.
Craig, WL (1996b) 'El argumento de Tu Quoque de la nueva teoría B', Synthese 107, 249–69.
Craig, WL (1996c) "Atemporalidad y creación", Australasian Journal of Philosophy 74: 4, 646–56.
Craig, WL (1997) 'Cosmología y ateísmo de Hartle-Hawking', Análisis 57: 4, 291–95.
Craig, WL (1998a) 'La paradoja de McTaggart y el problema de los intrínsecos temporales', Análisis 58, 122-27
Craig, WL (1998b) 'Divine Timelessness and Personhood', Revista Internacional de Filosofía de la Religión 43: 2, 109-24.
Craig, WL (1999a) 'El tiempo tenso y nuestra experiencia diferencial del pasado y el futuro', Southern Journal of Philosophy 37,
515–37.
Craig, WL (1999b) "La actualidad de la experiencia", en M. Wegener (ed.) Tiempo, creación y orden mundial, Aarhus, Dinamarca:
University of Aarhus Press, 107-120.
Craig, WL (2000a) The Tensed Theory of Time: a Critical Examination, Synthese Library, Dordrecht: Kluwer Academic
Publishers.
Craig, WL (2000b) The Tenseless Theory of Time: a Critical Examination, Synthese Library, Dordrecht: Kluwer Academic
Publishers.
Craig, WL (2000c) 'Sobre las condiciones de verdad de los tipos de oraciones tensas', Synthese 120, 265-270.
Craig, WL (2000d) 'La extensión del presente', Estudios internacionales en la filosofía de la ciencia, 14, 165–86.
Craig, WL (2001) "Sobre desear que fuera ahora en otro momento", Filosofía e investigación fenomenológica 62, 159–66.
Craig, WL (2002) 'La eternidad divina y la teoría especial de la relatividad', en G. Ganssle y D. Woodruff (eds.) God and Time,
Nueva York: Oxford University Press, 129–52.
Craig, WL (2003) 'In Defense of Presentism', en eds., Aleksander Jokic y Quentin Smith, Time, Tense, and Reference, Cambridge,
Mass .: MIT Press, 390–408.
Craig, WL (de próxima publicación) 'Tooley on Tense and Temporal Priority', Analysis.
Davies, PCW (1978) 'Spacetime Singularities in Cosmology and Black Hole Evaporation', en The Study of Time III: Proceedings of
the Third Conference of the International Society for the Study of Time Alpbach - Austria, ed. JT Fraser, Nathaniel Morris
Lawrence; David Allen Park Nueva York: Springer-Verlag, Berlín, 74–91.
Davies, PCW (1995) 'El nacimiento del cosmos', en Jill Gready (ed.) Dios, cosmos, naturaleza y creatividad: las conferencias
Templeton, Universidad de Sydney 1991-1994, Edimburgo: Scottish Academic Press, 1-27.
DeWitt, BS (1983) 'Quantum Gravity', Scientific American 249, 6, diciembre, 104-115.
Dummett, M. (1960) "Una defensa de la prueba de la irrealidad del tiempo de McTaggart", Philosophical Review 69, 497-504.
Eddington, A. (1933), The Expanding Universe, Nueva York: Macmillan.
Einstein, A. (1952) 'Cosmological Considerations on the General Theory of Relativity', en A. Einstein et al. El principio de
relatividad, Nueva York: Publicaciones de Dover, 177–88.
Friedmann, A. (1922), «Über die Krümmung des Raumes», Zeitschrift für Physik 10, 377–86.
Gale, RM (1968a) 'The Static versus the Dynamic Temporal: Introduction', en RM Gale (ed.) The Philosophy of Time: A Collection
of Essays, Nueva Jersey: Humanities Press, 65–85.
Gale, RM (1968b) El lenguaje del tiempo, Biblioteca Internacional de Filosofía y Método Científico, Londres: Routledge y Kegan
Paul.
Gasperini, M. (1999) "Mirando hacia atrás en el tiempo más allá del Big Bang", Modern Physics Letters A 14:16, 1059-1066.
Gasperini, M. (2000) 'Inflación y condiciones iniciales en el escenario anterior al Big Bang' Physics Review D 61, 87301–87305.
Geach, P. (1972), 'Algunos problemas sobre el tiempo' en Logic Matters, Berkeley: University of California Press, 302-18.
Gott, JR III (1982) 'Creación de universos abiertos desde el espacio de Sitter', Nature 295, 304-307.
Gott, JR III y Li-Xin Li (1998) '¿Puede el universo crearse a sí mismo?' Revisión física D 58 (2), 23501–23544
Gott, JR III, Gunn, JE, Schramm, DN, Tinsley, BM (1976) 'Will the Universe Expand Forever?' Scientific American 234 (marzo), 62–
79.
Greig, JYT (ed.) (1932) Las cartas de David Hume, 2 vols., Oxford: Clarendon Press.
Gribbin, J. (1976) 'El universo oscilante rebota', Nature 259, 15-16.
Gribbin, J. (1986), En busca del Big Bang, Nueva York: Bantam Books.
Grünbaum, A. (1967) 'La anisotropía del tiempo', en T. Gold (ed.) La naturaleza del tiempo, Ithaca, NY: Cornell University Press,
149–86.
Grünbaum, A. (1989) 'El pseudo-problema de la creación en cosmología física', Filosofía de la ciencia 56, 373-94.
Grünbaum, A. (1991) 'La creación como una pseudoexplicación en la cosmología física actual', Erkenntnis 35, 233–54.
Grünbaum, A. (1994) 'Algunos comentarios sobre la “Creación y cosmología del Big Bang” de William Craig', Philosophia
naturalis 31: 2, 225–36.
Grünbaum, A. (2000) 'Una nueva crítica de las interpretaciones teológicas de la cosmología física', Revista británica de filosofía
de la ciencia, 51: 1, 1-43.
Guth, A. (1981) 'Universo inflacionario: una posible solución a los problemas del horizonte y la planitud' Revisión física D 23,
247–56.
Guth, A. y Sher, M. (1983) "La imposibilidad de un universo que rebota", Nature 302, 505–06.
Hartle, J. y Hawking, S. (1983) 'Función de onda del universo', Physical Review D 28, 2960–75.
Hasker, W. (1992) 'Evolución y Alvin Plantinga', Perspectivas sobre la ciencia y la fe cristiana 44, 150–62.
Hawking, SW (1988) Una breve historia del tiempo, Nueva York: Bantam Books.
Hawking, SW y Penrose, R. (1973) "Singularidades del espacio-tiempo", en SW Hacking y GFR Ellis (eds.) La estructura a gran
escala del espacio-tiempo, Cambridge: Cambridge University Press, 256–98.
Hawking, SW y Penrose, R. (1996) La naturaleza del espacio y el tiempo, Serie de conferencias del Instituto Isaac Newton,
Princeton: Princeton University Press.
Hick, J. (1960) 'Dios como ser necesario', Journal of Philosophy, 57: 22/23, 725–734.
Hochberg, D., Molina-Paris, C. y Visser, M. (1999) 'Los agujeros de gusano de Tolman violan la condición de energía fuerte',
Physical Review D 59, 44011–44019.
Hoyle, F. (1948) "Un nuevo modelo para el universo en expansión", Avisos mensuales de la Royal Astronomical Society 108, 372–
82.
Hoyle, F. (1975a) Astronomy Today, Londres: Heinemann.
Hoyle, F. (1975b) Astronomía y cosmología: un curso moderno, San Francisco: WH Freeman.
Hubble, E. (1929), 'Una relación entre la distancia y la velocidad radial entre nebulosas extragalácticas', Actas de la Academia
Nacional de Ciencias 15, 168–73.
Hume, D. (1947) Diálogos sobre la religión natural, ed. con una introducción de N. Kemp Smith, Indianápolis: Bobbs-Merrill.
Isham, C. (1988) 'La creación del universo como un proceso cuántico' en RJ Russell, WR Stoeger y GV Coyne (eds.) Física, filosofía
y teología: una búsqueda común de comprensión, Ciudad del Vaticano: Observatorio del Vaticano, 375– 408
Isham, C. (1990) 'Espacio, tiempo y cosmología cuántica' presentado en la conferencia 'Dios, tiempo y física moderna', marzo.
Isham, C. (1994) 'Quantum Cosmology and the Origin of the Universe', conferencia presentada en la conferencia 'Cosmos and
Creation', Universidad de Cambridge, 14 de julio.
Jaki, SL (1974) Ciencia y creación, Edimburgo: Scottish Academic Press.
Kanitscheider, B. (1990) '¿La cosmología física trasciende los límites del razonamiento naturalista?' en P. Weingartner y GJW
Doen (eds.) Estudios sobre el "Tratado" de Mario Bunge, Amsterdam: Rodopi, 337-50.
Lamaitre, G. (1927), «Un univers homogène de masse constante et de rayon croissant, rendant compte de la vitesse radiale des
nébuleuses extragalactiques», Annales de la Société scientifique de Bruxelles 47, 49–59.
Leftow, B. (1991) Time and Eternity, Cornell Studies in Philosophy of Religion, Ithaca, NY: Cornell University Press.
Leibniz, GW (1951), La monadología y otros escritos filosóficos, trad. Robert Latta, Londres: Oxford University Press.
Leslie, J. (1993) 'Is It All Quite Simple?', Times Literary Supplement, 29 de enero, 3-4.
Lewis, D. (1986) "Personas, moralidad y ausencia de tensión", Filosofía e investigación fenomenológica 47, 305–9.
Lifschitz, EM y Khalatnikov IM (1963) 'Investigaciones en cosmología relativista', Advances in Physics 12, 185–249.
Linde, AD (1983) 'Chaotic Inflation', Physics Letters 129, 177–81.
Linde, AD (1984) 'The Inflationary Universe', Reports on Progress in Physics 47, 925–86.
Linde, AD (2002) 'Cyclic Universe Runs into Criticism', Physics World, 8 de junio.
Linde, A., Linde, D. y Mezhlumian, A. (1994) "De la teoría del Big Bang a la teoría de un universo estacionario" Revisión física D
49, 1783-1826.
Loizou, A. (1986) La realidad del tiempo, Brookfield, Vt .: Gower.
Lowe, J. (2002) Una encuesta de metafísica, Oxford: Oxford University Press.
Malcolm, N. (1958) Ludwig Wittgenstein: A Memoir, Londres: Oxford University Press.
McGilvray, J. (1979) "Una defensa del devenir físico", Erkenntnis 14: 275–99.
Mellor, DH (1981) Tiempo real, Cambridge: Cambridge University Press.
Merricks, T. (1994) "Resistencia e indiscernibilidad", Journal of Philosophy 91, 165–84.
Hinchliff, M. (1994) 'The Puzzle of Change', documento presentado en la reunión de la División del Pacífico de la American
Philosophical Association, 2 de abril.
Moreland, JP (1994) 'Ciencia teísta y naturalismo metodológico', en JP Moreland (ed.) La hipótesis de la creación, Downer's
Grove, Ill .: Inter-Varsity Press, 41-66.
Moreland, JP (1998) 'La agencia libertaria y el debate Craig / Grünbaum sobre la explicación teísta de la singularidad inicial',
American Catholic Philosophical Quarterly 81, 539–54.
Moreland, JP, Meyer, SC y Bube, RH (1994) 'Problemas conceptuales y el estado científico de la ciencia de la creación: una
discusión', Perspectivas sobre la ciencia y la fe cristiana 46, 2–25.
Naber, GL (1988), Spacetime and Singularities: an Introduction, Cambridge: Cambridge University Press.
Novikov, ID y Zel'dovich, YB (1973) 'Procesos físicos cerca de singularidades cosmológicas', Revisión anual de astronomía y
astrofísica 11, 387–412.
Parfit, D. (1998) '¿Por qué algo? ¿Por qué esto?' London Review of Book, 20: 2, 24-27.
Penrose, R. (1965) "Colapso gravitacional y singularidades del espacio-tiempo", Physical Review Letters 14, 57–59.
Penrose, R. (1981) 'Time-Asymmetry and Quantum Gravity', en CG Isham, R. Penrose y DW Sciama (eds.) Quantum Gravity 2,
Oxford: Clarendon Press, 245-72.
Penrose, R. (1982) 'Algunas observaciones sobre la gravedad y la mecánica cuántica' en MJ Duff y CJ Isham (eds.) Estructura
cuántica del espacio y el tiempo, Cambridge: Cambridge University Press, 3–10.
Penrose, R. (1997) Lo grande, lo pequeño y lo humano, Cambridge: Cambridge University Press.
Plantinga, A. (1992) 'Sobre el rechazo de la teoría de la ascendencia común: una respuesta a Hasker', Perspectivas sobre la
ciencia y la fe cristiana 44, 258–63.
Plantinga, A. (1993) 'Methodological Naturalism', artículo presentado en el simposio 'Conociendo a Dios, Cristo y la naturaleza en
la era pospositivista', Universidad de Notre Dame, 14-17 de abril.
Plantinga, A., Van Till, HJ, Pun, P. y McMullin, E. (1991) 'Symposium: Evolution and the Bible', Christian Scholar's Review 21, 8–
109.
Post, J. (1991), Metafísica: una introducción contemporánea, Nueva York: Paragon House.
Antes, AN (1968) "Cambios en los eventos y cambios en las cosas", en Papers on Time and Tense, Oxford: Clarendon Press, 1-14.
Rees, M. (1997) Antes del comienzo, con un prólogo de S. Hawking, Reading, Mass .: Addison-Wesley.
Reeves, H., Audouze, J., Fowler, WA y Schramm, DN (1973) "Sobre el origen de los elementos de luz", Astrophysical Journal 179,
909-930.
Russell, B. y Copleston, FC (1964) "La existencia de Dios", en J. Hick (ed.) La existencia de Dios, Nueva York: Macmillan, 167-191.
Schlesinger, G. (1980) Aspectos del tiempo, Indianápolis: Hackett, 1980.
Señor, TD (1993) 'Divine Temporality and Creation ex nihilo', Faith and Philosophy 10, 86-92.
Shoemaker, S. (1969) 'Time without Change', Journal of Philosophy 66, 363-81.
Silk, J. (1989) The Big Bang, 2ª ed., San Francisco: WH Freeman.
Smith, Q. (1986) Los significados fieltro del mundo, Lafayette, Indiana: Purdue University Press.
Smith, Q. (1991) Language and Time, Nueva York: Oxford University Press.
Smith, Q. (1993a) 'The Uncaused Beginning of the Universe', en WL Craig y Q. Smith (eds.) Theism, Atheism, and Big Bang
Cosmology, Oxford: Clarendon Press, 108–40.
Smith, Q. (1993b) 'El concepto de una causa del universo', Canadian Journal of Philosophy 23, 1-24.
Smith, Q. (1996) 'La causalidad y la imposibilidad lógica de una causa divina', Temas filosóficos 24, 169–91.
Suárez, F. (2002) Sobre creación, conservación y concurrencia: “Disputas metafísicas 20, 21 y 22”, trad. con una introducción y
notas de AJ Freddoso, South Bend, Indiana: St. Augustine's Press.
Swinburne, R. (1991) La existencia de Dios, rev. ed. Oxford: Clarendon Press.
Tryon, E. (1973) "¿Es el universo una fluctuación del vacío?" Nature 246, 396–97
Van Inwagen, P. (1990) 'Four Dimensional Objects', Noûs 24, 245–55.
Vilenkin, A. (1982) 'Creación del universo a partir de la nada', Physical Letters B 117, 25-28.
Vilenkin, A. (1983) 'El nacimiento de los universos inflacionarios', Physical Review D 27, 2848–55.
Vries, P. de (1986) "Naturalismo en las ciencias naturales: una perspectiva cristiana", Christian Scholar's Review, 388-96.
Ward, K. (1996), Dios, azar y necesidad, Oxford: One World.
Weingard, R. (1982), 'Do Virtual Particles Exist?', En P. Asquith y T. Nichols (eds.) Proceedings of the Philosophy of Science
Association, 2 vols., East Lansing, Michigan: Philosophy of Science Association , 1, 235–42.
Wheeler, JA (1980) 'Más allá del agujero', en H. Woolf (ed.) Algo extraño en la proporción: un simposio del centenario para celebrar
los logros de Albert Einstein, Reading, Mass .: Addison-Wesley, 341–375.
Yates, JC (1990) La intemporalidad de Dios, Lanham, MD .: University Press of America.
Permisos
Gracias a los editores que se enumeran a continuación por su permiso para reimprimir material
previamente publicado para este volumen de la antología.
El permiso ha sido otorgado por John Wiley and Sons (http://www.wiley.com) para
reimprimir el siguiente material extraído:
William Lane Craig y James Sinclair, sección de “ciencia” extraída de “El argumento
cosmológico de Kalam”, en The Blackwell Companion to Natural Theology, 125–82, ed.
William Lane Craig y JP Moreland. Oxford: Blackwell, 2009.
Un agradecimiento especial al Dr. JR Gott y al Dr. Maurizio Gasperini por su permiso para
usar sus gráficos (Figura 1.3, Gott; 15 y 16, Gasperini) que se encuentran en el siguiente
ensayo: William Lane Craig y James Sinclair, sección "ciencia" extraída de "El argumento
cosmológico de Kalam", en The Blackwell Companion to Natural Theology, ed. William
Lane Craig y JP Moreland. Oxford: Blackwell, 2009. Gracias a James Sinclair por su
permiso para utilizar los otros gráficos y figuras de dominio no público en el resto de este
fragmento.
JB Pitts "Por qué la singularidad del Big Bang no ayuda al argumento cosmológico de Kalam
a favor del teísmo". Revista Británica de Filosofía de la Ciencia 59, no. 4 (Octubre de
2008): 675–708.
Macmillan y Palgrave Macmillan han otorgado permiso para reimprimir el siguiente material:
William Lane Craig y James Sinclair, "Sobre los tiempos espaciales no singulares y el
comienzo del universo". Con James Sinclair. En Scientific Approaches to the Philosophy of
Religion, 95-142. Ed. Yujin Nagasawa. Fronteras de Palgrave en la filosofía de la religión.
Londres: Macmillan, 2012. Reproducido con permiso de Palgrave Macmillan.
Taylor & Francis, Ltd. ha concedido permiso para la reimpresión del artículo fragmentado
"Beyond the Big Bang". Este fragmento fue tomado del siguiente ensayo:
William Lane Craig. "Naturalismo y cosmología", en Filosofía analítica sin naturalismo, 97-
133, ed. A. Corradini, S. Galvan y EJ Lowe, Estudios de Routledge en Filosofía
Contemporánea. Nueva York: Routledge, 2006.
La misma figura de JR Gott mencionada anteriormente se incluye en el ensayo extraído de
William Lane Craig, "Más allá del Big Bang" (Figura 11.1). Esta pieza fue tomada de
“Naturalism and Cosmology”, en Analytic Philosophy without Naturalism, 97-133, eds. A.
Corradini, S. Galvan y EJ Lowe, Estudios de Routledge en Filosofía Contemporánea. Nueva
York: Routledge, 2006.
Fred Adams y Gregory Laughlin, "Un universo moribundo: El destino a largo plazo y la
evolución de los objetos astrofísicos", Reseñas de la física moderna 69, no. 2 (Abril de
1997): 337–72.
Gracias a Fred Adams y Gregory Laughlin por permitirnos usar los gráficos de su artículo en esta
antología.
Gracias al editor de la revista Classical and Quantum Gravity, quien otorgó un permiso especial
para publicar el siguiente artículo:
Aron C. Wall, “La segunda ley generalizada implica un teorema de singularidad cuántica”,
arXiv: 1010.5513v3 [gr-qc] 12 de agosto de 2013. © IOP Publishing. Reproducido con
permiso. Reservados todos los derechos. Publicado el 12 de julio de 2013 • 2013 IOP
Publishing Ltd Classical and Quantum Gravity, Volumen 30, Número 16, 165003
El autor ha realizado correcciones posteriores a la versión publicada. Esta versión está
disponible en línea como arXiv: 1010.5513v5 y se está utilizando en esta antología.
Además, estamos agradecidos con Aron Wall, quien no solo otorgó permiso personal para
usar su artículo para esta antología, sino que proporcionó una versión revisada y
actualizada de su artículo para usar en la antología. (Blogs de pared sobre física y teología
en "Undivided Looking" -http://www.wall.org/~aron/blog/.)
Alexander Vilenkin, "El comienzo del universo". Inferencia: Revista Internacional de Ciencias
(2015).http://inference-review.com/article/the-beginning-of-the-universe.
Springer ha concedido permiso para reimprimir los siguientes artículos de Open Systems &
Information Dynamics:
Gábor Kutrovátz, “La muerte por calor en la termodinámica antigua y moderna”, Sistemas
abiertos y dinámica de la información 8, no. 4 (Diciembre de 2001): 349–59.
Doi:http://dx.doi.org/10.1023/A:1013901920999. Imprima ISSN 1230–1612. ISSN en
línea 1573–1324. Número de diario: 11080. Con permiso de Springer.
Un agradecimiento especial a Gábor Kutrovátz por el permiso para usar los gráficos de su
artículo antes mencionado.
Milan M. Cirkovic, “Entropía y escatología: un comentario sobre el artículo de Kutrovátz
'Muerte por calor en la termodinámica antigua y moderna',” Sistemas abiertos y dinámica
de la información 9, no. 3 (Septiembre de 2002): 291–99. Doi:http: //10.1023/A:
1019716815925. Imprima ISSN 1230–1612. ISSN en línea 1573–1324. Número de diario:
11080. Con permiso de Springer.
El permiso para reimprimir el siguiente artículo del American Catholic Philosophical Quarterly
ha sido otorgado por el Philosophy Documentation Center de Charlottesville, Virginia
(www.pdcnet.org):
JP Moreland, “La agencia libertaria y el debate Craig / Grünbaum sobre la explicación teísta
de la singularidad inicial”, American Catholic Philosophical Quarterly 71, no. 4 (Otoño de
1997): 539–54. DOI:http://dx.doi.org/10.5840/acpq199771419
The Permissions Company, Inc., ha otorgado permiso para reimprimir el siguiente ensayo:
Quentin Smith, “La causalidad y la imposibilidad lógica de una causa divina” de Temas
filosóficos 21, no. 1 (Primavera de 1996): 169–91. Copyright © 1996 por los
Fideicomisarios de la Universidad de Arkansas. Reimpreso con el permiso de The
Permissions Company, Inc., en nombre de University of Arkansas
Press,http://www.uapress.com.
Índice
Justo, D. aquí
decaimiento de vacío falso aquí
Feynman, R. aquí, aquí
Diagrama de Feynman aquí
función de masa final aquí-aquí, aquí, aquí
GLS de grano fino aquí-aquí, aquí, aquí, aquí, aquí, aquí
Primera antinomia aquí
Primer movimiento aquí
Fischler, W. aquí aquí, aquí, aquí aquí
"Cinco caminos" (Aquino) aquí-aquí
Voló, A. aquí
Cuarto Concilio de Letrán aquí-aquí, aquí
Frampton, P. aquí-aquí, aquí-aquí, aquí aquí
Freivogel, B. aquí
Ecuación de Friedman, modificada aquí-aquí
Friedmann, A. aquí, aquí-aquí, aquí
Modelo de Friedmann-Lemaître aquí-aquí, aquí
Cosmología de Friedmann-Robertson-Walker (FRW) aquí-aquí
Universo Friedman aquí
estrellas congeladas aquí
horizonte futuro aquí, aquí, aquí, aquí
Jurkiewicz, J. aquí
Lakatos, I. aquí
Laughlin, G. aquí
Leftow, B. aquí, aquí aquí
Leibniz, GW aquí, aquí, aquí-aquí, aquí
Argumento cosmológico leibniziano aquí
Intuición leinbiziana aquí, aquí
LeMaître, G. aquí, aquí
Leslie, J. aquí aquí
Lewis, D. aquí, aquí, aquí, aquí
agencia libertaria aquí, aquí-aquí
Linde, A. aquí, aquí, aquí aquí, aquí aquí
Li-Xin Li aquí, aquí aquí-aquí, aquí, aquí aquí, aquí, aquí
Locke aquí, aquí
Loll, R. aquí, aquí
evolución a largo plazo del universo y aquí-aquí
campos de radiación de fondo y aquí-aquí
expansión futura del universo cerrado y aquí
fluctuaciones de densidad y expansión del universo plano y abierto y aquí-aquí
inflación y futuro del universo y aquí-aquí
efectos posibles de la densidad de energía de vacío y aquí-aquí
cosmología cuántica de bucle aquí-aquí
bucle de gravedad cuántica (LQG) aquí-aquí, aquí-aquí, aquí, aquí aquí, aquí aquí, aquí, aquí
Métrica de Lorentzian aquí, aquí
Lucrecio aquí
Nagel, T. aquí-aquí
naturalismo aquí, aquí aquí
objeciones de aquí-aquí
La naturaleza del espacio y el tiempo (Hawking y Penrose)aquí, aquí
Presión negativa aquí
gas neutrino aquí
desintegración de neutrones, diagrama de Feynman para aquí
estrellas de neutrones aquí
impulsado por la desintegración de protones aquí-aquí
Newton, yo. aquí, aquí
Modelo "sin límites" aquí, aquí-aquí, aquí, aquí
relación nomológica aquí-aquí
tiempos espaciales no singulares y comienzo del universo aquí-aquí
universo asintóticamente estático y aquí-aquí
posición atemporalista aquí-aquí
universo eternamente cíclico y aquí-aquí
universo en expansión y aquí-aquí
universo que se contrae infinitamente y aquí-aquí
argumento de singularidad y aquí-aquí
inversión de la flecha del tiempo y aquí-aquí
el comienzo del universo y aquí-aquí
condición de convergencia nula aquí-aquí, aquí aquí
Página, D. aquí
Pagels, H. aquí
Parikh, M. aquí, aquí
aniquilación de partículas, en universo abierto aquí-aquí
Penrose, R. aquí, aquí, aquí, aquí, aquí, aquí aquí, aquí, aquí-aquí, aquí, aquí
Diagrama de Penrose aquí-aquí
Cosmogonías del "rebote fantasma" aquí, aquí aquí, aquí aquí
energía fantasma, ver energía oscura
Philoponus, J. aquí, aquí
escatología física y sistemas abiertos aquí-aquí
Pitts, JB aquí, aquí aquí, aquí-aquí, aquí-aquí, aquí, aquí, aquí aquí-aquí, aquí-aquí aquí, aquí aquí
Entropía de Planck aquí
el destino de los planetas, durante la muerte galáctica aquí-aquí
Plantinga, A. aquí, aquí
Platón aquí
Plutarco aquí aquí
Polchinski, J. aquí
Polkinghorne, J. aquí
Papa Juan Pablo II aquí
teorema de la energía positiva aquí-aquí
formación y desintegración de positronio aquí
Publicar, J. aquí
distinción potencia-acto, de Aristóteles aquí
potencial infinito aquí
escenario anterior al Big Bang aquí, aquí, aquí, aquí aquí, aquí aquí, aquí, aquí, aquí, aquí, aquí, aquí, aquí, aquí, aquí, aquí
inflación anterior al Big Bang (PBBI) aquí-aquí, aquí aquí
Principio de razón suficiente aquí
desintegración de protones aquí-aquí
Diagrama de Feynman para aquí
orden superior aquí-aquí
en planetas aquí
reacciones piconucleares aquí, aquí, aquí
Yates, J. aquí
www.bloomsbury.com
Reservados todos los derechos. Ninguna parte de esta publicación puede ser reproducida o transmitida en cualquier forma o por
cualquier medio, electrónico o mecánico, incluyendo fotocopias, grabaciones o cualquier sistema de almacenamiento o
recuperación de información, sin el permiso previo por escrito de los editores.
Bloomsbury o los editores no pueden aceptar ninguna responsabilidad por las pérdidas causadas a cualquier individuo u
organización que actúe o se abstenga de actuar como resultado del material de esta publicación.