Está en la página 1de 401

Tabla de contenido

Medio título
Serie
Título
Contenido
Agradecimientos
Prefacio
Introducción Paul Copan
Versiones del argumento cosmológico
El KCA
Argumentos deductivos
Argumentos inductivos
Esta colección de dos volúmenes
Resúmenes de los capítulos del argumento cosmológico de Kalām: evidencia científica del
comienzo del universo
1 El argumento cosmológico de Kalām: Extracto de la “ciencia” William Lane Craig y James D.
Sinclair
2.3 Confirmación científica
2.31 El modelo estándar de Big Bang caliente
2.32 Evidencia de la relatividad general
2.33 Excepciones a los teoremas de Hawking-Penrose
Cerré curvas temporales
II. Inflación eterna
IIIa. Contracción infinita
IIIb Espacio-tiempo asintóticamente estático
IIIc Universo cíclico
IIId ¿Una cuarta alternativa ?: Deconstrucción del tiempo
Resumen de la sección III
IV Gravedad cuántica
IVa. Modelos de cuerdas
IVa (i). Inflación anterior al Big Bang (PBBI)
IVa (ii) Ekpyrótico / cíclico
Gravedad cuántica de bucle IVb
IVc Creación semiclásica ex nihilo modelos
2.34 Resumen
2 Por qué la singularidad del Big Bang no ayuda al argumento cosmológico de Kalām a favor del
teísmo J. Brian Pitts
1. Introducción
2 La doctrina de la creación y su justificación
3 Cardinalidad y tamaños del infinito
4 Cosmología y creación modernas
5 ¿Tolerancia o intolerancia hacia las singularidades?
6 ¿Leibniz contra un relojero incompetente?
7 ¿Inducción del colapso de teorías anteriores?
8 El colapso estelar implica un destructor teísta
9 Apilado de la plataforma para GTR
10 La gravedad cuántica tiende a resolver singularidades
11 personaje vicioso Dios de los huecos
12 Garantía fluctuante o inaccesible
13 La cosmología del Big Bang no es especialmente compatible con la fe
Expresiones de gratitud
3 Sobre los espaciotiempos no singulares y el comienzo del universo William Lane Craig y James
D. Sinclair
1.0 Introducción
2.0 El argumento de la singularidad formulado
3.0 El argumento de la singularidad evaluado
3.1 Valoración de la premisa (8)
3.2 Evaluación de la premisa (9)
4.0 Evidencia física para la premisa (2)
4.1 Modelos, metodología y su uso
4.2 Universo en expansión
4.3 Universo que se contrae infinitamente
4.4 Universo asintóticamente estático
4.5 Universo eternamente cíclico
4.6 Flecha del tiempo inverso
5.0 El comienzo del universo
6.0 Observaciones finales
Expresiones de gratitud
4 El comienzo del universo Alexander Vilenkin
El teorema de la singularidad de Penrose
Inflación eterna
El teorema de Borde-Guth-Vilenkin
Prueba de dios
Un misterio irresoluble
Apéndice: Detalles matemáticos
5 Un universo moribundo: el destino a largo plazo y la evolución de los objetos astrofísicos Fred
C. Adams y Gregory Laughlin
I. Introducción
II El fin de la evolución estelar convencional
Una vida de estrellas de la secuencia principal
B Próximos efectos de metalicidad
1 Vida útil estelar vs metalicidad
2 masas estelares vs metalicidad
C El destino de la Tierra y el Sol
D Continuación de la formación de estrellas en la galaxia.
E La función de masa final
III Muerte de la galaxia
Una relajación dinámica de la galaxia
B Radiación gravitacional y decadencia de órbitas
C Formación de estrellas a través de colisiones de enanas marrones
1 Escalas de tiempo de colisión
2 secciones transversales de colisión
3 Simulaciones numéricas y otros resultados
D El tiempo de acreción del agujero negro
E Aniquilación y captura de halo de materia oscura.
F El destino de los planetas durante la muerte galáctica.
IV Destino a largo plazo de los objetos estelares degenerados
Una desintegración de protones
B Enanas blancas impulsadas por la desintegración de protones
C Evolución química en enanas blancas
D Fases finales de la evolución de la enana blanca
E Estrellas de neutrones impulsadas por la desintegración de protones
F Desintegración de protones de orden superior
La radiación de G Hawking y la desintegración de los agujeros negros
H Desintegración de protones en planetas
V Evolución a largo plazo del universo
Una expansión futura de un universo cerrado
B Fluctuaciones de densidad y expansión de un universo plano o abierto
C La inflación y el futuro del universo
D Campos de radiación de fondo
E Posibles efectos de la densidad de energía del vacío
1 Épocas inflacionarias futuras
2 Procesos de tunelización
F Especulaciones sobre la producción de energía y entropía en el futuro lejano
1 Formación y desintegración continua de agujeros negros.
2 Aniquilación de partículas en un universo abierto
3 Formación y desintegración del positronio.
VI Resumen y discusión
Un resumen de resultados
B Eras del universo futuro
C Implicaciones experimentales y teóricas
D Entropía y muerte por calor
Expresiones de gratitud
6 Muerte por calor en termodinámica antigua y moderna Gábor Kutrovátz
1 El problema de la muerte por calor: una introducción histórica
2 La antigua solución
3 La solución moderna
3.1 Extropía
3.2 El universo modelo
3.3 Evolución del universo modelo
3.4 Más allá del modelo
4. Conclusión
7 Entropía y escatología: un comentario sobre el artículo de Kutrovátz "La muerte por calor en
la termodinámica antigua y moderna" Milan M. Ćirković
1. Introducción
2 Respuesta alternativa al problema de la muerte por calor
3 Cosmología moderna y algunos errores en el relato de Kutrovátz
3.1 El campo gravitacional como principal fuente de entropía
3.2 Capacidades termodinámicas de los sistemas gravitantes
3.3 Universos abiertos frente a universos cerrados y constante cosmológica
3.4 Extropía en universos abiertos y la definición de muerte por calor
4 Discusión: escatología física y sistemas abiertos
Expresiones de gratitud
8 La segunda ley generalizada implica un teorema de singularidad cuántica Aron C. Wall
1. Introducción
2 La segunda ley de la termodinámica
2.1 La segunda ley ordinaria
2.2 La segunda ley generalizada
3 Teoremas de termodinámica generalizada
3.1 Propiedades de monotonicidad de la entropía generalizada
3.2 Superficies cuánticas atrapadas
4 aplicaciones
4.1 Agujeros negros y bebés
4.2 Big bangs y comienzos
4.3 Discos de deformación y objetos de masa negativa
4.4 Máquinas del tiempo
5 ¿Sigue funcionando para la gravedad cuántica?
5.1 Fluctuaciones de entropía
5.2 Geometrías cuánticas
6. Conclusión
Expresiones de gratitud
Apéndice
conclusión Por lo tanto, el universo tiene una causa
9 La agencia libertaria y el debate Craig / Grünbaum sobre la explicación teísta de la
singularidad inicial JP Moreland
10 La causalidad y la imposibilidad lógica de una causa divina Quentin Smith
1. Introducción
2 Definiciones causales y la noción de causa divina originaria
Definición de causa de Hume
(a) Prioridad temporal
(b) Continuidad espacio-temporal
(c) Relación nominal
Definición singularista de causa de Ducasse
La definición de transferencia de una causa
Definiciones contrafácticas de causalidad
3 Causas y condiciones lógicamente suficientes
La teoría de la causalidad de Sosa
4 Descripciones analógicas y literales
Una formulación literal de la relación divina con el big bang.
5 Objeciones a los argumentos de que Dios no puede ser una causa
Primera objeción
Segunda objeción
Tercera objeción
Cuarta objeción
6 Conclusión: Argumentos cosmológicos y teleológicos para la inexistencia de Dios
11 Más allá del Big Bang William Lane Craig
Las alternativas ante nosotros
La alternativa sobrenaturalista
Objeciones naturalistas
Conclusión
Permisos
Índice
Derechos de autor
El argumento cosmológico de Kalām
Traducido por: Ariel Villca Ticona
Estudios de Bloomsbury en Filosofía de la Religión

Editor de la serie: Stewart Goetz


Consejo editorial: Thomas Flint, Robert Koons, Alexander Pruss, Charles Taliaferro, Roger Trigg,
David Widerker y Mark Wynn

Títulos de la serie

Libertad, teleología y maldad de Stewart Goetz


La imagen en mente: teísmo, naturalismo e imaginación por Charles Taliaferro y Jil Evans
Actualidad, posibilidad y mundos por Alexander Robert Pruss
El arco iris de experiencias, confianza crítica y Dios por Kai-man Kwan
La filosofía y la cosmovisión cristiana: análisis, evaluación y desarrollo editado por David Werther
y Mark D. Linville
Bondad, Dios y maldad por David E. Alexander
Bienestar y teísmo: vinculando la ética con Dios por William A. Lauinger
Pensando a través del sentimiento: Dios, emoción y pasibilidad por Anastasia Philippa Scrutton
La victoria final de Dios: un caso filosófico comparativo para el universalismo por John Kronen y
Eric Reitan
El libre albedrío en la teología filosófica por Kevin Timpe
¿Más allá del control de Dios? editado por Paul M. Gould
The Mechanics of Divine Presknowledge and Providence editado por T.Ryan Byerly
The Kalām Cosmological Argument: Philosophical Arguments for the Finitude of the Pasado
editado por Paul Copan con William Lane Craig
El argumento cosmológico de Kalām: evidencia científica para el comienzo del universo editado
por Paul Copan con William Lane Craig
El argumento cosmológico de Kalām

Evidencia científica del comienzo del universo

Editado por Paul Copan con William Lane Craig

Traducido por: Ariel Villca Ticona

Académico de Bloomsbury
Una huella de Bloomsbury Publishing Plc
Contenido

Agradecimientos
Prefacio

Introducción Pablo Copán


Confirmación científica
2.3 El argumento inductivo basado en la expansión del universo

1 El Kalām Argumento cosmológico: extracto de "ciencia" William Lane Craig y James D.


Sinclair
2 Por qué la singularidad del Big Bang no ayuda al Kalām Argumento cosmológico a favor del
teísmo J. Brian Pitts
3 Sobre los espaciotiempos no singulares y el comienzo del universo William Lane Craig y
James D. Sinclair
4 El comienzo del universo Alexander Vilenkin

2.4 El argumento inductivo basado en las propiedades termodinámicas del universo

5 Un universo moribundo: el destino a largo plazo y la evolución de los objetos astrofísicos


Fred C. Adams y Gregory Laughlin
6 Muerte por calor en termodinámica antigua y moderna Gábor Kutrovátz
7 Entropía y escatología: un comentario sobre el artículo de Kutrovátz "La muerte por calor
en la termodinámica antigua y moderna" Milan M. Ćirković
8 La segunda ley generalizada implica un teorema de singularidad cuántica Aron C. Wall

Conclusión Por tanto, el universo tiene una causa

9 La agencia libertaria y el debate Craig / Grünbaum sobre la explicación teísta de la


singularidad inicial JP Moreland
10 La causalidad y la imposibilidad lógica de una causa divina Quentin Smith
11 más allá del Big Bang William Lane Craig

Permisos
Índice
Agradecimientos

Me gustaría expresar mi gratitud a Haaris Naqvi de Bloomsbury por ayudarme a llevar este
volumen hasta su publicación. Gracias también a Stewart Goetz, editor de filosofía de la religión
de Bloomsbury, por recomendar la publicación de la propuesta. Ha sido un placer trabajar con la
editora de Bloomsbury, Katherine De Chant, y la directora de proyectos de Deanta Global,
Leeladevi Ulaganathan, quienes han sido amables e ingeniosos. Aprecio mucho al editor de
producción de Bloomsbury, James Tupper, por su trabajo entre bastidores. Estoy en deuda con
Mark Nowacki, Alexander Pruss y James Sinclair, quienes ofrecieron útiles recomendaciones
sobre los artículos que se incluirán en esta antología de dos volúmenes. Un agradecimiento
especial a William Lane Craig, quien ofreció sabios consejos y sugerencias útiles durante el
proceso de producción de la antología. Agradezco a Aron Wall por trabajar para hacerme llegar
su artículo revisado, así como a Steven Wheeler, editor de Inference, por hacer provisiones
especiales sobre el ensayo de Alexander Vilenkin. Agradezco el trabajo diligente de David S.
Oderberg, Andrew Loke y Robert C. Koons, por poner a disposición ensayos originales para los
volúmenes de esta antología. Gracias a Tim Bayless y Lee Koz por su ayuda muy práctica en el
proceso de permisos. Estoy agradecido con mi universidad, Palm Beach Atlantic University, por
concederme un año sabático para dedicar tiempo a la redacción y edición, y a Wycliffe Hall, de la
Universidad de Oxford, por su invitación a ser un académico visitante allí durante los mandatos
de Hilary y Trinity de 2017. Por último, también reconozco mi deuda con mi difunto mentor y
amigo, Stuart C. Hackett: Requiescat in pace.
Prefacio

Este es el segundo volumen de una antología sobre el argumento cosmológico kalām medieval,
pero recientemente revivido, de la existencia de Dios. Este argumento sostiene que la serie de
eventos pasados es finita, que por lo tanto el universo comenzó a existir y que la causa del
universo debe ser personal.
Este argumento ha recibido viento fresco en sus velas de dos descubrimientos científicos
recientes que han producido evidencia física prima facie plausible para el comienzo del universo.
La expansión del universo apunta a su comienzo, a un Big Bang, cuando uno vuelve sobre la
expansión del universo en el tiempo. Y la segunda ley de la termodinámica, que implica que la
energía del universo se degrada progresivamente, sugiere que el universo comenzó con una
condición inicial de baja entropía.
En contraste con el primer volumen de esta antología, este volumen en particular revisa y
evalúa los méritos de las últimas evidencias científicas para el comienzo del universo. La última
parte de este libro es una discusión de la conclusión del argumento kalām: que el universo tiene
una causa, de hecho, una causa personal con propiedades de importancia teológica.
La Introducción a este volumen no solo presenta una descripción general del argumento
cosmológico kalām, su trasfondo y su reciente resurgimiento (como lo hace la Introducción en el
volumen complementario); pero también proporciona resúmenes de los capítulos de los ensayos
sobre el apoyo inductivo (científico) de la segunda premisa del argumento y la conclusión del
mismo.
Confío en que este trabajo y su volumen complementario, El argumento cosmológico de Kalām:
argumentos filosóficos para la finitud del pasado, proporcionarán una presentación atractiva y
fresca de este argumento perdurable a favor de la existencia de Dios desde el punto de vista de
sus partidarios y oponentes.
Introducción

Pablo Copán

En 1979 William Lane Craig publicó The Kalām Cosmological Argument.1Al igual que la
Investigación de Hume, salió muerto de las imprentas y se agotó de inmediato. Pero a lo largo de
las décadas transcurridas desde su primera publicación, su influencia ha crecido de manera
constante hasta el día de hoy; el argumento cosmológico kalām (KCA) se ha convertido en uno
de los argumentos más debatidos de la teología natural. Quentin Smith, escribiendo en The
Cambridge Companion to Atheism (2006), observa,
Un recuento de los artículos en las revistas de filosofía muestra que se han publicado más
artículos sobre la defensa de Craig del argumento de Kalam que los que se han publicado
sobre la formulación contemporánea de cualquier otro filósofo de un argumento a favor de
la existencia de Dios. Sorprendentemente, esto es válido incluso para el argumento
ontológico de Plantinga y el argumento de Plantinga de que el teísmo es una creencia básica
racionalmente aceptable. El hecho de que tanto los teístas como los ateos “no pueden dejar
el argumento Kalam de Craig solo” sugiere que puede ser un argumento de interés filosófico
inusual o que tiene un atractivo núcleo de plausibilidad que hace que los filósofos vuelvan a
él y lo examinen de nuevo.2

Craig ha continuado desarrollando el argumento del libro original (ahora de nuevo impreso),
revisándolo, actualizándolo y completándolo y respondiendo a las críticas publicadas.3
El interés de Craig por la KCA (cuya procedencia se explicará en un momento) se despertó en
1971 con la lectura de un libro poco conocido del filósofo cristiano Stuart C. Hackett (1925-
2012).4 titulado La resurrección del teísmo (1957). 5 En su libro, Hackett llamó la atención sobre
esta versión en gran parte olvidada del argumento cosmológico. 6Hackett argumentó que una
regresión temporal infinita de eventos —una serie de causas y efectos pasados— es imposible.
Aunque una serie infinita puede ser concebible en matemáticas sin contradicción, implica "auto-
contradicción en el reino del ser", el reino de los existentes reales. El escribio:
De hecho, estamos familiarizados con la serie infinita en matemáticas: por ejemplo. . . -3, -2, -
1, 0, 1, 2, 3. . .; y no decimos que tal serie implique autocontradicción. ¿Por qué, entonces,
deberíamos decir que tal serie implica auto-contradicción en el reino del ser?
Concibo que será una respuesta suficiente a esta objeción si demuestro que la hipótesis
de una serie infinita de existentes reales implica auto-contradicción. Este es precisamente el
caso, ya que tal serie consta de partes determinadas o no. Si no es así, la serie no tendría
aplicabilidad al universo presente, ya que, tanto espacial como temporalmente, el universo
manifiesto total consta de partes determinadas. Pero si la serie propuesta está así constituida
por tales partes, la auto-contradicción está manifiestamente involucrada: porque ninguna
serie de partes determinadas podría sumar una serie realmente infinita. Sin embargo, tal
serie realmente infinita debe existir a menos que la serie culmine en el ser absolutamente
autocondicionado o en Dios, lo cual es contrario a la hipótesis de que la serie es realmente
infinita. Es más, supongamos que existe una serie tan infinita de causas y efectos. En cualquier
momento dado, la serie sería infinita, pero mayor que en cualquier momento anterior: pero
esto es contradictorio, ya que una serie realmente infinita no admite aumento o disminución.
Por lo tanto, o la serie no es infinita, o la progresión de los eventos temporales es una ilusión;
pero entonces no hay forma de explicar la ilusión. Por lo tanto, concluyo que una serie infinita
de existentes reales es inconcebible porque se contradice en sí misma y que, por lo tanto, la
objeción es inválida. Y si alguien negara que aquí se aplica la ley de la contradicción, respondo
que este tipo de objeciones se aniquilan a sí mismas. aún mayor que en cualquier momento
anterior: pero esto es contradictorio ya que una serie realmente infinita no admite aumento
o disminución. Por tanto, o la serie no es infinita, o la progresión de los acontecimientos
temporales es una ilusión; pero entonces no hay forma de explicar la ilusión. Por lo tanto,
concluyo que una serie infinita de existentes reales es inconcebible porque se contradice en
sí misma y que, por lo tanto, la objeción es inválida. Y si alguien niega que aquí se aplica la ley
de la contradicción, respondo que este tipo de objeciones se aniquilan a sí mismas. aún mayor
que en cualquier momento anterior: pero esto es contradictorio, ya que una serie realmente
infinita no admite aumento o disminución. Por lo tanto, o la serie no es infinita, o la
progresión de los eventos temporales es una ilusión; pero entonces no hay forma de explicar
la ilusión. Por lo tanto, concluyo que una serie infinita de existentes reales es inconcebible
porque se contradice en sí misma y que, por lo tanto, la objeción es inválida. Y si alguien
negara que aquí se aplica la ley de la contradicción, respondo que este tipo de objeciones se
aniquilan a sí mismas. Por lo tanto, concluyo que una serie infinita de existentes reales es
inconcebible porque se contradice en sí misma y que, por lo tanto, la objeción es inválida. Y
si alguien negara que aquí se aplica la ley de la contradicción, respondo que este tipo de
objeciones se aniquilan a sí mismas. Por lo tanto, concluyo que una serie infinita de existentes
reales es inconcebible porque se contradice en sí misma y que, por lo tanto, la objeción es
inválida. Y si alguien niega que aquí se aplica la ley de la contradicción, respondo que este
tipo de objeciones se aniquilan a sí mismas.7

Lo que Hackett llamó una “auto-contradicción en el reino del ser” se llamaría hoy una
imposibilidad metafísica. Craig estaba particularmente intrigado por la noción de que una
regresión infinita de eventos pasados, aunque no estrictamente lógicamente imposible, podría
ser metafísicamente imposible.
Como antecedente para el compromiso con el argumento de Hackett, Craig se comprometió a
estudiar la historia del argumento cosmológico de la existencia de Dios. Como resultado, propuso
una taxonomía triple de argumentos cosmológicos que ha sido ampliamente adoptada: el
argumento cosmológico tomista, el argumento cosmológico leibniziano y el argumento
cosmológico kalām.8

Versiones del argumento cosmológico


A diferencia de la escuela monista Advaita Vedanta del hinduismo, que niega la existencia de un
mundo externo (como maya, "ilusión") y afirma la conciencia pura de Brahman como la única
realidad, los argumentos cosmológicos dan por sentado el hecho de la existencia del universo.
Además, apuntan a mostrar que debe existir, o probablemente existe, una Primera Causa o Razón
Suficiente para la existencia del mundo o universo. El argumento concluye que una Causa debe
ser responsable en última instancia de la contingencia, el cambio, el movimiento, la causalidad
dentro del universo o con referencia a la existencia del universo (kosmos) en sí mismo. Además
de Platón y Aristóteles, otros notables que han defendido el argumento cosmológico incluyen a
John Philoponus, ibn Sīna, al-Ghāzālī, Maimónides, Anselmo, Aquino, Buenaventura, Escoto,
Descartes, Spinoza, Leibniz y Locke.
El argumento cosmológico tomista lleva el nombre del filósofo y teólogo medieval Tomás de
Aquino. Sin embargo, fue Aristóteles quien proporcionó a Tomás la estructura metafísica que
inspiró su formulación de las "Cinco Vías", o supuestas "pruebas" de la existencia de Dios. Las
primeras tres formas (respectivamente) defienden a Dios desde el movimiento, la causalidad de
la existencia y las entidades contingentes y necesarias. El suyo no es un argumento a favor de un
comienzo temporal del universo, que Tomás de Aquino pensó que no podía demostrarse o
probarse (Tomás de Aquino rechazó los simples argumentos de probabilidad). De hecho, el
comienzo del universo es como la doctrina de la Trinidad, un asunto especialmente revelado en
las Escrituras y aceptado por la fe.
Más bien, el de Aquino es una especie de argumento metafísico. Dios, que no tiene
potencialidad pero es pura actualidad, debe existir para llevar la potencialidad a la actualidad.
Además, sólo un ser necesario, no causado, cuya esencia y existencia son idénticas —lo que es el
ser (esse) mismo— podría ser el fundamento de la existencia de todas las cosas contingentes que
participan o tienen ser (habens esse).
Siguiendo la distinción de potencia-acto de Aristóteles, Aquino se refiere al movimiento, con lo
que se refiere a provocar algo que es, digamos, potencialmente caliente a ser realmente caliente.
En última instancia, el cambio debe provenir de algo inmutable y sin potencialidad, es decir, Dios.
Dios es ipsum esse subsistens, el ser subsistente en sí mismo, un ser cuya esencia es la existencia.
Así, una serie infinita de lo que él llamó causas esencialmente ordenadas es imposible (por
ejemplo, un martillo que se hace para clavar un clavo, que es movido por un brazo, que es movido
por la elección de un agente personal, etc.). O considere el movimiento de un tren: el movimiento
simultáneo de los vagones no puede explicarse por el movimiento del vagón precedente, sino
por el motor en la parte delantera. Asimismo, Dios, la Causa última y el Motor Inmóvil, es
responsable de la actualización del potencial:9
Aunque superficialmente similar, el argumento cosmológico leibniziano es crucialmente
diferente del argumento tomista. Sin fundamentar su argumento en la metafísica aristotélica-
tomista, Leibniz comenzó con la "primera pregunta que debería hacerse correctamente", a saber,
"¿Por qué hay algo en lugar de nada?"10 Para responder a esta pregunta, apeló al Principio de
Razón Suficiente: "Ningún hecho puede ser real o existente, ningún enunciado verdadero, a
menos que haya una razón suficiente por la que sea así y no de otra manera". 11
Esto está en marcado contraste con la afirmación de Bertrand Russell de que la existencia del
universo es un hecho bruto: "El universo está ahí, y eso es todo". 12Leibniz rechazó tal idea, no
solo para el universo sino también para Dios. Las cosas contingentes existen en virtud de algo
independiente de ellas. Por ejemplo, todos los constituyentes o estados del universo no se
explican por sí mismos, ya que son contingentes. Una regresión infinita de eventos contingentes
todavía no da cuenta de la serie completa de eventos, o de todas las entidades contingentes que
componen el universo. El simple hecho de encadenar cosas contingentes no las hace necesarias.
Esto sería como hacer un juego de cheques: una persona sin dinero en el banco escribe el Cheque
A para cubrir sus deudas urgentes y luego el Cheque B para cubrir el Cheque A, y así
sucesivamente. Por el contrario, Dios, un ser necesario, es autosuficiente y se explica por sí
mismo, y no necesita nada fuera de sí mismo para dar cuenta de su existencia. De hecho, la
existencia necesaria está ligada a su naturaleza: como el ser más grande concebible, Dios no
puede no existir. Entonces, además de ser la razón suficiente de todas las entidades contingentes,
Dios, en virtud de su propia naturaleza, es la razón suficiente de su propia existencia.

Aunque inicialmente se mostró escéptico de la versión de Leibniz del argumento, Craig


finalmente llegó a formular y defender un argumento leibniziano de la siguiente manera:

I. Todo lo que existe tiene una explicación de su existencia, ya sea en la necesidad de su


propia naturaleza o en una causa externa.
II. Si el universo tiene una explicación de su existencia, esa explicación es Dios.
III. El universo existe.
IV. Por tanto, la explicación de la existencia del universo es Dios. 13

Pero esa es una historia para otro día; nuestro interés radica en el tercer tipo de argumento
cosmológico identificado por Craig.
La KCA es la versión del argumento cosmológico que Craig encontró detrás del argumento de
Hackett. "Kalām", árabe para "palabra", vino a denominar la teología filosófica perseguida por
los escolásticos islámicos medievales. Los defensores de esta versión del argumento, que se
remontan al comentarista aristotélico John Philoponus en la Alejandría preislámica,
argumentaron en contra de la posibilidad de una regresión temporal infinita de eventos;
sostenían, más bien, que el universo llegó a ser un tiempo finito. atrás. El argumento apunta a
mostrar que una regresión temporal infinita de eventos es imposible y que, por lo tanto, el
universo comenzó a existir sin una causa material. Junto con el principio causal de que todo lo
que comienza a existir tiene una causa, este hecho implica que el universo tiene una causa
trascendente (eficiente) de su existencia.

El KCA
El filósofo musulmán al-Ghāzālī presentó la KCA en esta forma simple: “Todo ser que comienza
tiene una causa para su comienzo; ahora el mundo es un ser que comienza; por lo tanto, posee
una causa para su comienzo ”.14 El argumento de Ghāzālī es asombrosamente simple:

1. Todo lo que comienza a existir tiene una causa de su comienzo.


2. El universo comenzó a existir.
3. Por lo tanto, el universo tiene una causa de su comienzo.

Si todo va bien, una vez que uno ha llegado a una causa trascendente del comienzo del universo,
un análisis conceptual de lo que es ser una causa del comienzo del universo le permite a uno
recuperar una serie de atributos sorprendentes de tal causa, incluyendo atemporalidad,
inmaterialidad y, en última instancia, personalidad.
Craig adoptó inicialmente la formulación de Ghāzālī, pero más recientemente ha observado
que el éxito del argumento no depende de una premisa tan amplia como (1), sino más bien de la
más modesta.
1 '. Si el universo comenzó a existir, el universo tiene una causa de su comienzo.

será suficiente y es aún más evidente. Aunque Craig ha ofrecido varios argumentos en defensa
de la premisa causal, su interés radica claramente en (2). Ha ofrecido argumentos tanto
deductivos como inductivos en apoyo de la afirmación clave de que el universo comenzó a existir.

Argumentos deductivos
2.1 El argumento deductivo basado en la imposibilidad de un infinito actual:
2.11 Un infinito real no puede existir.
2.12 Una regresión temporal infinita de eventos es un infinito real.
2.13 Por tanto, no puede existir una regresión temporal infinita.

2.2 El argumento deductivo basado en la imposibilidad de la formación de un infinito actual por


adición sucesiva:
2.21 Una colección formada por sumas sucesivas no puede ser realmente infinita.
2.22 La serie temporal de eventos pasados es una colección formada por sumas
sucesivas.
2.23 Por lo tanto, la serie temporal de eventos pasados no puede ser realmente
infinita.

Argumentos inductivos
2.3 El argumento inductivo basado en la expansión del universo
2.4 El argumento inductivo basado en las propiedades termodinámicas del universo
El primer argumento deductivo es una expresión de finitismo. Según la visión aristotélica de
Craig, el único infinito que realmente puede existir es el infinito potencial, que es simplemente
un concepto límite, no un número. No hay ejemplos de infinitos reales en el mundo concreto, y
la noción de infinito potencial es suficiente para la búsqueda de la ciencia moderna. Pero, ¿qué
pasa con el reino matemático abstracto descrito por la teoría de conjuntos infinitos? Aquí los
proponentes de la KCA han hecho una distinción en principio entre objetos abstractos
causalmente deteriorados y objetos concretos, sosteniendo que los absurdos que acompañan a
la existencia de un infinito real se aplican solo a objetos causalmente conectados, o ellos, como
el mismo Craig, adoptan un anti -vista realista de tales objetos abstractos, negándoles la
existencia en cualquier sentido metafísicamente pesado. 15
El segundo argumento deductivo sirve para poner en primer plano la teoría del tiempo, que
subyace a la KCA, a saber, una teoría del tiempo tensa, en oposición a la tensa, que afirma la
realidad objetiva del devenir temporal. La premisa (2.22) presupone que la serie de eventos
temporales no existe sin tensión, sino que surge seriatim. Por lo tanto, el evento presente es
alcanzado por un lapso genuino de un número realmente infinito de eventos anteriores uno tras
otro, si el universo no tiene comienzo. Este rasgo de un pasado infinito ocasiona múltiples
dificultades, célebremente ejemplificadas en la tesis de la Primera Antinomia de Kant sobre el
tiempo. Para que uno no se sienta tentado a evitar estas dificultades optando por una teoría del
tiempo sin tensión, Craig ha argumentado extensamente en un par de volúmenes a favor de una
teoría del tiempo tensa y en contra de una teoría sin tensión.dieciséis
Lo que es especialmente intrigante acerca de la afirmación de la KCA del comienzo del universo
es la evidencia científica a la que Craig apela de descubrimientos relativamente recientes que
apuntan a la finitud temporal del universo. Como se indicó anteriormente, los dos principales
argumentos inductivos que apoyan la segunda premisa de la KCA se basan, en primer lugar, en
la expansión del universo y, en segundo lugar, en las propiedades termodinámicas del universo.

Considere, primero, la evidencia de la expansión del universo. En la década de 1920, Alexander


Friedmann y Georges LeMaître propusieron de forma independiente un universo en expansión
y una ventaja para el espacio-tiempo. Su modelo de espacio-tiempo de un universo de cuatro
dimensiones se asemeja a un cono con un borde o límite duro al comienzo del universo, y al del
espacio, el tiempo, la materia y la energía.17El modelo cosmológico estándar del Big Bang describe
la expansión del espacio en sí, no simplemente la materia dentro del universo. A medida que
“aplicamos ingeniería inversa” al universo y retrocedemos su trayectoria hacia cero, llegamos a
una singularidad: un límite al espacio-tiempo.
Este comienzo y expansión fueron confirmados por las observaciones del astrónomo Edwin
Hubble de que la luz espectral de galaxias distantes se desplaza hacia el rojo, lo que indica que
las galaxias se están alejando unas de otras. En 1970, Hawking y Penrose afirmaron en sus
Teoremas de singularidad que, dado el supuesto de que las leyes de la relatividad general
gobiernan el universo, el universo comenzó con una singularidad inicial. 18Al hacerlo, eliminaron
cualquier consideración persistente de que el universo era eterno, ya sea de acuerdo con el
modelo de estado estable sin comienzo o el modelo oscilante con un pasado infinito compuesto
de expansiones y contracciones. La cosmogonía estándar del Big Bang apunta así a un comienzo
absoluto del universo: en palabras de PCW Davies, “la mayoría de los cosmólogos piensan en la
singularidad inicial como el comienzo del universo. Desde este punto de vista, el Big Bang
representa el evento de la creación; la creación no solo de toda la materia y energía del universo,
sino también del propio espacio-tiempo ".19 Por lo tanto, informa Hawking, "casi todo el mundo
cree ahora que el universo, y el tiempo mismo, tuvieron un comienzo en el Big Bang". 20
Por supuesto, se han propuesto modificaciones del modelo estándar. El modelo de gravedad
cuántica del universo “sin fronteras” de Hartle-Hawking (1982) se presentó para unir la
relatividad general y el mundo de la mecánica cuántica. 21En lugar del cono de bordes duros del
modelo de espacio-tiempo de Friedmann-LeMaître, este modelo propone que, antes del tiempo
de Planck, la etapa inicial del espacio-tiempo se parecía a un volante de bádminton con un
hemisferio liso y "redondeado" sin borde. Entonces, no hay un punto definido de creación,
aunque el tiempo todavía es finito en el pasado. En su popular Breve historia del tiempo (1988),
Hawking preguntaba "¿Qué lugar, entonces, para un creador?"22 Sin embargo, incluso en el
modelo de gravedad cuántica, el tiempo todavía comenzó a existir, aunque no en una
singularidad, como el propio Hawking reconoce más tarde en su The Grand Design (2010). 23 De
hecho, el teorema más generalizado de Borde-Guth-Vilenkin (2003) demostró que cualquier
universo que, en promedio, se encuentra en un estado de expansión cósmica no puede ser
infinito en el pasado, sino que debe haber tenido un comienzo. 24
El comienzo del universo —y la materia, la energía, el espacio y el tiempo— plantea
importantes cuestiones metafísicas con respecto a su causa. Una vez más, Davies explica cuáles
son las únicas opciones que considera:
"¿Qué causó el Big Bang?" . . . Uno podría considerar alguna fuerza sobrenatural, alguna
agencia más allá del espacio y el tiempo como responsable del Big Bang, o podría preferir
considerar el Big Bang como un evento sin una causa. Me parece que no tenemos muchas
opciones. Cualquiera . . . algo fuera del mundo físico. . . o . . . un evento sin causa. 25

Un segundo cuerpo de evidencia científica que se considera que apoya el comienzo del universo
analiza las implicaciones de sus propiedades termodinámicas. La segunda ley de la
termodinámica establece que un universo cerrado, con su cantidad limitada de energía, siempre
se moverá hacia una mayor entropía. Un objeto caliente tiende a convertirse en un objeto más
frío; la energía se inclina hacia la disipación o el desorden. Dado que el universo se está agotando
y, dado el tiempo suficiente, experimentará una muerte por calor de algún tipo, no puede ser
eterno. Si el universo fuera eterno, ¿por qué no ha ocurrido ya esta muerte por calor?
En lugar de pasar de un Big Bang a, como se había asumido relativamente recientemente, un
Big Crunch, en el que el universo se contraería y colapsaría sobre sí mismo, el universo
continuará expandiéndose pero avanzando hacia una Peste Negra cósmica, por así decirlo. . Se
moverá hacia un estado de creciente frialdad, desintegración y muerte, sin nada más que mostrar
aparte de un gas diluido de partículas fundamentales y radiación. Pero si, dado el tiempo
suficiente, el universo se encuentra en tal estado sin vida, entonces es sumamente
desconcertante por qué, dado un tiempo pasado infinito, el universo no está ahora en tal estado.
La solución más obvia es que el problema se basa en una suposición falsa, a saber, que el universo
no tiene comienzo. Dado que el universo se está agotando, de alguna manera, como reconoce el
físico Richard Schlegel,26
De modo que tanto la expansión del universo como la segunda ley de la termodinámica parecen
apuntar a la finitud del universo, ofreciendo así una confirmación empírica de los argumentos
filosóficos y deductivos en apoyo de la premisa clave de la KCA.

Esta colección de dos volúmenes


Como se mencionó, en las últimas décadas ha habido un resurgimiento del interés en la KCA. Una
plétora de artículos de revistas y libros completos se han dedicado a la discusión de sus premisas.
Ahora ha atraído la atención de físicos y filósofos y se ha abierto camino incluso en revistas
científicas. Por tanto, parece que ha llegado el momento de una antología que reúna parte de la
diversa literatura bajo una sola portada. De hecho, la amplitud de la literatura de la KCA requiere
dos volúmenes complementarios, uno dedicado a los argumentos filosóficos y el otro a las
evidencias científicas. Aparte de Theism, Atheism, and Big Bang Cosmology (Clarendon Press,
1993), coautor anterior de Craig y Smith, un vendedor enérgico que permanece impreso en la
actualidad, hasta la fecha no ha habido ninguna colección o antología dedicada exclusivamente a
una discusión de la KCA. . Esta antología de dos partes busca remediar esa carencia. Se trata de
una recopilación de los mejores trabajos recientes, tanto filosóficos como científicos, sobre las
premisas y conclusión de la KCA.
Para aquellos que han seguido la KCA, los capítulos de esta antología, varios de ellos nuevos,
cubrirán el hotel de Hilbert que suena familiar, las paradojas de Tristram Shandy y Grim Reaper,
la teoría de conjuntos cantoriana y la aritmética transfinita, así como la cosmología del Big Bang.
, la expansión del universo y la segunda ley de la termodinámica. Además, los autores de los
distintos capítulos incluyen tanto a defensores o simpatizantes de la KCA como a quienes la
impugnan y la impugnan.

Resúmenes de capítulos de El argumento cosmológico de Kalām:


evidencia científica del comienzo del universo
Aparte de la conclusión lógica de la KCA, la mayor parte del contenido de este segundo volumen
se refiere a la evidencia científica del comienzo del universo. Mientras que el primer volumen
introdujo la primera premisa de la KCA así como los argumentos filosóficos en apoyo de la
segunda premisa del argumento, el segundo volumen nos lleva directamente al primer
argumento inductivo en apoyo de la segunda premisa de la KCA: El argumento inductivo basado
en el Expansión del Universo.
El capítulo 1 está extraído de la entrada de Craig y James Sinclair, "El argumento cosmológico
de Kalam", en Blackwell Companion to Natural Theology (2009). Sinclair resume sucintamente
la teorización cosmológica actual con respecto al comienzo del universo. Explora las
implicaciones del teorema de Borde-Guth-Vilenkin y examina la viabilidad de una amplia gama
de modelos que evitarían esas implicaciones al negar la condición fundamental única en la que
se basa el teorema.
El capítulo 2 es de J. Brian Pitts: "Por qué la singularidad del Big Bang no ayuda al argumento
cosmológico de Kalam a favor del teísmo". Pitts afirma que la singularidad cósmica proporciona
evidencia "insignificante" para la creación en el pasado finito y, por lo tanto, el teísmo. La física
no requiere un primer momento, y el progreso científico probablemente evitará cualquier
supuesta necesidad de apelar a una acción divina especial para explicar la existencia del
universo.
Estimulados por la crítica de Pitts de la KCA y su supuesta dependencia de modelos
cosmogónicos que presentan una singularidad cosmológica inicial, Craig y Sinclair en el Capítulo
3 exploran modelos no singulares de espacio-tiempo con respecto al comienzo del universo,
argumentando que si el comienzo de que el universo sea singular o no singular es una cuestión
de indiferencia y que los modelos no singulares tengan dificultad para evitar un comienzo
cósmico.
El capítulo 4, “El comienzo del universo”, está escrito por el físico Alexander Vilenkin. Reconoce
que el problema del comienzo del universo ha sido un desafío desde los primeros días de la
cosmología científica, y se han propuesto varios modelos (por ejemplo, inflación eterna, universo
oscilante) a lo largo de los años. Sostiene que la inflación no podría ser eterna y debe haber tenido
algún tipo de comienzo, y un universo eterno habría alcanzado la máxima entropía, que no es lo
que encontramos. El universo probablemente tuvo un comienzo, aunque teoremas como Borde-
Guth-Vilenkin no dicen nada sobre la existencia de Dios. Queda un profundo misterio.
En este punto llegamos al segundo argumento físico que respalda la segunda premisa de la
KCA: el argumento inductivo basado en las propiedades termodinámicas del universo. El capítulo
5 ("Un universo moribundo: el destino a largo plazo y la evolución de los objetos astrofísicos")
de Fred Adams y Gregory Laughlin analiza cuestiones astrofísicas relacionadas con el destino a
largo plazo del universo. Esto incluye la discusión de la evolución del cosmos, el eventual
agotamiento del suministro de gas estelar y la destrucción de los planetas, estrellas y galaxias.
Este capítulo también considera "los dramáticos efectos posibles de una densidad de energía de
vacío distinta de cero".

El capítulo 6 es el ensayo de Gábor Kutrovátz, "La muerte por calor en la termodinámica


antigua y moderna". La muerte por calor, señala, es útil para comprender el comportamiento y
las características evolutivas de varios sistemas termodinámicos. Esta pieza analiza la física de
Aristóteles, que supuestamente incluye una solución implícita al problema de la muerte por calor
y, por lo tanto, ofrece una comparación fructífera con las diferentes soluciones presentadas por
la termodinámica moderna.
Capítulo 7 —Entropía y escatología de Milan M. Cirkovic: un comentario sobre el artículo de
Kutrovátz 'Muerte por calor en la termodinámica antigua y moderna' ”- desafía las afirmaciones
de Kutrovátz e intenta señalar los supuestos errores que comete sobre cosmología. Cirkovic
afirma que otro camino, una antigua tradición filosófica, ofrece respuestas al acertijo de la
muerte por calor. Esta vía incluye la “duración final del tiempo” —confirmada por el
redescubrimiento reciente— así como la noción de “autoselección observacional”, como se
señala en articulaciones recientes del principio antrópico. Estos autores afirman que la
comprensión de la evolución futura y el estado final del universo ("escatología física") se puede
lograr sin apelar a la metafísica.
El capítulo 8, “La segunda ley generalizada implica un teorema de singularidad cuántica” de
Aron C. Wall, afirma que la segunda ley de la termodinámica puede ayudar a demostrar un
teorema de singularidad: debido a que el espacio es finito, solo una cantidad finita de procesos
productores de entropía debe tener existió en el pasado a menos que pudiera haber alguna
inversión de la flecha del tiempo, que él piensa que "parecería plantear el mismo tipo de
preguntas filosóficas que cualquier otro tipo de comienzo en el tiempo". 27
Esto luego nos lleva a la conclusión de la KCA: Por lo tanto, el universo tiene una causa. Esta
sección incluye tres capítulos. El primero de ellos es “La agencia libertaria y el debate Craig /
Grünbaum de JP Moreland sobre la explicación teísta de la singularidad inicial” (Capítulo 9).
Craig y Grünbaum han debatido la conclusión de la KCA, que apunta a una causa personal del
comienzo del universo. Moreland aporta una discusión reciente sobre la teoría de la agencia
libertaria para influir en este debate, que considera que fortalece el caso de Craig contra
Grünbaum. Los recursos de la teoría de la agencia libertaria, insiste, pueden superar y refutar las
cinco objeciones principales de Grünbaum a la explicación personal teísta.
El Capítulo 10, “La causalidad y la imposibilidad lógica de una causa divina” de Quentin Smith,
reconoce que mientras virtualmente todos los teístas, agnósticos y ateos contemporáneos creen
que una causa divina del universo es lógicamente posible, la raíz del problema es que los filósofos
no han llevado a cabo el tipo de investigación necesaria sobre la naturaleza de la causalidad.
Todas las definiciones existentes de causalidad descartan lógicamente una causa divina
originaria.
El capítulo final de este segundo volumen de la antología, "Más allá del Big Bang", es un extracto
de un artículo "Naturalismo y cosmología" de Craig, en el que responde al ensayo de Quentin
Smith que precede al suyo. Argumenta que la afirmación de Smith de que Dios causó el universo
es lógicamente inconsistente con todas las definiciones existentes de causalidad no es
simplemente injustificada y falsa sino, mucho más importante, de poca importancia, incluso si es
verdadera. Craig concluye que es mucho más plausible negar al menos una de las premisas de
Smith que afirmar lo que Hume llamó la "proposición absurda" de que algo podría surgir sin una
causa.
Tengo la esperanza de que este volumen y el que lo acompaña sea de utilidad para aquellos
que son estudiantes y profesores de filosofía de nivel superior que se dedican a la filosofía de la
religión, la teología filosófica y el diálogo entre la ciencia y la teología. Pero aquellos involucrados
en las siguientes disciplinas y áreas de estudio también se beneficiarán de participar en esta
conversación: Cosmogonía, Astrofísica, Física (tiempo, espacio, causalidad, termodinámica),
Filosofía de la ciencia, Matemáticas (teoría cantoriana de conjuntos, infinito), Metafísica ( objetos
abstractos, agente causal) y Teología (la doctrina de Dios, la creación, la agencia divina).

Notas
1. Londres: Macmillan, 1979.
2. "Kalam Cosmological Arguments for Atheism", en The Cambridge Companion to Atheism, ed. Michael Martin (Cambridge:
Cambridge University Press, 2007), pág. 183.
3. Como una indicación más de un gran interés en la KCA, Jamalon Publishers (2017) está publicando en árabe una antología de
ensayos sobre la KCA. Por lo que puedo decir, varios de los mismos artículos destacados que he seleccionado serán traducidos
al árabe para ese volumen.
4. Un querido profesor que se convirtió en un querido amigo de Craig y de mí, Hackett fue un maestro brillante, excéntrico y
amable y un filósofo muy capaz que se destaca por sus oraciones de estilo germánico de párrafos largos. Había sido profesor
de Craig en Wheaton College, Illinois, y Craig se convertiría más tarde en colega de Hackett en Trinity Evangelical Divinity
School. Tuve el privilegio de estudiar con estos dos académicos, escribiendo mi tesis de maestría en Trinity en el KCA bajo la
supervisión de Hackett como mi primer lector.
5. Publicado originalmente por Moody Press de Chicago, el libro ha sido reeditado por Wipf y Stock (2009).
6. La defensa de seguimiento de Hackett de la afirmación de la revelación cristiana también propone este argumento: La
reconstrucción de la afirmación de la revelación cristiana: una apologética filosófica y crítica (Eugene, OR: Wipf y Stock, 2009),
98-103. Este libro fue publicado previamente por Baker Book House en 1984.
7. Stuart C. Hackett, La resurrección del teísmo (Eugene, OR: Wipf y Stock, 2009), 293–94.
8. El argumento cosmológico de Platón a Leibniz (Londres: Macmillan, 1979).
9. Tomás de Aquino, Summa Theologica en Introducción a Santo Tomás de Aquino, ed. Anton Pegis (Nueva York: Modern
Library, 1948).
10. GW Leibniz, "Los principios de la naturaleza y de la gracia, basados en la razón", en Leibniz Selections, ed. P. Wiener (Nueva
York: Charles Scribner's Sons, 1951), 527.
11. GW Leibniz, "The Monadology", en Selecciones de Leibniz, 539.
12. Bertrand Russell y Frederick Copleston, "La existencia de Dios", La existencia de Dios, ed. John Hick (Nueva York: Macmillan,
1964), 175.
13. ¿Es razonable la fe en Dios? Con Alex Rosenberg. Ed. Paul Gould y Corey Miller, Estudios de Routledge en la filosofía de la
religión (Londres: Routledge, 2014).
14. Al-Ghazali, Kitab al-Iqtisad fi'l-Iqtiqad (Ankara: University of Ankara Press, 1962), 15–16.
15. Dios sobre todo: Aseidad divina y el desafío del platonismo (Oxford: Oxford University Press, 2016); Dios y objetos abstractos:
la coherencia del teísmo III: Aseity (Berlín: Springer Verlag, 2017).
dieciséis. The Tensed Theory of Time: A Critical Examination, Synthese Library 293 (Dordrecht: Kluwer Academic Publishers,
2000); The Tenseless Theory of Time: A Critical Examination, Synthese Library 294 (Dordrecht: Kluwer Academic
Publishers, 2000).
17. A. Friedmann, “Über die Krümmung des Raumes”, Zeitschrift für Physik 10 (1922): 377–86; G. Lemaître, “Un univers
homogène de masse constante et de rayon croissant, rendant compte de la vitesse radiale des nébuleuses extragalactiques”,
Annales de la Société scientifique de Bruxelles 47 (1927): 49–59.
18. R. Penrose, “Colapso gravitacional y singularidades del espacio-tiempo”, Physical Review Letters 14 (1965): 57–59; SW
Hawking y R. Penrose, La estructura a gran escala del espacio-tiempo, ed. SW Hawking y GFR Ellis (Cambridge: Cambridge
University Press, 1973), 266.
19. PCW Davies, "Singularidades del espacio-tiempo en cosmología", en El estudio del tiempo III, ed. JT Fraser (Nueva York:
Springer Verlag, 1978), 78–79.
20. Stephen Hawking y Roger Penrose, La naturaleza del espacio y el tiempo, Serie de conferencias del Instituto Isaac Newton
(Princeton, Nueva Jersey: Princeton University Press, 1996), 20.
21. S. Hawking y J. Hartle, "La función de onda del universo", Physical Review D 28 (1983): 12, 2960–75.
22. Stephen Hawking, Una breve historia del tiempo (Nueva York: Bantam, 1988), 141.
23. Leonard Mlodinow y Stephen Hawking, The Grand Design (Nueva York: Bantam, 2010).
24. A. Borde, A. Guth y A. Vilenkin (2003): "Los espaciotiempos inflacionarios no son un pasado completo", Physical Review
Letters (2003): 90, 151301, preimpresión: http://arxiv.org/abs/gr-qc/0110012.
25. Paul Davies, "El nacimiento del cosmos", en Dios, cosmos, naturaleza y creatividad, ed. Jill Gready (Edimburgo: Scottish
Academic Press, 1995), págs. 8–9.
26. Richard Schlegel, "Tiempo y termodinámica", en Las voces del tiempo, ed. JT Fraser (Londres: Penguin, 1948), 511.
27. Aron C. Wall, “La segunda ley generalizada implica un teorema de singularidad cuántica”, arXiv: 1010.5513v3 [gr-qc] 24 de
enero de 2013, p. 38.
1
los Kalām Argumento cosmológico: extracto de
"ciencia"

William Lane Craig y James D. Sinclair

2.3 Confirmación científica


El tipo de problemas filosóficos con la infinidad del pasado que han sido el objeto de nuestra
discusión ahora están siendo reconocidos en artículos científicos por los principales cosmólogos
y filósofos de la ciencia.1Por ejemplo, Ellis, Kirchner y Stoeger preguntan: “¿Puede haber un
conjunto infinito de universos realmente existentes? Sugerimos que, sobre la base de
argumentos filosóficos bien conocidos, la respuesta es No ”(Ellis et al. 2003, p. 14, énfasis
nuestro). De manera similar, al señalar que un infinito actual no es construible y, por lo tanto, no
actualizable, afirman: "Esta es precisamente la razón por la que un infinito pasado realizado en
el tiempo no se considera posible desde este punto de vista, ya que involucra un conjunto infinito
de eventos o momentos completos" ( Ellis et al.2003, pág.14). Estos recelos representan el
respaldo de los dos argumentos kalām defendidos anteriormente. Ellis y sus colegas concluyen:
“Los argumentos en contra de un tiempo pasado infinito son sólidos; simplemente no es
construible en términos de eventos o instantes de tiempo, además de ser conceptualmente
indefinido” (Ellis et al. 2003, p. 14).
Aparte de estos argumentos filosóficos, a lo largo del siglo XX ha surgido una provocadora
evidencia empírica de que el universo no es eterno en el pasado. Esta evidencia física del
comienzo del universo proviene de lo que sin duda es uno de los campos de la ciencia más
emocionantes y de rápido desarrollo en la actualidad: la astronomía y la astrofísica. Antes de la
década de 1920, los científicos siempre habían asumido que el universo era estacionario y
eterno. Los temblores del inminente terremoto que derribaría esta cosmología tradicional se
sintieron por primera vez en 1917, cuando Albert Einstein hizo una aplicación cosmológica de
su recién descubierta teoría gravitacional, la Teoría General de la Relatividad (Einstein 1917,
págs. 177–88). Al hacerlo, asumió que el universo es homogéneo e isotrópico y que existe en un
estado estable, con una densidad de masa media constante y una curvatura del espacio
constante. Sin embargo, para su disgusto, descubrió que la Relatividad General (GR) no
permitiría tal modelo del universo a menos que introdujera en sus ecuaciones de campo
gravitacional un cierto "factor fudge" Λ para contrarrestar el efecto gravitacional de la materia y
así asegurar un universo estático. Sin embargo, el universo de Einstein estaba equilibrado al filo
de una navaja, y la menor perturbación —incluso el transporte de materia de una parte del
universo a otra— haría que el universo implosionara o se expandiera. Al tomar en serio esta
característica del modelo de Einstein, el matemático ruso Alexander Friedmann y el astrónomo
belga Georges Lemaître pudieron formular independientemente en la década de 1920 soluciones
a las ecuaciones de campo que predijeron un universo en expansión (Friedmann 1922). sin
embargo, descubrió que la Relatividad General (GR) no permitiría tal modelo del universo a
menos que introdujera en sus ecuaciones de campo gravitacional un cierto “factor fudge” Λ para
contrarrestar el efecto gravitacional de la materia y así asegurar un universo estático. Sin
embargo, el universo de Einstein estaba equilibrado al filo de la navaja, y la menor perturbación
—incluso el transporte de materia de una parte del universo a otra— haría que el universo
implosionara o se expandiera. Al tomar en serio esta característica del modelo de Einstein, el
matemático ruso Alexander Friedmann y el astrónomo belga Georges Lemaître pudieron
formular independientemente en la década de 1920 soluciones a las ecuaciones de campo que
predecían un universo en expansión (Friedmann 1922). sin embargo, descubrió que la
Relatividad General (GR) no permitiría tal modelo del universo a menos que introdujera en sus
ecuaciones de campo gravitacional un cierto “factor fudge” Λ para contrarrestar el efecto
gravitacional de la materia y así asegurar un universo estático. Sin embargo, el universo de
Einstein estaba equilibrado al filo de una navaja, y la menor perturbación —incluso el transporte
de materia de una parte del universo a otra— haría que el universo implosionara o se expandiera.
Al tomar en serio esta característica del modelo de Einstein, el matemático ruso Alexander
Friedmann y el astrónomo belga Georges Lemaître pudieron formular independientemente en
la década de 1920 soluciones a las ecuaciones de campo que predijeron un universo en expansión
(Friedmann 1922). descubrió que la Relatividad General (GR) no permitiría tal modelo del
universo a menos que introdujera en sus ecuaciones de campo gravitacional un cierto “factor
fudge” Λ para contrarrestar el efecto gravitacional de la materia y así asegurar un universo
estático. Sin embargo, el universo de Einstein estaba equilibrado al filo de la navaja, y la menor
perturbación —incluso el transporte de materia de una parte del universo a otra— haría que el
universo implosionara o se expandiera. Al tomar en serio esta característica del modelo de
Einstein, el matemático ruso Alexander Friedmann y el astrónomo belga Georges Lemaître
pudieron formular independientemente en la década de 1920 soluciones a las ecuaciones de
campo que predecían un universo en expansión (Friedmann 1922). descubrió que la Relatividad
General (GR) no permitiría tal modelo del universo a menos que introdujera en sus ecuaciones
de campo gravitacional un cierto “factor fudge” Λ para contrarrestar el efecto gravitacional de la
materia y así asegurar un universo estático. Sin embargo, el universo de Einstein estaba
equilibrado al filo de la navaja, y la menor perturbación —incluso el transporte de materia de
una parte del universo a otra— haría que el universo implosionara o se expandiera. Al tomar en
serio esta característica del modelo de Einstein, el matemático ruso Alexander Friedmann y el
astrónomo belga Georges Lemaître pudieron formular independientemente en la década de
1920 soluciones a las ecuaciones de campo que predijeron un universo en expansión (Friedmann
1922). y la menor perturbación —incluso el transporte de materia de una parte del universo a
otra— haría que el universo implosionara o se expandiera. Al tomar en serio esta característica
del modelo de Einstein, el matemático ruso Alexander Friedmann y el astrónomo belga Georges
Lemaître pudieron formular independientemente en la década de 1920 soluciones a las
ecuaciones de campo que predecían un universo en expansión (Friedmann 1922). y la menor
perturbación —incluso el transporte de materia de una parte del universo a otra— haría que el
universo implosionara o se expandiera. Al tomar en serio esta característica del modelo de
Einstein, el matemático ruso Alexander Friedmann y el astrónomo belga Georges Lemaître
pudieron formular independientemente en la década de 1920 soluciones a las ecuaciones de
campo que predecían un universo en expansión (Friedmann 1922).
La primera ecuación de Friedmann es:

donde H = parámetro de Hubble, a = factor de escala, G = constante gravitacional, ρ = densidad


de masa del universo, Λ = constante cosmológica, K = parámetro de curvatura, c = velocidad de
la luz. A modo de explicación, el factor de escala, "a", del universo es un multiplicador global del
tamaño del universo. Imagina el universo como una ciudad perfectamente diseñada con calles
que viajan solo de norte a sur y de este a oeste. Las calles están espaciadas a intervalos de
distancia iguales. Las intersecciones de calles definen bloques de ciudades perfectamente
simétricos. Se podría ir más allá y pensar en los edificios de la ciudad como análogos a las galaxias
del universo.
La distancia de una cuadra a otra es una función de dos valores: la distancia establecida
originalmente (llamémosla distancia "normalizada") y el multiplicador del factor de escala "a".
Tenga en cuenta que, como en la figura 1.1, cuando se multiplica por un factor de escala de 1/2,
todavía se tiene exactamente la misma ciudad con el mismo número de manzanas. Lo único que
ha cambiado es el intervalo de distancia entre las manzanas de la ciudad.
Ahora considere los edificios dentro de la ciudad. Si la distancia a la manzana de la ciudad se
redujera al tamaño de los edificios, es evidente que algo debe ceder. Los edificios quedarían
comprimidos y destruidos. Esto es análogo a lo que sucede con la materia en el universo real. Los
tamaños de las estructuras de masa no elementales, como protones, neutrones, núcleos
atómicos, etc., son fijos; no cambian con el factor de escala. Otras estructuras físicas, como las
partículas sin masa, se ajustan con el factor de escala. La longitud de onda de la radiación se
ajusta y, por tanto, ganaría (en el caso de contracción) o perdería (en el caso de expansión)
energía como resultado.2 Cuando uno apiña estas partículas sobre sí mismas, verá una transición
a una física diferente.
Figura 1.1 Analogía del universo como una ciudad dispuesta en una cuadrícula.

Recuerde que la ciudad completa siempre está presente independientemente del valor del
factor de escala. Así que ahora considere dos situaciones adicionales. Primero, suponga que el
factor de escala se redujera a cero. El espacio (y el tiempo) desaparecerían. Cualquier estructura
que no pudiera transformarse a tamaño cero sería destruida. Si no hubiera un proceso físico que
permitiera que sucediera tal cosa, parecería que tenemos una paradoja. O debe haber un proceso
físico no descubierto o el factor de escala no puede, en realidad, asumir un valor nulo.
En segundo lugar, imagina que la ciudad tiene un tamaño infinito. Conceptualmente, no hay
problema en extender las calles de norte a sur y de este a oeste hasta el infinito en cada dirección.
¿Qué significa escalar el tamaño del universo en tal situación? Independientemente del factor de
escala que se adopte, el tamaño del universo sigue siendo infinito. Sin embargo, la idea de escalar
aún conserva la coherencia en el sentido de que podemos aplicar un multiplicador a la distancia
finita entre manzanas de la ciudad. Sin embargo, ¿cuál sería el significado de aplicar un factor de
escala cero en esta situación? Ahora parecería que el tamaño del universo completo es "cero por
infinito" que, en general, puede ser cualquier número finito (Barrow 2005, p. 160). ¿Qué significa
esto, dado que la distancia entre cualquier punto del universo y cualquier otro punto debe seguir
siendo cero? GR simplemente se descompone en un factor de escala cero.
Si el universo completo es o no de tamaño infinito o finito, se da en la ecuación de Friedmann
por el parámetro de curvatura "K". Una K positiva indica que el universo, al igual que la superficie
de la Tierra, es ilimitado pero de tamaño finito. Volviendo a la analogía, imagina que la ciudad se
extiende sobre toda la superficie curva de la Tierra. Un viajero en la primera calle nunca llegaría
al final; más bien, eventualmente regresaría al lugar donde comenzó. Un K positivo produce una
curvatura positiva y un universo cerrado. Este es un tipo de "métrica compacta" dentro de GR.
Un valor cero para "K" produce un universo "plano". La primera calle es ilimitada y de longitud
infinita (en ambas direcciones). Una situación similar ocurre con un valor de K negativo. Aquí
uno tiene una curvatura negativa o "en forma de silla de montar". Dos viajeros que se mueven
hacia el este y uno al lado del otro por las calles 1 y 2 en realidad se separarían lateralmente ya
que la curvatura de la superficie hace que las calles diverjan entre sí. El último caso da un
universo "abierto" de tamaño infinito.
Los componentes del universo (toda la energía, teniendo en cuenta que E = mc2) determinan
qué tipo de curvatura posee el universo. La "fuerza" de la gravedad, incluida en la ecuación
mediante el parámetro "G", afecta la magnitud de la curvatura.
Los parámetros ρ y Λ indican el tipo y magnitud de los diferentes tipos de energía que provocan
la curvatura. El parámetro “ρ” representa la densidad (es decir, la energía por unidad de
volumen) de los dos tipos de energía “ordinaria”: materia y radiación. Es "ordinario" en el sentido
de que estamos familiarizados con él en la vida diaria y tiene una forma que hace de la gravedad
una fuerza atractiva. Λ representa un tipo exótico de densidad de energía que puede transformar
la gravedad de una fuerza atractiva a una repulsiva.
La primera ecuación de Friedmann nos dice cómo cambia el factor de escala a medida que pasa
el tiempo. Matemáticamente, esta es la primera derivada del factor de escala "a", conocido como
"un punto" o å. Se puede ver que el aumento (o disminución) del factor de escala es una función
en gran medida del contenido de energía del universo. Ahora, la densidad de energía "ordinaria"
ρ se hará más pequeña a medida que el universo se expanda, ya que uno tiene la misma cantidad
de energía distribuida en un volumen mayor. Por lo tanto, su impacto causal en la expansión
disminuirá progresivamente en momentos posteriores (esto funciona a la inversa para la
contracción). Por el contrario, Λ, que representa la densidad de energía oscura, es constante. La
energía oscura no se diluye más durante la expansión ni se concentra durante la contracción. Por
lo tanto, al principio de la vida de un universo en expansión, Λ no es importante en comparación
con ρ. Pero su impacto “aumenta” a medida que pasa el tiempo. Mientras el impacto de ρ en el
universo temprano no sea suficiente para revertir una expansión y comenzar una contracción, el
efecto de Λ eventualmente conducirá a una expansión descontrolada del universo. Aparecerá un
momento en la historia del universo en el que la energía oscura comenzará a dominar la energía
ordinaria y la expansión del universo comenzará a acelerarse. De hecho, observaciones recientes
parecen mostrar precisamente este efecto en nuestro propio universo, con una edad de
transición de 9 mil millones de años (Overbye 2006). Aparecerá un momento en la historia del
universo en el que la energía oscura comenzará a dominar la energía ordinaria y la expansión
del universo comenzará a acelerarse. De hecho, observaciones recientes parecen mostrar
precisamente este efecto en nuestro propio universo, con una edad de transición de 9 mil
millones de años (Overbye 2006). Aparecerá un momento en la historia del universo en el que la
energía oscura comenzará a dominar la energía ordinaria y la expansión del universo comenzará
a acelerarse. De hecho, observaciones recientes parecen mostrar precisamente este efecto en
nuestro propio universo, con una edad de transición de 9 mil millones de años (Overbye 2006).
La segunda ecuación de Friedmann da la tasa de cambio de la tasa de expansión:

Determina si la expansión en sí se está desacelerando o acelerando. Esta aceleración se conoce


como "un doble punto" o ä. Aparece un nuevo término "p" en la ecuación. Esta es la presión
(similar a la presión de un gas dentro de un globo). La propia presión puede producir fuerza
gravitacional. La presión es normalmente insignificante para la materia ordinaria, aunque puede
desempeñar un papel en los universos dominados por la radiación. Sin embargo, la presión
puede tener un impacto tremendo dado un universo dominado por la energía oscura. Como
muestra la segunda ecuación de Friedmann, la velocidad a la que se acelera la expansión del
universo es proporcional a: (- µ - 3p). Pero la presión en el vacío es igual al negativo de la
densidad de energía; esto se llama ecuación de estado. Por lo tanto, en general,
La materia ordinaria ejercerá una presión positiva (que mantendrá inflado un globo, por
ejemplo). Este tipo de presión producirá una fuerza gravitacional atractiva, que complementa la
gravedad atractiva que se acumula a partir de la masa. La energía oscura tiene la extraña
propiedad de generar presión negativa. Pero la energía oscura, si bien tiene una densidad de
energía positiva (que contribuye a la gravedad atractiva), en general, producirá un efecto
gravitacional repulsivo. Al observar la segunda ecuación de Friedmann, se ve que una
contribución gravitacional atractiva tiende a ralentizar la expansión (o acelerar la contracción),
mientras que la gravedad repulsiva hará lo contrario.
La importancia monumental del modelo de Friedmann-Lemaître radica en su historización del
universo. Como ha señalado un comentarista, hasta este momento la idea de la expansión del
universo “estaba absolutamente más allá de la comprensión. A lo largo de toda la historia de la
humanidad, el universo se consideró fijo e inmutable y la idea de que en realidad podría estar
cambiando era inconcebible ”(Naber 1988, págs. 126-27). Pero si el modelo de Friedmann-
Lemaître es correcto, el universo ya no puede ser tratado adecuadamente como una entidad
estática que existe, en efecto, de forma intemporal. Más bien, el universo tiene una historia, y el
tiempo no será motivo de indiferencia para nuestra investigación del cosmos.
En 1929, el astrónomo estadounidense Edwin Hubble demostró que el desplazamiento hacia
el rojo en los espectros ópticos de la luz de galaxias distantes era una característica común de
todas las galaxias medidas y era proporcional a su distancia de nosotros (Hubble 1929, págs.
168–73). Este corrimiento al rojo, observado por primera vez por Vesto Slipher en el
Observatorio Lowell,3se tomó como un efecto Doppler indicativo del movimiento recesivo de la
fuente de luz en la línea de visión. Increíblemente, lo que Hubble había descubierto fue la
expansión isotrópica del universo predicha por Friedmann y Lemaître sobre la base de la GR de
Einstein. Fue un verdadero punto de inflexión en la historia de la ciencia. "De todas las grandes
predicciones que la ciencia ha hecho a lo largo de los siglos", exclama John Wheeler, "¿hubo
alguna vez una mayor que esta, para predecir y predecir correctamente, y predecir contra toda
expectativa un fenómeno tan fantástico como la expansión del ¿universo?" (Wheeler 1980, pág.
354).

2.31 El modelo estándar de Big Bang caliente


Según el modelo de Friedmann-Lemaître, a medida que avanza el tiempo, las distancias que
separan las partículas ideales del fluido cosmológico constituido por la materia y la energía del
universo se hacen mayores. Es importante apreciar que, como teoría basada en GR, el modelo no
describe la expansión del contenido material del universo en un espacio newtoniano vacío
preexistente, sino más bien la expansión del espacio mismo. Las partículas ideales del fluido
cosmológico están concebidas para estar en reposo con respecto al espacio pero retrocediendo
progresivamente unas de otras a medida que el espacio mismo se expande o se estira, al igual
que los botones pegados a la superficie de un globo se alejarán unos de otros a medida que el
globo se infla. . A medida que el universo se expande, su densidad disminuye progresivamente.
Esto tiene la asombrosa implicación de que a medida que uno invierte la expansión y extrapola
hacia atrás en el tiempo, el universo se vuelve progresivamente más denso hasta que uno llega a
un estado de densidad infinita en algún punto del pasado finito. Este estado representa una
singularidad en la que la curvatura del espacio-tiempo, junto con la temperatura, la presión y la
densidad, se vuelve infinita. Para ser más correcto, el volumen del universo se acerca a cero en
el límite cuando el factor de escala del universo se acerca a cero. El modelo de Friedmann-
Lemaître, de hecho, no describe lo que sucede en la singularidad, ya que el GR de Einstein se
rompe en este límite.
La singularidad cosmológica inicial, por tanto, no está en el espacio-tiempo, sino que constituye
un borde o límite del propio espacio-tiempo. Robert Wald describe cómo los espaciotiempos
singulares deben caracterizarse adecuadamente:
Con mucho, la idea más satisfactoria propuesta hasta ahora es básicamente utilizar los
“huecos” que dejó la eliminación de singularidades como criterio de su presencia. Estos
"agujeros" deberían ser detectables por el hecho de que habrá geodésicas que tengan una
longitud afín finita; es decir, más precisamente, deberían existir geodésicas que sean
inextensibles en al menos una dirección pero que solo tengan un rango finito de parámetros
afines. Se dice que estas geodésicas están incompletas. (Para geodésicas de tipo temporal y
espacial, la "longitud" afín finita es equivalente al tiempo o la longitud propios finitos, por lo
que el uso de parámetros afines simplemente generaliza la noción de "longitud finita" a
geodésicas nulas). Por lo tanto, podríamos definir un espacio-tiempo como singular. si posee
al menos una geodésica incompleta.
Sin embargo, existe una patología física grave en cualquier espacio-tiempo que es
temporal o nulo geodésicamente incompleto. En tal espacio-tiempo, es posible que al menos
una partícula o fotón en caída libre termine su existencia dentro de un “tiempo” finito (es
decir, parámetro afín) o haya comenzado su existencia hace un tiempo finito. Por lo tanto,
incluso si uno no tiene una noción general completamente satisfactoria de singularidades,
estaría justificado llamar a tales espaciotiempo físicamente singulares. Es esta propiedad la
que los teoremas de la singularidad demuestran que se cumple en una amplia clase de
espaciotiempos (Wald 1984, págs. 215-16).4

La existencia de un límite al espacio-tiempo implica, no solo que la "materia" del universo


comienza a existir, sino que el espacio y el tiempo también lo hacen (porque en el modelo de
Friedmann-Lemaître todas las geodésicas dirigidas al pasado terminan en la singularidad ). PCW
Davies comenta:
Si extrapolamos esta predicción al extremo, llegamos a un punto en el que todas las distancias
en el universo se han reducido a cero. Por tanto, una singularidad cosmológica inicial forma
un extremo temporal pasado del universo. No podemos continuar con el razonamiento físico,
o incluso el concepto de espacio-tiempo, a través de tal extremo. Por esta razón, la mayoría
de los cosmólogos piensan en la singularidad inicial como el comienzo del universo. Desde
este punto de vista, el Big Bang representa el evento de la creación; la creación no sólo de
toda la materia y energía del universo, sino también del propio espacio-tiempo (Davies 1978,
págs. 78-9).

El término "Big Bang", originalmente una expresión burlona acuñada por Fred Hoyle para
caracterizar el comienzo del universo predicho por el modelo de Friedmann-Lemaître, es
potencialmente engañoso, ya que la expansión no se puede visualizar desde el exterior (no hay ,
”Así como no hay un“ antes ”con respecto al Big Bang).5
El modelo estándar del Big Bang caliente, como se llamó al modelo de Friedmann-Lemaître,
describe así un universo que no es eterno en el pasado, sino que nació hace un tiempo finito.
Además, —y esto merece ser subrayado— el origen que plantea es un origen absoluto ex nihilo.
Porque no sólo toda la materia y la energía, sino el espacio y el tiempo mismos, nacen en la
singularidad cosmológica inicial. Como enfatizan Barrow y Tipler, “En esta singularidad, el
espacio y el tiempo nacieron; literalmente, nada existía antes de la singularidad, así que, si el
Universo se originara en tal singularidad, realmente tendríamos una creación ex nihilo ”(Barrow
y Tipler, 1986, p. 442). En tal modelo, el universo se origina ex nihilo en el sentido de que es falso
que algo existiera antes de la singularidad.

2.32 Evidencia de la relatividad general


La evidencia más temprana a favor del Big Bang provino de la consonancia de la teoría y la
experimentación. Los primeros artículos de Einstein propusieron dos pruebas que podrían
realizarse de inmediato. Se sabía desde hacía algún tiempo que la teoría gravitacional de Newton
no podía describir adecuadamente la órbita del planeta Mercurio. La órbita real precesó
alrededor del sol (es decir, la elipse misma gira con el tiempo). En contraste con la teoría de la
gravedad de Newton, GR “predijo” que esta precesión debería tener lugar. La teoría de Einstein
también predijo que, dado que la materia dobla el espacio, los rayos de luz deberían tener sus
trayectorias notablemente dobladas cuando pasan cerca de objetos masivos. Un eclipse solar en
1919 brindó la oportunidad de probar esta predicción. Una expedición dirigida por Arthur
Eddington confirmó que los rayos de luz efectivamente se desviaron.
Estas pruebas no fueron lo suficientemente precisas 6para garantizar que no fueran posibles
pequeñas desviaciones de los recursos genéticos. También se sospechaba que, dado que el
universo real no es completamente homogéneo e isotrópico en todas las escalas, la predicción de
Friedmann y Lemaître de un verdadero comienzo singular del universo finalmente fracasaría.
Quizás una ligera anisotropía podría resultar en que la materia "saliera disparada" más allá de
ella si en una condición de radio mínimo (pero diferente de cero), de modo que la expansión
presente fue precedida por una contracción cósmica, evitando así el comienzo absoluto del
universo. En 1970, sin embargo, Stephen Hawking y Roger Penrose demostraron que el supuesto
de homogeneidad / isotropía era irrelevante. Los teoremas de la singularidad de Hawking-
Penrose mostraron que mientras el universo esté gobernado por GR (con algunas excepciones
técnicas que se volverán prominentes en nuestra discusión a continuación), nuestro pasado debe
incluir una singularidad (Hawking y Penrose 1970). Wald comenta:
[Hawking-Penrose 1970] nos da una fuerte razón para creer que nuestro universo es
singular. . . la evidencia observacional sugiere fuertemente que nuestro universo - o, al menos,
la porción de nuestro universo dentro de nuestro pasado causal - está bien descrito por un
modelo de Robertson-Walker [teoría estándar del Big Bang caliente] al menos hasta el tiempo
de desacoplamiento de materia y radiación. Sin embargo, en estos modelos, la expansión de
las geodésicas nulas dirigidas en el pasado que emanan del evento que nos representa en el
momento presente se vuelve negativa en un momento mucho más reciente que el tiempo de
desacoplamiento. Por tanto, hay una fuerte razón para creer que la condición 4c de [Hawking-
Penrose 1970] se satisface en nuestro universo. Dado que esperamos que las condiciones (1)
- (3) también se satisfagan, parece que nuestro universo debe ser singular. Por lo tanto,

Las condiciones que menciona Wald son:

1. Satisfacción de la condición de energía fuerte (típicamente obedecida por tipos de materia


"normales").
2. Satisfacción de la condición energética genérica (no existe una propiedad exótica del
espacio-tiempo que impida el enfoque gravitacional).
3. Sin ciclos de tiempo cerrados (el futuro no retrocede y se convierte en el propio pasado).
4. Hay un punto p tal que las líneas de mundo dirigidas por el pasado que emanan de p
tienen expansión negativa; es decir, se vuelven a enfocar entre sí (las líneas de mundo de
los observadores no se trazan en un pasado infinito dada una materia suficientemente
concentrada, sino que están "enfocadas", como por una lente, en una condición singular
dentro de un tiempo finito).

2.33 Excepciones a los teoremas de Hawking-Penrose


Cuatro posibles excepciones a los teoremas de la singularidad de Hawking-Penrose distinguen
convenientemente cuatro clases de modelos no estándar que proporcionan posibles alternativas
al modelo estándar del Big Bang (figura 1.2). El teorema de HP también tiene la condición obvia,
pero implícita, de que GR es fundamental; es decir, es una descripción completa y correcta de las
condiciones dentro de nuestro universo (definiendo así una quinta condición).
La primera opción (ciclos de tiempo cerrados) ha sido objeto de cierta exploración en los
círculos cosmológicos. Los dos siguientes, la inflación eterna y la gravedad cuántica, representan
áreas de fértil investigación cosmológica que merecen nuestra atención. No se espera que las dos
últimas condiciones de excepción formen parte de modelos físicos "razonables" del universo.
Hawking explica:
Entre 1965 y 1970, Penrose y yo utilizamos las técnicas que he descrito para probar varios
teoremas de singularidad. Estos teoremas tenían tres tipos de condiciones. Primero hubo una
condición de energía como las condiciones de energía débil, fuerte o genérica. Luego hubo
una condición global en la estructura causal, como que no debería haber ningún tiempo
cerrado como curvas. Y finalmente hubo alguna condición de que la gravedad fuera tan fuerte
en alguna región que nada pudiera escapar. . . .

Figura 1.2 Clases de modelos basadas en excepciones a los teoremas de singularidad de HP.

[La condición de energía genérica] dice que primero se cumple la condición de energía
fuerte. En segundo lugar, cada geodésica nula o temporal encuentra algún punto donde hay
alguna curvatura que no está especialmente alineada con la geodésica. La condición de
energía genérica no se satisface con una serie de soluciones exactas conocidas. Pero estos son
bastante especiales. Uno esperaría que se satisficiera con una solución que fuera "genérica"
en un sentido apropiado [es decir, un modelo físico razonable]. Si la condición de energía
genérica se mantiene, cada geodésica encontrará una región de enfoque gravitacional
(Hawking y Penrose 1996, págs. 14-15).

Esperamos que nuestro pasado presente una superficie cerrada y atrapada, y no hay razón para
postular una construcción exótica del espacio-tiempo que simplemente tendría características
de desenfoque perfectas para contrarrestar los efectos de la gravedad. Por lo tanto, nuestra
discusión girará en torno a las tres primeras opciones.

Cerré curvas temporales


Una primera y exótica excepción a los teoremas de Hawking-Penrose es la posible existencia de
curvas cerradas en forma de tiempo. Permitido por el GR de Einstein, las curvas cerradas, en
forma de tiempo, representan a un observador trazando una trayectoria circular a través del
espacio y el tiempo.
J. Richard Gott y Li-Xin Li han propuesto un modelo según el cual el universo temprano (solo)
es un ciclo de tiempo cerrado que ocasionalmente da "nacimiento" a un universo como el nuestro
(Fig. 1.3). Sostienen que el modelo de "túnel de la nada" de Alexander Vilenkin (véase la sección
IVc) debe tomarse correctamente como un túnel de un estado anterior. Como se verá en este
ensayo, la mayoría de los modelos cosmológicos afirman que el pasado termina en un límite hace
un tiempo finito. Entonces, uno desea explicar lo que existe en ese límite. Vilenkin (y, de forma
independiente, el equipo de Stephen Hawking y James Hartle) cree que el universo surgió "de la
nada". Gott y Li creen, en cambio, que hay una curva de tiempo cerrada (CTC) en este límite.
El modelo de Gott-Li podría ser un ejemplo de una línea de tiempo del universo que gira sobre
sí misma para permitir que el universo, en palabras de Gott y Li, "se convierta en su propia
madre". Ellos explican:
En este artículo, consideramos en cambio la noción de que el Universo no surgió de la nada,
sino que se creó a sí mismo. Una de las propiedades notables de la teoría de la relatividad
general es que en principio permite soluciones con CTC. ¿Por qué no aplicar esto al problema
de la primera causa?
Muchos modelos inflacionarios permiten la creación de universos inflacionarios bebés
dentro de los agujeros negros, ya sea haciendo un túnel a través del puente Einstein-Rosen o
por formación a medida que uno se acerca a la singularidad. Si uno de estos universos bebés
simplemente resulta ser el universo con el que comenzamos, entonces se produce un modelo
de múltiples conexiones con las primeras CTC limitadas por un horizonte de Cauchy.
. . . Entonces el Universo ni se hizo túneles de la nada, ni surgió de una singularidad; se
creó a sí mismo (Gott y Li 1998, p. 39, énfasis nuestro).
Figura 1.3Una máquina del tiempo del universo Gott-Li: la región de curvas cerradas en forma de tiempo existe en la parte inferior
del diagrama. Esta región está separada de la evolución futura del universo por un horizonte de Cauchy [un límite que separa el
espacio-tiempo en regiones CTC y regiones no CTC]. Las cuatro ramas en la parte superior del diagrama se pueden considerar
como burbujas inflacionarias que experimentan una expansión similar a la de De Sitter [ver sección II y IIIa para una discusión
sobre la inflación y los espacios de De Sitter].

Algunas historias de nuestro pasado fueron de naturaleza circular (formando un espacio-tiempo


de múltiples conexiones) y recreando el Big Bang. Además, este no es un universo cíclico; es el
mismo Big Bang.
El escenario de CTC plantea interesantes cuestiones filosóficas sobre la naturaleza del tiempo
(ver p. 191 en el ensayo original de Craig y Sinclair). Pero aquí nuestro interés está en la
viabilidad física del modelo. El principal problema físico al que se enfrentan los modelos CTC en
general es su violación de la llamada conjetura de protección cronológica.
Gott y Li indican que “la región de las CTC. . . debe estar en un estado de vacío puro que no
contenga partículas reales o radiación de Hawking ni burbujas ”(Gott y Li 1998, p. 39). Esto es
así porque esta radiación perdida destruiría el CTC. Stephen Hawking en (Hawking 1992)
discutió la razón de esta curiosa característica de un modelo de CTC, donde sugirió formalmente
una "Conjetura de protección cronológica". Su teoría era que una máquina del tiempo (CTC)
tendría características que eran tan inestables que rápidamente se destruiría a sí misma. De ahí
que la naturaleza conspire para prevenir las máquinas del tiempo. El teórico de GR Kip Thorne
ofrece una descripción de nivel popular (y entretenida) de este efecto.
Imagina que Carole regresa a la Tierra con una boca de agujero de gusano en su nave espacial,
y yo estoy sentada en casa en la Tierra con la otra. Cuando la nave espacial llega a menos de
10 años luz de la Tierra, de repente es posible que la radiación (ondas electromagnéticas)
utilice el agujero de gusano para viajar en el tiempo: cualquier fragmento aleatorio de
radiación que sale de nuestra casa en Pasadena y viaja a la velocidad de la luz hacia la Tierra.
La nave espacial puede llegar a la nave espacial después de 10 años (como se ve en la Tierra),
ingresar a la boca del agujero de gusano allí, viajar 10 años atrás en el tiempo (como se ve en
la Tierra) y emerger de la boca en la Tierra precisamente en el mismo momento cuando inició
su viaje. La radiación se acumula justo encima de su yo anterior, no solo en el espacio sino en
el espacio-tiempo, duplicando su fuerza. Y lo que es más,
Después del próximo viaje de la radiación a la nave espacial y luego de regreso a través
del agujero de gusano, regresa nuevamente al mismo tiempo que se fue y nuevamente se
acumula sobre sí misma, nuevamente con una energía impulsada por Doppler. Una y otra vez
esto sucede, haciendo que el haz de radiación sea infinitamente fuerte.
De esta manera, comenzando con una cantidad arbitrariamente pequeña de radiación, se
crea un rayo de energía infinita que atraviesa el espacio entre las dos bocas de los agujeros
de gusano. Mientras el rayo atraviesa el agujero de gusano. . . producirá una curvatura
espaciotemporal infinita [es decir, una singularidad] y probablemente destruirá el agujero de
gusano, evitando así [que nazca una máquina del tiempo en primer lugar] (Thorne 1994,
págs. 505–06).

Nos interesa la aplicabilidad general de este efecto al modelo de Gott-Li. Gott y Li son sensibles a
este problema y han desarrollado una solución.7Ellos y otros han encontrado algunos
espaciotiempos especialmente construidos que parecen eludir la Conjetura de protección
cronológica (CPC) de Hawking. Para evitar el CPC, han construido un estado inicial especial para
el universo: un espacio vacío de temperatura cero llamado "vacío Rindler adaptado". Está
especialmente construido y equilibrado de manera que no desarrolle el efecto destructivo
sugerido por Thorne anteriormente.
Después de la publicación del artículo de Gott y Li, William Hiscock desarrolló una defensa del
PCCh que todavía parece mantenerse (Hiscock 2000). En primer lugar, Hiscock sostiene que la
elección de la condición inicial de Gott-Li está muy ajustada. De hecho, el vacío de Gott-Li es de
"medida cero" en el conjunto de todos los posibles vacíos de Rindler. Esto significa que el
escenario es tan improbable como es posible sin descartarlo sumariamente. DH Coule está de
acuerdo en su resumen de los modelos de gravedad cuántica, refiriéndose al modelo de Gott-Li
como "bastante artificial" (Coule 2005).8En segundo lugar, Hiscock sostiene que el vacío de Gott-
Li no es estable, dados los campos de fuerza física más realistas. El escribe:
. . . la (Rindler) tensión-energía de vacío de un campo escalar acoplado no conforme, o un
campo sin masa acoplado conforme con a. . . la auto-interacción divergerá en el horizonte
cronológico para todos los valores de la escala de identificación de Misner [este es el
parámetro que Gott-Li ha ajustado con precisión]. Además, la polarización de vacío de [el
campo escalar considerado en el modelo de Gott-Li] diverge en todos los casos [lo que lleva
al efecto Thorne citado anteriormente], incluso para el caso conforme invariante examinado
por Li y Gott. Por lo tanto, el comportamiento regular encontrado por Cassidy y Li y Gott es
válido solo para un campo que no interactúa, invariante conforme, y solo para el tensor de
tensión-energía. Mientras que algunos campos en la naturaleza (por ejemplo, el campo
electromagnético, antes de que se agreguen las interacciones) son conforme invariantes,
otros, en particular la gravedad misma, no lo son;
Coule agrega: “. . . en el espacio de Misner este estado [modelo de Gott-Li] sólo fue posible con la
escala de identificación b = 2π, o b = 2πr0 para el caso de múltiples de Sitter. Ese valor exacto es
en sí mismo incompatible con las nociones de incertidumbre cuántica ”(Coule 2005, p. 31). Por
lo tanto, el principio de incertidumbre de Heisenberg de la mecánica cuántica garantizaría que
el parámetro relevante no podría ser "justo así". Pero si no es "así", entonces el universo colapsa
en una condición singular en presencia de una máquina del tiempo. Coule también sugiere que
este parámetro, llamado "escala de identificación de Misner" no es una constante. Más bien, es
probable que cambie dinámicamente en función de los acoplamientos de materia o los
potenciales energéticos. Tan pronto como lo haga, la CTC se desestabilizará.
Curiosamente, Gott y Li utilizaron objeciones similares al defender su modelo a expensas del
enfoque de “creación de la nada” de Vilenkin y Hartle-Hawking [sección IVc]. Gott-Li critica el
enfoque de "creación de la nada" basándose en el principio de incertidumbre y el hecho de que
sus competidores no están utilizando campos de fuerza realistas; es decir, el enfoque de Vilenkin
no se acerca lo suficiente a lo que esperamos para el universo real. Sin embargo, su propio
modelo parece derrumbarse cuando se le plantean objeciones similares.9, 10
La física de CTC es interesante, y aunque algunos teóricos todavía la persiguen, ocupa solo una
pequeña minoría de la investigación cosmológica en curso. Si bien es cierto que nadie ha podido
descartar definitivamente las CTC, la carga probatoria recae en quienes defienden la viabilidad
de tales espacios-tiempos y modelos basados en su realidad.

II. Inflación eterna

Motivación
La teoría inflacionaria ofrece una excepción más seria a los teoremas de la singularidad de
Hawking-Penrose. Aunque el modelo de Friedmann-Lemaître tuvo mucho apoyo probatorio,
hubo, no obstante, anomalías observacionales que sugirieron que había más en la historia.
También había razones teóricas para pensar que la descripción no era del todo completa. Estas
dificultades, especialmente el horizonte, la planitud y los problemas de las reliquias cósmicas,
llevaron a los teóricos a proponer una modificación de la imagen estándar del Big Bang llamada
"inflación".
Con respecto al problema del horizonte, los cosmólogos carecían de una explicación de por qué
el universo debería ser tan homogéneo e isotrópico. 11 Alan Guth explica:
Se supone que el universo inicial es homogéneo, sin embargo, consta de al menos ~ 1083
regiones separadas que están causalmente desconectadas (es decir, estas regiones aún no
han tenido tiempo de comunicarse entre sí a través de señales de luz). . . Por tanto, uno debe
asumir que las fuerzas que crearon estas condiciones iniciales fueron capaces de violar la
causalidad (Guth 1981, p. 347).

La cosmología tenía un principio "organizador" apropiado a la mano - el equilibrio


termodinámico -, sin embargo, las matemáticas demostraron que, en el límite, cuando uno mira
hacia atrás en el Big Bang, las diferentes partes del universo perderían la comunicación causal.
Sin comunicación causal, todas las partes del universo observable no podrían haber cooperado
en la transferencia de energía para que todas las partes parezcan iguales (en el presente). El
físico Brian Greene describe el problema del horizonte:
Los físicos definen el horizonte cósmico de una región (o horizonte para abreviar) como las
regiones circundantes más distantes del espacio que están lo suficientemente cerca de la
región dada para que las dos hayan intercambiado señales de luz en el tiempo desde el [Big]
bang. . . . El problema del horizonte, entonces, es el enigma, inherente a las observaciones, de
que las regiones cuyos horizontes siempre han estado separados, regiones que nunca
podrían haber interactuado, comunicado o ejercido ningún tipo de influencia entre sí, de
alguna manera tienen temperaturas casi idénticas (Greene 2004 , p. 289, énfasis en el
original).
. . . Imagine ejecutar la película cósmica al revés mientras se enfoca en dos regiones del
espacio que actualmente se encuentran en lados opuestos del universo observable, regiones
que están tan distantes que están más allá de las esferas de influencia de la otra. Si para
reducir a la mitad su separación tenemos que rodar la película cósmica más de la mitad hacia
el principio, entonces, aunque las regiones del espacio estaban más juntas, la comunicación
entre ellas seguía siendo imposible: estaban a la mitad de distancia, pero el tiempo dado que
la explosión fue menos de la mitad de lo que es hoy, la luz podría viajar solo menos de la mitad
de la distancia. Del mismo modo, si desde ese punto de la película tenemos que retroceder
más de la mitad del camino hasta el principio para reducir a la mitad la separación entre las
regiones una vez más, la comunicación se vuelve aún más difícil. Con este tipo de evolución
cósmica, a pesar de que las regiones estaban más juntas en el pasado, se vuelve más
desconcertante, no menos, que de alguna manera lograron igualar sus temperaturas. En
relación con lo lejos que puede viajar la luz, las regiones se cortan cada vez más a medida que
las examinamos cada vez más atrás en el tiempo. Esto es exactamente lo que sucede en la
teoría estándar del Big Bang (Greene 2004, p. 288, énfasis en el original).

Un segundo problema fue que el universo parece ser "plano" (es decir, el espacio es euclidiano:
los ángulos de un triángulo suman 180 grados; las líneas paralelas no se cruzan), mientras que
GR predice que ese es un resultado tremendamente improbable.
Un universo cerrado típico alcanzará su tamaño máximo en el orden [de la escala de Planck
de 10–44 segundos], mientras que un universo abierto típico disminuirá a una ρ [densidad]
mucho menor que ρcr [densidad crítica; la densidad de un universo longevo]. Un universo
solo puede sobrevivir ~ 1010 años [aproximadamente la edad de nuestro universo] solo
mediante un ajuste fino extremo. . . . Para [las condiciones iniciales probables para nuestro
universo], el valor de H0 [la tasa de expansión inicial del universo] debe ajustarse con
precisión a una precisión de una parte en 1055. En el modelo estándar, esta relación inicial
increíblemente precisa debe asumirse sin explicación (Guth 1981, pág. 348).

El tercer problema fue que la suposición de un estado inicial desorganizado del universo llevó a
la predicción de la presencia de extrañas reliquias cósmicas. Los monopolos magnéticos
deberían aparecer en nuestro universo en una densidad susceptible de ser detectada con
nuestros medios actuales. En el artículo original de Guth sobre la inflación, indica que la física de
partículas estándar predice una concentración de monopolos 14 órdenes de magnitud mayor
que el límite superior observado en nuestro universo. Hasta la fecha, no hemos visto ninguna de
estas estructuras exóticas.12
La solución de Guth a estos tres problemas fue postular un período de expansión exponencial
muy temprano en la historia del universo. Nuevamente Greene:
En la cosmología inflacionaria, hubo un breve instante durante el cual la gravedad fue
repulsiva y esto hizo que el espacio se expandiera cada vez más rápido. Durante esta parte
de la película cósmica, tendría que enrollar la película menos de la mitad hacia atrás para
reducir a la mitad la distancia entre las dos regiones. . . . la separación cada vez más rápida de
dos regiones cualesquiera del espacio durante la expansión inflacionaria implica que reducir
a la mitad su separación requiere enrollar la película cósmica menos, mucho menos, que la
mitad del camino hacia el principio. Por lo tanto, a medida que retrocedemos en el tiempo, es
más fácil que dos regiones del espacio se influyan entre sí, porque, en términos
proporcionales, tienen más tiempo para comunicarse. Los cálculos muestran que si la fase de
expansión inflacionaria hizo que el espacio se expandiera en al menos un factor de 1030, una
cantidad que se logra fácilmente en realizaciones específicas de expansión inflacionaria,
todas las regiones en el espacio que vemos actualmente. . . Pudimos comunicarnos. . . y, por
lo tanto, alcanzar de manera eficiente una temperatura común en los primeros momentos del
universo (Greene 2004, págs. 289–90, énfasis en el original).

Este período inflacionario comenzó y terminó en una fracción de segundo, sin embargo, un
evento inflacionario típico podría llevar a 70 "e-pliegues". Un pliegue e es una medida logarítmica
de cuán grande crece el universo durante un evento inflacionario. Aquí, N es el número de e-
pliegues y a (t) representa el factor de escala del universo al principio y al final de la inflación. 13

Los pliegues electrónicos son una forma abreviada de expresar el enorme aumento en el tamaño
del universo durante un evento inflacionario (recuerde el factor de Greene de 1030).
Por lo tanto, antes de la inflación, todas las partes del universo observable actual podrían estar
en comunicación causal entre sí. La expansión inflacionaria también suavizaría la curvatura del
universo actual para que sea plano o casi plano, similar a la forma en que la curvatura de una
pelota de baloncesto parecería desaparecer si de repente creciera hasta el tamaño de la Tierra.
Además, dado que nuestro universo observable actual sería solo una parte microscópica de la
variedad genérica original, se esperaría que la densidad de las reliquias cósmicas exóticas fuera
tan pequeña que no deberíamos verlas.
La inflación fue una solución notable para una serie de anomalías graves; pero también tenía
una característica más en la tienda. Los teoremas de la singularidad de Hawking-Penrose tenían
como uno de sus requisitos que la gravedad es siempre atractiva, al igual que lo es para la materia
ordinaria. Pero el candidato físico más probable que podría explicar un evento inflacionario era
un tipo de energía similar a la constante cosmológica original que había propuesto Einstein
(Einstein 1917). Este extraño tipo de energía actuaría como una gravedad repulsiva. Esto
condujo a un resultado filosóficamente deseado. Si esta "gravedad repulsiva" estaba presente en
el universo temprano y podía dominar la gravedad atractiva, entonces surge la posibilidad de
que los teoremas de singularidad de Hawking-Penrose no se aplicaran al universo real. Quizás,
después de todo, el universo es un pasado eterno.
La teorización inflacionaria eventualmente condujo a una teoría aún más grandiosa, según la
cual el material gravitacionalmente repulsivo puede, de hecho, ser la norma en el universo más
que la excepción. El cosmólogo Andrei Linde explica:
Este proceso, que he llamado inflación eterna, continúa como una reacción en cadena,
produciendo un patrón de universos similar a un fractal. En este escenario, el universo en su
conjunto es inmortal. Cada parte particular del universo puede provenir de una singularidad
en algún lugar del pasado y puede terminar en una singularidad en algún lugar del futuro. Sin
embargo, la evolución de todo el universo no tiene fin.
La situación desde el principio es menos segura. Existe la posibilidad de que todas las
partes del universo se hayan creado simultáneamente en una singularidad inicial del Big
Bang. Sin embargo, la necesidad de esta suposición ya no es obvia.
Además, el número total de burbujas inflacionarias en nuestro "árbol cósmico" crece
exponencialmente con el tiempo. Por lo tanto, la mayoría de las burbujas (incluida nuestra
propia parte del universo) crecen indefinidamente lejos del tronco de este árbol. Aunque este
escenario hace que la existencia del big bang inicial sea casi irrelevante, a todos los efectos
prácticos, se puede considerar el momento de formación de cada burbuja inflacionaria como
un nuevo "big bang". Desde esta perspectiva, la inflación no es parte de la teoría del Big Bang,
como pensábamos hace 15 años. Por el contrario, el big bang es parte del modelo
inflacionario (Linde 1998, p. 103, énfasis nuestro).

La caótica inflación de Linde fue uno de los dos puntos de vista en competencia de la teoría. El
competidor, llamado inflación "nueva", presentó la idea de que hay un "vacío falso", que
representa un vacío (meta) estable con una constante cosmológica similar a la de Einstein (en
comparación con el "vacío verdadero" en el que vivimos). En la "nueva inflación", este vacío falso
que se expande eternamente decae regionalmente hacia el vacío verdadero que se expande más
lentamente. Se expande más rápido de lo que decae, por lo que el proceso nunca se detiene.
La inflación caótica es una idea bastante diferente. Aquí, el universo parte de una “variedad
genérica”, que es un estado de caos de máxima entropía. Un campo de energía de diferentes
valores regionales impregna esta variedad. Donde el campo es grande, ocurre inflación. El
campo también puede sufrir fluctuaciones cuánticas a valores altos; dando inicio a la
inflación. Localmente, una región tenderá a buscar el valor mínimo permitido del campo de
energía. Esto conduce a un proceso llamado "recalentamiento", que crea la materia y la
energía ordinarias que vemos a nuestro alrededor. Mientras tanto, en lugares del universo
donde la densidad de energía de campo es alta, las fluctuaciones cuánticas tenderán a
contrarrestar la tendencia a minimizar y hacer perpetuo (globalmente, pero no
regionalmente) el proceso inflacionario (Fig. 1.4).
Figura 1.4En la inflación caótica, una variedad genérica inicial (un espacio global con características aleatorias; es decir, no
homogéneo y anisotrópico en densidad y curvatura de energía) sufre una inflación regional. Un observador sentado en un lugar de
inflación eventualmente verá que la inflación se detiene, pero las condiciones siempre son adecuadas, en algún lugar, para que la
inflación continúe.

Modelos inflacionarios eternos


Los años ochenta y noventa fueron testigos de una proliferación de modelos inflacionarios que
teóricamente permitían una proyección hacia un pasado eterno (Linde 2005). La fase
inflacionaria mencionada anteriormente no fue vista en estos modelos como un evento aislado.
Los teóricos comenzaron a describir la energía exótica que produce la inflación como un campo
que impregna el espacio que de otro modo sería vacío. Una suposición clave fue que la
densidad14de la energía en todo el espacio nunca cambia, por lo que se asemeja a la constante
cosmológica de Einstein. No depende del espacio ni del tiempo, es decir, es constante. En ese
caso, a medida que el espacio se expande, se debe producir continuamente más energía para
mantener una densidad de energía constante (de dónde proviene esta energía sigue siendo
motivo de controversia). El espacio se "clona" en sí mismo. 15Ocasionalmente, partes de este
espacio en rápida expansión se descomponen (se convierten) en el tipo de espacio "vacío" en el
que vivimos. Este espacio tiene una densidad de energía mucho menor, por lo que ahora hay una
gran cantidad de energía en exceso que impregna nuestro nuevo " burbuja." Se cree que este
exceso de energía se convierte en la materia normal que vemos a nuestro alrededor.
En la última versión de la teoría inflacionaria (figura 1.5), estas desintegraciones toman la
forma de eventos de túnel cuántico. Todo estado que posea una constante cosmológica
positiva es "metaestable". Eso significa que, similar a un isótopo radiactivo, el estado dura un
tiempo y luego cambia a un valor permitido diferente (generalmente más bajo) de la
constante cosmológica. Este estado de menor energía está inicialmente confinado a una
pequeña porción del espacio, pero dado que la constante cosmológica hace que el espacio se
expanda, se convierte en una burbuja de rápido crecimiento que está anidada dentro del
espacio original.
Figura 1.5El modelo inflacionario del paisaje de cuerdas. El Big Bang es solo un evento regional dentro de un multiverso más
grande. Hay diferentes tipos de "espacio vacío" que presentan diferentes valores de la constante cosmológica (burbujas de
diferentes colores). Cuanto mayor es la constante, más rápido se expande el universo. Nuestro universo decayó a partir de una de
estas regiones de "falso vacío".

Pero, ¿qué sucede con el espacio original, parte del cual se descompuso para formar nuestro
universo? Todavía está allí, y continúa expandiéndose a una velocidad enorme. Dado que
(generalmente) tiene una constante cosmológica más grande que la nueva burbuja, su
crecimiento supera al de la nueva burbuja. Dado que el falso vacío se expande más rápido de lo
que decae, la inflación es eterna en el futuro. Nuevas burbujas de vacío de baja energía
continuarán decayendo fuera del espacio en expansión.
Los teóricos se preguntaron si este proceso podría extenderse infinitamente al pasado.
Curiosamente, el propio Guth, junto con los colaboradores Alexander Vilenkin y Arvind Borde,
probablemente haya cerrado la puerta a esa posibilidad. En 2003, Borde, Guth y Vilenkin
publicaron un teorema de singularidad actualizado mucho más amplio en alcance que los
teoremas de Hawking-Penrose. Ellos explican
Nuestro argumento muestra que las geodésicas nulas y similares al tiempo son, en general,
en el pasado incompleto en los modelos inflacionarios, se mantengan o no las condiciones
energéticas, siempre que la condición de expansión promedio Hav> 0 se mantenga a lo largo
de estas geodésicas dirigidas al pasado (Borde, Guth y Vilenkin 2003, p. 3) dieciséis
Algo notable de este teorema es su amplia generalidad. No hicimos suposiciones sobre el
contenido material del universo. Ni siquiera asumimos que la gravedad se describe mediante
las ecuaciones de Einstein. Entonces, si la gravedad de Einstein requiere alguna modificación,
nuestra conclusión seguirá siendo válida. La única suposición que hicimos fue que la tasa de
expansión del universo nunca cae por debajo de un valor distinto de cero, sin importar cuán
pequeño sea. Esta suposición ciertamente debería satisfacerse en el falso vacío inflado. La
conclusión es que la inflación pasada-eterna sin un comienzo es imposible (Vilenkin 2006, p.
175).

Vilenkin afirma que cualquier universo (incluidos los universos modelados por cosmología de
dimensiones superiores, cosmología anterior al Big Bang, etc.) que, en promedio, se expande
tiene que conectarse, en un tiempo finito, con una frontera pasada (Comunicación personal, 4 de
marzo). , 2004).
Intuitivamente, la razón por la que el universo debe tener un comienzo en el pasado finito es
que, en un espacio en expansión, un observador que traza una línea de mundo (hacia el futuro)
se ralentiza. Este es el corrimiento al rojo. Vilenkin explica:
Introduzcamos ahora a otro observador que se mueve en relación con los espectadores [cada
uno de los cuales está inmóvil excepto por la expansión del espacio]. Lo llamaremos el viajero
espacial. Se mueve por inercia, con los motores de su nave espacial apagados, y lo ha estado
haciendo durante toda la eternidad. Cuando pasa junto a los espectadores, estos registran su
velocidad.
Dado que los espectadores se están separando [es decir, el universo se está expandiendo],
la velocidad del viajero espacial relativa a cada espectador sucesivo será menor que su
velocidad relativa al precedente. Supongamos, por ejemplo, que el viajero espacial acaba de
acercarse a la Tierra a una velocidad de 100.000 kilómetros por hora y ahora se dirige hacia
una galaxia distante, a unos mil millones de años luz de distancia. Esa galaxia se está alejando
de nosotros a una velocidad de 20.000 kilómetros por segundo, por lo que cuando el viajero
espacial la alcance, los observadores lo verán moverse a 80.000 kilómetros por segundo.
Si la velocidad del viajero espacial en relación con los espectadores se hace cada vez más
pequeña en el futuro, entonces se deduce que su velocidad debería aumentar cada vez más a
medida que seguimos su historia en el pasado. En el límite, su velocidad debería acercarse
arbitrariamente a la velocidad de la luz (Vilenkin 2006). 17

Entonces, mirando hacia el pasado, se debe ver al observador acelerar. Pero no se puede exceder
la velocidad de la luz. La implicación de esto es que la línea de mundo pasada de este observador
tiene una longitud finita. Este es el síntoma de la singularidad; la "patología" a la que se refirió
Robert Wald anteriormente. El observador habrá "comenzado su existencia hace un tiempo
finito".
El teorema de la singularidad de Borde-Guth-Vilenkin es ahora ampliamente aceptado dentro
de la comunidad física. Al momento de escribir este artículo, no ha sido cuestionado en gran
medida.18En cambio, ha resultado una nueva ronda de construcción de modelos basada en
excepciones a este teorema. Se presentan cuatro alternativas (Fig. 1.6).

IIIa. Contracción infinita


Supongamos que un universo espacialmente infinito se contrae hasta una singularidad y luego
"rebota" en nuestra expansión actual. En tal caso, no se puede decir que el universo esté en
promedio en un estado de expansión cósmica a lo largo de su historia, ya que la fase de expansión,
incluso si es infinita, es cancelada por la fase de contracción. Aunque es permisible según el
teorema de Borde-Guth-Vilenkin, esta opción no es, sin embargo, una opción popular entre los
cosmólogos contemporáneos. George Ellis identifica dos problemas que atormentan este
enfoque:

Figura 1.6 Construcción de un modelo cosmológico posterior a 2003 basado en la búsqueda de excepciones al teorema BGV.

Los problemas están relacionados: primero, las condiciones iniciales deben establecerse de
una manera extremadamente especial al comienzo de la fase de colapso para que sea un
universo de Robertson-Walker colapsando; y estas condiciones deben establecerse de
manera acausal (en el pasado infinito). Es posible, pero se está produciendo una gran
cantidad de ajustes inexplicables: ¿cómo sabe la materia en lugares ampliamente separados
y desconectados causalmente al comienzo del universo cómo correlacionar sus movimientos
(y densidades) para que se unan correctamente en una forma espacialmente homogénea en
el futuro?
En segundo lugar, si se hace bien, la fase de colapso es inestable, con perturbaciones
aumentando rápidamente, por lo que solo una fase de colapso muy ajustada permanece cerca
de Robertson-Walker incluso si comenzó así, y podrá dar la vuelta como un en su totalidad
(en general, muchos agujeros negros se formarán localmente y colapsarán en una
singularidad).
Entonces, sí, es posible, pero ¿quién enfocó tan bien el colapso que gire bien?
(Comunicación privada de 25 de enero de 2006)
Por lo tanto, existe un problema importante de ajuste fino acausal. Uno afirma no solo la
contingencia bruta, sino también una forma bastante curiosa de la misma. Ante el aparente ajuste
fino, los físicos suelen preferir ofrecer algún tipo de explicación. Considere, por ejemplo, los
modelos de multiverso como una explicación del aparente ajuste fino de las constantes físicas
fundamentales, o la resolución inflacionaria de Guth del problema del horizonte (equilibrio
termodinámico pasado).
En segundo lugar, existe el problema de que el colapso se vuelve caótico a medida que se acerca
a la singularidad. Esto producirá una condición de inicio previa a la expansión que se sabe que
es dramáticamente diferente de nuestro "Big Bang" real. Este fenómeno se conoce como “caos
BKL” en honor a sus descubridores (ver Belinsky, Khalatnikov y Lifshitz 1970). 19Este problema
aparecerá para todos los intentos de una línea de tiempo pasado-eterno que busquen introducir
una fase anterior al Big Bang que “rebota” en la expansión presente. De hecho, la verdadera
implicación de BKL bien puede ser que es físicamente imposible "rebotar" a través de una
singularidad.
Al afirmar que las condiciones iniciales "tienen que establecerse de manera acausal (en el
pasado infinito)", Ellis pone el dedo en una cuestión filosófica irritante en los modelos
cosmológicos que presentan un pasado infinito, es decir, a menudo parecen tratar el pasado
infinito. como si presentara un punto de inicio infinitamente distante. En este ensayo se analizan
varios de estos modelos. Pero, como ya hemos visto en nuestra discusión de los argumentos
filosóficos del kalām, tal suposición es ilícita, ya que un punto tan infinitamente distante es
simplemente un límite ideal característico del infinito potencial, no un momento que en realidad
alguna vez estuvo presente.20 Si se nos permite hablar de la condición del universo en el infinito
pasado, entonces las paradojas zenonianas (ver p. 119 en el ensayo original de Craig y Sinclair)
son inevitables.
Si la condición pasada del universo es causal, entonces, por supuesto, no hubo
"establecimiento" de la condición; simplemente es." Ellis se refiere simplemente a la
construcción del modelo matemático. Pero supongamos que imaginamos que las condiciones de
contorno se establecieron literalmente en el infinito pasado. Algo como esto era una
característica del antiguo universo "Mixmaster" de Charles Misner:
En realidad, no esperamos que los universos se expandan exactamente al mismo ritmo en
todas las direcciones, y cuando se vuelven asimétricos así se comportan de una manera muy
complicada. Aunque se expanden en volumen, una dirección tiende a contraerse mientras
que las otras dos se expanden, tendiendo a crear un "panqueque" en expansión. Pero pronto
la dirección de contracción cambia a expansión y una de las otras dos direcciones de
expansión cambia a contracción. Durante un largo período de tiempo, el efecto es una
secuencia de oscilaciones. . . Lo sorprendente de la secuencia de oscilaciones del volumen del
universo a medida que se reduce a cero, cuando uno recorre su historia hacia el Big Bang en
el tiempo cero, o hacia el Big Crunch en el momento decisivo, es que un infinito se producen
varias oscilaciones. . . . La diferencia entre el Universo Mixmaster y la paradoja de Zeno es que
suceden un número infinito de eventos reales físicamente distintos en cualquier intervalo de
tiempo finito que incluye el tiempo cero o el tiempo decisivo. Medido por un reloj que "hace
tic-tac" en este tiempo oscilante, el Universo Mixmaster se consideraría infinitamente
antiguo, porque un número infinito de cosas le han sucedido al pasado en este tiempo, y
"vivirá" para siempre porque un número infinito de las cosas aún están por suceder en el
futuro (Barrow 2005, págs. 242–43).

El universo Mixmaster es interesante porque parece ofrecer una línea de tiempo infinita pasada
que, sin embargo, presenta un límite pasado claro para esa línea de tiempo; es decir, un punto de
inicio infinitamente distante. Se trata de juzgar la medida de tiempo más apropiada físicamente.
En el momento adecuado, Mixmaster surgió hace un tiempo finito de una singularidad y
terminará su existencia en un tiempo finito en el futuro. El tiempo medido por "tics" oscilatorios
reportaría una línea de tiempo que es infinita al pasado y al futuro. Barrow y Tipler aclaran:

Siempre es posible encontrar una transformación conforme que convierta un universo


infinito en uno finito y viceversa. Siempre se puede encontrar una coordenada temporal en
la que exista un universo durante un tiempo propio finito. . . existe durante un tiempo infinito
en la nueva coordenada de tiempo, y una coordenada de tiempo en la que existe un universo
que existe durante un tiempo propio infinito. . . existe solo por un tiempo finito. El tiempo
físico más apropiado puede ser o no la coordenada de tiempo adecuada (Barrow y Tipler
1986, p. 636).

Los físicos consideran rutinariamente un punto de "comienzo" pasado infinitamente distante, de


hecho, traen el infinito a sus modelos físicos a través de un proceso llamado transformación
conforme. Considere a Barrow y Tipler, que aquí explican modelos cosmológicos sencillos de
Friedmann-Robertson-Walker utilizando un dispositivo llamado diagrama de Penrose.
Los límites de un diagrama de Penrose representan lo que se denominan límites c de los
modelos cosmológicos. Los c-límites se componen de las singularidades y los puntos en el
infinito; el límite c de una cosmología es el límite del espacio-tiempo, el "lugar" en el que
comienzan el espacio y el tiempo. Por convención, las singularidades se representan
mediante líneas dobles en los diagramas de Penrose. [Por ejemplo] las singularidades inicial
y final son los únicos c-límites en un universo cerrado de Friedmann. Un universo de
Friedmann abierto, por otro lado, tiene cuatro estructuras de límite c distintas: una
singularidad inicial de la cual surgió todo el espacio-tiempo, un único punto i0 que representa
el infinito espacial, una línea de 45 ° ϑ + (llamada “scri plus ”) Que representan el“ infinito
nulo ”, que son los puntos en el infinito que alcanzan los rayos de luz (curvas nulas) después
de un tiempo infinito,
Un diagrama de Penrose nos permite definir rigurosamente “un infinito logrado”, un
concepto cuya coherencia lógica los filósofos han dudado durante miles de años. Usando el
límite c, es posible discutir la topología del "infinito alcanzado" y el "comienzo del tiempo" en
modelos cosmológicos (Barrow y Tipler 1986, págs. 635-36).
Modelos como Mixmaster, el problema de las supertareas21 en general, y el significado de las
transformaciones conformes plantea la cuestión de si un pasado infinito implica la ausencia de
una frontera del pasado.

Figura 1.7 Representación de Penrose de la cosmología de FRW.

La figura 1.7 muestra un diagrama de Penrose para el tipo de universo considerado en esta
sección; es decir, uno que se contrae desde un tamaño infinito hasta una singularidad, y luego
rebota en un universo en expansión (ver el lado derecho del diagrama). La figura 1.8 muestra
otro tipo de modelo simplificado (un universo de De Sitter) que tiene este tipo de
comportamiento. El modelo de De Sitter incluye "energía oscura", mientras que el modelo de
contracción en la figura 1.7 incluye sólo materia ordinaria. Un modelo físico más realista incluiría
tanto materia ordinaria como "energía oscura". El comportamiento del universo a gran tamaño
estaría dominado por la energía oscura, por lo que un modelo de De Sitter da una buena idea del
comportamiento de un modelo de contracción infinita para el pasado asintótico. Por el contrario,
Parece que hay un dilema. Por un lado, uno podría tener la realidad de una línea de tiempo
infinita pasada sin un comienzo. Pero entonces hay que afirmar la contingencia bruta. "Las cosas
son como son porque eran como eran".22Además, uno debe hacer esto con respecto al aparente
ajuste fino. Esto parece inverosímil. Al menos se puede decir que es impopular, dado que los
cosmólogos buscan ávidamente una explicación para un aparente ajuste fino en la forma de un
multiverso o una teoría del todo superdeterminista. Si vamos a renunciar a la explicación, ¿qué
hay de malo en dejar la cosmología como estaba antes de 1980, es decir, el modelo estándar del
Big Bang caliente (con el desglose asociado de la física en la singularidad)? 23
El otro cuerno implica un punto de inicio infinitamente distante y permite la posibilidad de
una explicación. Pero abre la puerta a una explicación sobrenatural del comienzo. La segunda
premisa del argumento cosmológico kalām se mantendría, ya que esa premisa no requiere que
el comienzo esté en el pasado finito.

IIIb Espacio-tiempo asintóticamente estático

Figura 1.8Una representación más realista de un universo que se colapsa infinitamente hasta convertirse en un Big Bang y luego
se expande. La cosmología de De Sitter tiene en cuenta el comportamiento dominante de una constante cosmológica para un
universo de gran tamaño.

Un espacio asintóticamente estático es aquel en el que la tasa de expansión promedio del


universo a lo largo de su historia es igual a cero, ya que la tasa de expansión del universo "en" el
infinito es cero. Por tanto, el universo, quizás en el pasado asintótico, está en un estado estático
(ni expandiéndose ni contrayéndose). Esto permite que el modelo escape del teorema de
singularidad BGV.
A primera vista, parecería que difícilmente podría decirse que el universo tiene una expansión
media cero a lo largo de su historia si, como sabemos por la observación, ¡de hecho se ha estado
expandiendo! ¿No tendría que ser la tasa de expansión promedio mayor que cero? No, no cuando
incluimos "infinito" en el promedio. Considere una analogía en la que el gobierno local decide
que, de ahora en adelante, todos pagarán impuestos sobre la propiedad de acuerdo con el valor
promedio de la propiedad (por acre) en el condado en lugar de según la tasación individual. Esto
puede ser bueno o malo para usted, dependiendo de si vive en el distrito de alto nivel. Pero
suponga que su condado se expandió repentinamente para incluir el desierto del Sahara. El
Sahara no tiene valor y es grande, por lo tanto, el valor promedio de la propiedad, por milla
cuadrada, se hunde vertiginosamente. Además, cuanto más grande es el Sahara, cuanto más cerca
de cero estarán los impuestos a la propiedad. En el límite a medida que el Sahara crece hasta un
tamaño infinito, los impuestos a la propiedad se reducirán a cero. De manera similar, una
condición de expansión cero en el infinito tendría el mismo impacto en la tasa de expansión
promedio. Y el teorema de BGV solo se aplica a un universo de expansión promedio positivo.
George Ellis y sus colegas han participado activamente en este tipo de construcción de modelos.
Los modelos de este tipo pertenecen a lo que se llama la clase de modelo "Emergente".
Rehabilitan el modelo estático de Einstein postulando que el universo existió inicialmente en tal
fase y luego pasó a través de una fase inflacionaria al universo que vemos a nuestro alrededor
hoy. Ellis y Maartens explican: una condición de expansión cero en el infinito tendría el mismo
impacto en la tasa de expansión promedio. Y el teorema de BGV solo se aplica a un universo de
expansión promedio positivo. George Ellis y sus colegas han participado activamente en este tipo
de construcción de modelos. Los modelos de este tipo pertenecen a lo que se llama la clase de
modelo "Emergente". Rehabilitan el modelo estático de Einstein postulando que el universo
existió inicialmente en tal fase y luego pasó a través de una fase inflacionaria al universo que
vemos a nuestro alrededor hoy. Ellis y Maartens explican: una condición de expansión cero en el
infinito tendría el mismo impacto en la tasa de expansión promedio. Y el teorema de BGV solo se
aplica a un universo de expansión promedio positivo. George Ellis y sus colegas han participado
activamente en este tipo de construcción de modelos. Los modelos de este tipo pertenecen a lo
que se llama la clase de modelo "Emergente". Rehabilitan el modelo estático de Einstein
postulando que el universo existió inicialmente en tal fase y luego pasó a través de una fase
inflacionaria al universo que vemos a nuestro alrededor hoy. Ellis y Maartens explican: Los
modelos de este tipo pertenecen a lo que se llama la clase de modelo "Emergente". Rehabilitan
el modelo estático de Einstein postulando que el universo existió inicialmente en tal fase y luego
pasó a través de una fase inflacionaria al universo que vemos a nuestro alrededor hoy. Ellis y
Maartens explican: Los modelos de este tipo pertenecen a lo que se llama la clase de modelo
"Emergente". Rehabilitan el modelo estático de Einstein postulando que el universo existió
inicialmente en tal fase y luego pasó a través de una fase inflacionaria al universo que vemos a
nuestro alrededor hoy. Ellis y Maartens explican:
Mostramos aquí que cuando K = +1 [recuerde el parámetro de curvatura de la ecuación de
Friedmann] hay modelos inflacionarios cerrados que no rebotan, sino que se inflan desde un
comienzo estático y luego se recalientan de la manera habitual. [Recordemos la inflación de
Guth] El universo inflacionario emerge de un pequeño estado estático que tiene dentro de sí
las semillas para el desarrollo del universo macroscópico, y lo llamamos el escenario del
“Universo Emergente”. (Esto puede verse como una versión moderna y extensión del
universo de Eddington.) El universo tiene un tamaño inicial finito, con una cantidad finita de
inflación que ocurre durante un tiempo infinito en el pasado, y luego la inflación llega a su fin
mediante el recalentamiento. en la forma estándar (Ellis y Maartens 2004, énfasis
agregado).24
Como tal, es una cosmología inflacionaria cerrada manifiestamente no singular que
comienza desde un estado estático de Einstein metaestable y decae en una fase de De Sitter
y posteriormente en una evolución estándar del Big Bang caliente (Ellis, Murugan y Tsagas
2004, énfasis agregado). .
Una segunda posibilidad, igualmente intrigante, es que el universo estático inicial de
Einstein se crea a partir de "nada" mediante algún proceso de tunelización cuántica. De
hecho, la finitud de la acción de tunelización requiere que el universo creado a través de
tunelización instantónica se cierre. No es inverosímil, entonces, que a través de fluctuaciones
cuánticas espontáneas, se pueda crear un universo cerrado en un estado estático de Einstein
de larga duración pero transitorio que luego haga una transición a una vida finita de De Sitter
y la subsiguiente fase de FRW marginalmente cerrada según las líneas descritas
anteriormente. (Ibíd., Énfasis agregado).25

Ahora la pregunta que nos interesa es si el pasado de este modelo se percibe como eterno. Una
cierta cantidad de ambigüedad acompaña a la respuesta. En algunos relatos (como el anterior)
parece bastante claro que los modelos Emergentes tienen un comienzo, a saber, el estado estático
de Einstein (en adelante ESS). También se afirma explícitamente que el modelo se puede
construir con ESS ocurriendo un tiempo finito al pasado (Ellis y Maartens 2004, sección V). Sin
embargo, en los artículos relevantes, la ESS suele describirse como un enfoque asintótico para el
tiempo infinito pasado: “Aquí. . . consideramos un universo lleno de un campo escalar dinámico,
que es asintótico pasado de un modelo estático de Einstein con un radio determinado por la
energía cinética del campo ”(Ellis y Maartens 2004, p. 1). Algunos filósofos que han escrito sobre
el tema tienen un problema con la naturaleza artificial del infinito pasado en modelos de este
tipo. Por ejemplo, Rüdiger Vaas caracteriza los modelos Emergentes como "soft-bang / pseudo
comienzo" por naturaleza. Él ve el enfoque asintótico hacia la ESS como una especie de artefacto
matemático (Vaas 2004, p. 18).
Vale la pena centrarse en el tema de la inestabilidad de los ESS. El propio universo estático de
Einstein se consideró originalmente como un pasado eterno. Pero hay problemas obvios con esta
interpretación. La razón por la que el propio Einstein abandonó originalmente el modelo fue su
característica de equilibrio inestable. Aunque, en GR no cuántico puro, uno puede considerar un
estado estático con líneas de mundo que se remontan al tiempo infinito negativo, en realidad
sabemos que la gravedad es una fuerza cuántica. Como señala Vilenkin, “Las pequeñas
fluctuaciones en el tamaño del universo son inevitables según la teoría cuántica y, por lo tanto,
el universo de Einstein no puede permanecer en equilibrio durante un tiempo infinito” (Vilenkin
2006, p. 209).26Por otro lado, se puede demostrar que el universo observable actual no se
encuentra en un estado estático. Es necesaria una fluctuación cuántica (o quizás térmica) para
forzar una transición a un universo en expansión. De hecho, es necesaria una fluctuación para
que funcione el modelo de dos fases. Pero este mismo mecanismo implica que el estado inicial
no es un pasado eterno.
Lo mejor que se puede hacer es la última versión del modelo Emergent, que utiliza una solución
de "baja energía" de gravedad cuántica de bucle (LQG) para hacer que el estado de Einstein sea
estable frente a perturbaciones de tamaño limitado (Fig. 1.9) . En respuesta a la pregunta "¿Es el
estado inicial metaestable y, por lo tanto, finito durante su vida?" Ellis responde que el estado de
Einstein puede persistir como máximo durante un tiempo "largo" pero aparentemente finito. 27
El teórico de la gravedad cuántica de bucles Martin Bojowald explica que cualquier
perturbación, incluso si no tiene el tamaño inicial suficiente para hacer que el sistema escape del
potencial metaestable, eventualmente hará que el sistema escape de él:

Figura 1.9 Evolución de un universo emergente a partir de un estado LQG metaestable.

Las soluciones estáticas no evolucionan y, por lo tanto, son claramente inadecuadas como
modelo para el Universo. Pero al introducir una perturbación en una solución estática, se
puede cambiar ligeramente y así comenzar una historia más interesante.
Desafortunadamente, la solución clásica [ESS] es inestable: cualquier perturbación crece
rápidamente, dejando atrás poco del estado inicial. La idea de Mulryne y sus colegas es que
los efectos cuánticos podrían proporcionar todos los ingredientes necesarios donde las
soluciones clásicas no lo hacen. En el marco de la gravedad cuántica de bucles, la repulsión
también implica soluciones estáticas de pequeño tamaño, pero estas, a diferencia del caso
clásico, son estables. Según el modelo de los autores, perturbar tal estado conduce a
pequeños ciclos de intercambio de expansión y contracción. Durante este proceso, la materia
evolucionará lentamente, y los ciclos cambiarán gradualmente su comportamiento. Por sí
mismo, esta recurrencia perpetua y cambio incremental parece carecer de la chispa necesaria
para un evento tan trascendental como el nacimiento del Universo. Y de hecho, Mulryne y sus
colegas identifican un ingrediente teórico final que enciende esta chispa: mediada por efectos
repulsivos, la energía potencial se empuja gradualmente hacia la materia durante su lenta
evolución. En el momento en que la energía potencial comienza a dominar la energía cinética,
el ciclo mundano se rompe por una repentina y dramática explosión inflacionaria: el Universo
emergente (Bojowald 2005, págs. 920–21, énfasis agregado). Mulryne y sus colegas
identifican un ingrediente teórico final que enciende esta chispa: mediada por efectos
repulsivos, la energía potencial se empuja gradualmente hacia la materia durante su lenta
evolución. En el momento en que la energía potencial comienza a dominar la energía cinética,
el ciclo mundano se rompe por una repentina y dramática explosión inflacionaria: el Universo
emergente (Bojowald 2005, págs. 920–21, énfasis agregado). Mulryne y sus colegas
identifican un ingrediente teórico final que enciende esta chispa: mediada por efectos
repulsivos, la energía potencial se empuja gradualmente hacia la materia durante su lenta
evolución. En el momento en que la energía potencial comienza a dominar la energía cinética,
el ciclo mundano se rompe por una repentina y dramática explosión inflacionaria: el Universo
emergente (Bojowald 2005, págs. 920–21, énfasis agregado).

La metaestabilidad implica una vida finita para el estado asociado. O algo debe haber venido
antes o fue "creado". Este tema de la metaestabilidad es un problema general en una amplia gama
de clases de modelos. Vaas elabora:
Los estados metaestables tienen un mínimo local, pero no global, en su paisaje potencial y,
por lo tanto, pueden decaer; Los estados fundamentales también pueden cambiar debido a la
incertidumbre cuántica, es decir, debido a eventos de tunelización local. Algunas teorías aún
especulativas de la gravedad cuántica permiten la suposición de un estado fundamental
macroscópicamente menos temporal y global (por ejemplo, vacío cuántico o de cuerdas,
redes de espín, torsiones). Debido a fluctuaciones accidentales, que exceden un cierto valor
umbral, los universos pueden emerger de ese estado. Debido a algunos mecanismos físicos
también especulativos (como la inflación cósmica), adquieren - y, por lo tanto, se caracterizan
por - dinámicas de no equilibrio dirigidas, condiciones iniciales específicas y, por lo tanto,
una flecha del tiempo (Vaas 2004, p. 10, énfasis adicional).

Por tanto, parece que los estados metaestables (y, en realidad, inestables) deben tener una vida
meramente finita. Los estados metaestables dejan sin explicar cómo llegaron a existir. Por lo
tanto, los universos con un estado inicial metaestable deben tener un comienzo, consistente con
la segunda premisa del argumento cosmológico kalām.

IIIc Universo cíclico


Según estos modelos, el universo pasa por un ciclo en el que crece desde el tamaño cero (o casi
cero) hasta un máximo y luego se contrae de nuevo a su condición inicial. El universo en sí es
periódico, en el sentido de que pasa por muchos de esos ciclos, quizás un número infinito. La
expansión promedio del universo sería cero en un modelo cíclico "puro", ya que ciclo a ciclo uno
siempre experimenta exactamente cantidades iguales de expansión y contracción. Por tanto, un
modelo cíclico evade el teorema de BGV. El pasado carece de rasgos distintivos. A diferencia de
las dos clases de modelos anteriores, no es el caso de que el universo se acerque asintóticamente
a algún estado particular en el pasado infinito.

Sin embargo, como indica Vilenkin, los modelos cíclicos enfrentan un problema
termodinámico: “Un universo verdaderamente cíclico tiene un problema con el aumento de
entropía: ya debería haber alcanzado el equilibrio termodinámico” (Comunicación personal, 19
de enero de 2007). Nuestra observación del universo actual indica que no estamos en una
condición de equilibrio termodinámico, ¡algo bueno para nosotros, ya que la vida requiere
condiciones de no equilibrio para existir! Al mirar hacia el pasado, también se cree que el tamaño
de cada ciclo disminuye (debido al efecto de la radiación sobre la entropía). Eventualmente, los
ciclos son tan pequeños que uno termina con una física diferente, lo que excluiría el ciclo e
implicaría un comienzo para el universo.
Entonces, ¿cómo se supera este problema? Paul Frampton y Lauris Baum han propuesto
recientemente un mecanismo ingenioso que abre nuevos caminos en los estudios cosmológicos.
Es sorprendente que basen su modelo en un escenario que generalmente se piensa que implica
todo lo contrario al ciclismo. Asumen que un tipo de energía oscura impregna el universo donde
su ecuación de estado (la relación entre la presión y la densidad de energía) es menor que -1.
Esto sería diferente de la constante cosmológica mencionada anteriormente (ecuación de estado
e qual a -1). Se cree que este tipo de expansión conduce a un evento llamado Big Rip. La energía
oscura (también llamada energía fantasma en este contexto) hace que la aceleración en la
expansión del universo sea tan grande que nuestro horizonte visible se encoja con el tiempo. Con
el tiempo, este horizonte causal se encoge tanto que los objetos cosmológicos cada vez más
pequeños se liberan causalmente. Las galaxias, los sistemas solares, los planetas y
eventualmente incluso los átomos se rompen a medida que la tasa de expansión del universo
tiende hacia el infinito. Esto se detendría en una singularidad espacial en el futuro finito. Baum y
Frampton proponen un modelo de "mosaico"28 para superar el problema de la acumulación de
entropía en un solo universo:
Consideramos un modelo en el que, a medida que nos acercamos a la ruptura, la expansión
se detiene debido a una contribución de la brana justo antes de la ruptura grande y hay un
tiempo de respuesta t = tT cuando el factor de escala se desinfla a una fracción muy pequeña
(f) de sí mismo. y sólo se retiene un parche causal, mientras que los otros parches 1 / f3 se
contraen independientemente para separar universos. El cambio se produce en un período
de tiempo extremadamente corto (<10–27 s) antes de que ocurriera la gran ruptura, en un
momento en que el Universo está fraccionado en muchos parches causales independientes
(Baum y Frampton 2007, p. 1).

Lo que sucede en el enfoque de Baum-Frampton es que muy cerca del evento Big Rip, el universo
se divide en parches que no interactúan (causalmente desconectados). El universo se ha
expandido tanto en este punto que casi todos estos parches están vacíos de materia (normal) y
radiación. Contienen solo fantasmas29energía. Resulta que el contenido de entropía del universo
(que es lo que interfiere con el ciclo) está contenido dentro de la materia y la radiación finamente
esparcidas. Se supone que esos parches que contienen solo energía fantasma nunca se someten
al Big Rip. En cambio, se someten por separado a un evento de deflación; contrayendo una
cantidad exactamente igual a la expansión que experimentó el universo desde el Big Bang
(evitando así las implicaciones del teorema BGV). Antes de alcanzar una singularidad, el parche
de contracción rebota debido a los efectos de la energía fantasma. Luego repite el mismo ciclo
sin cesar. Cada parche que sufre esto se fracciona en nuevos “universos” que ellos mismos
comienzan a propagarse (piense en los dientes de león que se extienden por su césped). Por lo
tanto, se dice que el modelo de Baum-Frampton presenta un multiverso infinito además de un
comportamiento cíclico sin comienzo (figura 1.10). Pero, ¿es viable el modelo?
Quedan por abordar varios desafíos para que el modelo sea una opción viable. Primero, para
evitar el teorema de la singularidad de Borde-Guth-Vilenkin, la contracción promedio debe ser
exactamente igual a la expansión promedio (para cada geodésica). Pero, ¿cómo se puede hacer
esto sin introducir un ajuste fino explícito? No hay razón para que la deflación del factor de escala
coincida exactamente con la expansión posterior al Big Bang. Frampton admite,
No tengo idea de por qué [la restricción BGV] se satisface porque relaciona la expansión con
materia oscura con la contracción sin materia oscura. . . . Sospecho que no es un ajuste fino,
pero eso puede depender en última instancia de la perspectiva de uno: si BGV no se satisface,
la ciclicidad infinita es imposible (Comunicación privada, 5 de febrero de 2007).

El problema aún no se ha abordado.30


En segundo lugar, globalmente, la entropía ya debería haber crecido hasta un valor infinito.
¿Cómo es posible que las distintas regiones permanezcan desconectadas causalmente? El factor
clave en este modelo es el método para deshacerse de la entropía del universo. Como enfatizan
Baum y Frampton, si la materia se retiene durante una fase de contracción:
Figura 1.10 Modelo de rebote fantasma de Baum-Frampton.

. . . La presencia de polvo o materia requeriría que nuestro universo pasara a la inversa por
varias transiciones de fase (recombinación, QCD y electrodébil, por nombrar algunas) que
violarían la segunda ley de la termodinámica. ¡Por lo tanto, requerimos que nuestro universo
vuelva vacío! (Baum y Frampton 2007, p. 4)

Ahora, globalmente, durante un tiempo pasado infinito, el modelo postula que se ha producido
una cantidad infinita de materia y radiación (por lo tanto, entropía infinita). ¿Cómo es entonces
que la densidad de entropía evita alcanzar una cantidad infinita? Frampton responde:
Es cierto que si conservamos todos los parches separados, la entropía sigue aumentando.
Nuestra idea clave es retener sólo un parche causal para nuestro universo, cuya entropía cae
precipitadamente en lo que por razones obvias llamamos deflación (Comunicación privada,
5 de febrero de 2007).

La única mención de adónde va esta entropía ocurre en el siguiente pasaje: “El viejo problema al
que se enfrenta Tolman se evita eliminando la entropía a una región exterior no observable; se
puede decir en retrospectiva que el problema radica en considerar un solo universo ”(Frampton
2007a, p. 4).
Simplemente empujar la entropía a otros "universos" plantea la pregunta de si, dado el tiempo
infinito, un espacio estático y una infinidad contable de reinos dentro del multiverso, los reinos
no deben colisionar eventualmente. Frampton responde:
. . . los “parches causales” permanecen inconexos generando universos separados que no
interactúan ni chocan de nuevo cuando comienzan y permanecen causalmente
desconectados. Esta respuesta más definitiva. . . resulta de nuestra mejor comprensión del
cambio de rumbo de los cálculos técnicos posteriores (comunicación privada, 10 de octubre
de 2007).

En nuestra comunicación inicial (febrero de 2007), Frampton indicó que el problema de la


colisión era válido y sería investigado. Estos cálculos aún no se han publicado, por lo que el
problema sigue siendo preocupante.
El cosmólogo Xin Zhang, en un artículo reciente (Zhang 2007a), sostiene que el mecanismo de
desconexión causal en el cambio no funciona precisamente porque los parches desconectados
vuelven a entrar en contacto causal. Frampton ha señalado un posible error en la crítica de Zhang
(Frampton 2007b). Sin embargo, esto parece haberse rectificado en una nueva comunicación
(Zhang 2007b). La (nueva) crítica de Zhang es la siguiente: Frampton usa la siguiente forma de
la ecuación de Friedmann modificada31:

Aquí, "H" es el parámetro de Hubble que se define como la derivada del factor de escala dividida
por el factor de escala en el tiempo. Recuerde que el factor de escala es el factor por el cual se
multiplica el tamaño del universo para representar expansión o contracción.

Zhang aclara:. . . ρc es la densidad de energía crítica establecida por la gravedad cuántica, que
es la densidad máxima del universo. Tal ecuación de Friedmann modificada con un
componente de energía fantasma conduce a un escenario de universo cíclico en el que el
universo oscila a través de una serie de expansiones y contracciones. En el universo habitual
[que se rige por la ecuación de Friedmann ordinaria], la energía oscura fantasma conduce a
una singularidad de "gran desgarro"; sin embargo, en este peculiar universo cíclico, la
singularidad de gran desgarro se puede evitar porque cuando ρ alcanza ρc, el universo
cambiará debido a [la ecuación de Friedmann modificada] (Zhang 2007b).

Entonces, la tasa de cambio del tamaño del universo está gobernada por la densidad de este tipo
especial de energía "fantasma". Zhang continúa:
Cuando el universo se acerca al punto de cambio (ρ → ρc), tenemos H → 0. Por lo tanto,
obviamente, en el cambio, tenemos H − 1 → ∞. Esto implica que el radio de Hubble se vuelve
infinito en el punto de cambio, porque en ese momento el universo se vuelve estático
instantáneamente (es decir, deja de expandirse en el cambio de sentido). Obviamente, en el
cambio de rumbo, el universo no se fragmentaría en muchos parches causales desconectados
(Zhang 2007b).
La inversa del parámetro de Hubble (H − 1, llamado radio de Hubble) gobierna la escala a la que
puede actuar la microfísica, es decir, la escala de conexión causal. Si bien esto está cerca de cero
cuando uno se acerca a un evento de “Gran Desgarro”, parece claro que cuando uno se acerca al
cambio de rumbo de Baum y Frampton, el radio de Hubble vuelve a crecer hasta un valor infinito.
Esto significa que todos los parches separados del universo no están desconectados (es decir, las
señales de luz ahora pueden propagarse entre ellos y permitirles interactuar). Por lo tanto, una
fase de colapso posterior debería incluir toda la materia y la radiación entonces presentes, lo que
esencialmente evita un escenario cíclico de trabajo (ya que ahora se incluiría toda la materia y la
radiación ordinarias de la expansión anterior). Frampton ofrece el siguiente comentario con
respecto a la crítica de Zhang: “La deflación debe ocurrir en un momento antes del cambio
cuando el radio de Hubble es pequeño, antes de que alcance su valor mínimo (x = 1/2). La
deflación sigue siendo una conjetura plausible que aún requiere más cálculos técnicos para
confirmarla ”(Comunicación personal, 7 de febrero de 2008).
Esto parece difícil de cuadrar, ya que parecería deflación = contracción, y el cambio es el
momento en el que termina la expansión y comienza la contracción. Baum y Frampton, de hecho,
publicaron un preimpreso en 2006 titulado "Deflación en el cambio de la cosmología oscilatoria",
en el que afirman:
Un ingrediente clave en nuestro modelo cíclico es que en el cambio t = tT (mod τ) nuestro
universo se desinfla drásticamente con el factor de escala a (tT) reduciéndose a â (tT) = fa
(tT) donde f <10-28. Este desecho de casi todo, una fracción (1 - f), de la entropía acumulada
está permitido por la estructura causal excepcional del universo (Baum y Frampton 2006, p.
4).32

Frampton aclara:
El comienzo de la contracción es el cambio de rumbo. La deflación es donde los parches
causales se separan y nuestra entropía cae a cero.
Por cierto, la diferencia de tiempo entre la deflación y el cambio posterior es de un billón
de billonésimas de segundo o menos.
[La divergencia del radio de Hubble en el cambio de rumbo] tiene el significado de que
cada universo generado es por separado un parche causal en el cambio de rumbo
(Comunicación personal, 7 de febrero de 2008).

Entonces la deflación no es contracción. En cambio, se refiere a la desconexión causal. El radio


de Hubble diverge en el cambio. Pero, por alguna razón, los horizontes causales congelados en la
deflación permanecen intactos. Esto parece problemático. Después de todo, los horizontes
causales no son barreras físicas reales. Dependen del observador. Por ejemplo, en la Tierra
tenemos un horizonte causal que se extiende unos 46 mil millones de años luz. También lo hace
un viajero espacial en órbita alrededor de Alpha-Centauri. Pero el viajero espacial ve una parte
del universo diferente a la que vemos aquí en la Tierra. En realidad, no existe una barrera física
a 46 mil millones de años luz de cada uno de nosotros. Esto es distinto del horizonte de eventos
de un agujero negro, que es una barrera física objetiva. ¿Cómo entiende exactamente Baum-
Frampton esta desconexión causal? Un estudio de los primeros trabajos de Frampton quizás
podría aclarar la situación:
. . . el momento en que un sistema se libera gravitacionalmente corresponde
aproximadamente al momento en que la densidad creciente de energía oscura coincide con
la densidad media del sistema ligado. Para un objeto "típico" como la Tierra (o un átomo de
hidrógeno donde la densidad media resulta ser aproximadamente la densidad del agua ρH2O
= 1 g / cm3 ya que 10−24 g / (10−8 cm) 3 = 1 g / cm3 ) la densidad del agua ρH2O es una
unidad poco probable pero práctica para la densidad cósmica en el universo oscilatorio.
. . . la inimaginable densidad de energía oscura en el cambio de ρΛ (tT)> 31027ρH2O. Para
cuando la densidad de energía oscura alcance ese valor, según el análisis de Big Rip [ver nota
al pie de página33], los sistemas de partículas unidos más pequeños conocidos se han liberado.
Además, los constituyentes estarán desconectados causalmente, lo que significa que si la
expansión, en cambio, hubiera continuado hasta el Big Rip, las partículas ya no podrían
comunicarse causalmente (Baum y Frampton 2006, págs. 3-4, énfasis agregado).

Esta es la clave. Si la densidad de la energía fantasma es ρΛ (tT)> 1027ρH2O, entonces en un


escenario Big Rip,34el universo estaría desencadenado causalmente. Pero no estamos en un
escenario de Big Rip. En cambio, de acuerdo con Baum y Frampton, las leyes de la física han
cambiado (ahora tenemos una ecuación de Friedmann modificada) donde algo (quizás una
dinámica de brana extradimensional) actúa para detener la expansión y conduce a una
contracción. En este caso, es difícil ver por qué todavía se aplica el análisis de Frampton y
Takahashi de los sistemas causalmente no vinculados. Es la expansión descontrolada en el
escenario Big Rip lo que conduce y mantiene la reducción de los horizontes causales. Si eso se
detiene, e incluso se invierte, entonces parecería razonable suponer que el horizonte causal crece
junto con él.

La explicación de Frampton y Takahashi parece similar a un horizonte causal personal en


oposición a alguna barrera física que da como resultado una desconexión causal permanente. Lo
que falta es una discusión sobre qué causa el "cambio radical" y mantiene la desconexión causal.
Sin esos detalles, parece razonable considerar las dudas de Zhang sobre la viabilidad del
mecanismo de fraccionamiento del universo.
Debemos señalar el énfasis de Frampton en el tiempo limitado entre la deflación, el cambio de
rumbo y la contracción. Eso haría que el problema relevante sea el comportamiento de la energía
fantasma justo en el cambio (dado que no hay tiempo para que la materia ordinaria y la radiación
restablezcan el contacto, dada la cantidad de contracción que ocurre en la primera fracción de
segundo después del cambio). La pregunta parece ser: dada la homogeneidad de la energía
fantasma en el cambio, y su capacidad para interactuar con su entorno (dado el horizonte
ilimitado de Hubble justo en el cambio), ¿por qué el universo se dividiría en dominios separados
en lugar de precipitar un solo horizonte global? ¿contracción?
En tercer lugar, la presencia de cualquier materia o radiación (durante la contracción) evitará
el ciclo. Esto podría ser un problema, dado que la estructura espontánea puede formarse como
fluctuaciones térmicas (incluso si la etapa de contracción comienza sin materia o radiación).
Bousso y Freivogel explican:
En un vacío de larga duración con constante cosmológica positiva, la estructura se puede
formar de dos formas. La estructura puede formarse de manera convencional (a través de un
período de inflación seguido de recalentamiento), o puede formarse espontáneamente como
una fluctuación térmica rara. Debido a que el espacio de De Sitter es térmico, si el vacío es lo
suficientemente prolongado, se producirá la formación de estructuras espontáneas (Bousso
y Freivogel 2007, p. 4).

El espacio Baum-Frampton no es un espacio de Sitter, pero también es térmico. Por lo tanto, uno
esperaría que la materia todavía fluctuara y existiera de manera espontánea. Si es así, entonces
(con una probabilidad razonable) la ciclicidad de Baum-Frampton no funcionaría.
El cosmólogo Thomas Banks sostiene que un espacio de contratación lleno de campos
cuánticos tendrá una propiedad "ergódica" a medida que el espacio se encoja. Sus campos se
excitan mucho a medida que uno se acerca al final de la contracción y estos campos producirán
fluctuaciones caóticas. La materia creada espontáneamente con una ecuación de estado diferente
dominará la densidad de energía. Eso y la falta de homogeneidad de las fluctuaciones evitarán el
ciclismo. Banks y Fischler incluso sugieren que los campos producirán espontáneamente un
"fluido" denso de agujeros negros que conducirán a una condición que denominan "Black
Crunch" (Banks y Fischler 2002) para estados arbitrarios que se acercan a la contracción total. 35
Por tanto, parece que la ciclicidad de Baum-Frampton no funcionará.36
Si bien las cosmologías de rebote fantasma (como el modelo de Baum-Frampton y el propio
Xin Zhang) representan una frontera que vale la pena explorar, parece haber preguntas sin
respuesta sobre la viabilidad de tal enfoque. El campo es demasiado joven para emitir un juicio
completo. Pero algunas preguntas que pueden responderse (como el enfoque ergódico / caótico
de un rebote singular) parecen indicar que persisten los problemas nativos de las cosmologías
cíclicas.

IIId ¿Una cuarta alternativa ?: Deconstrucción del tiempo


Como Borde et al. señalan en su artículo fundamental, una de sus suposiciones principales fue la
siguiente:
La razón intuitiva por la que la inflación de De Sitter no puede ser eterna es que, en el espacio
completo de De Sitter, la expansión exponencial está precedida por una contracción
exponencial. Esta fase de contracción no forma parte de los modelos inflacionarios estándar
y no parece ser coherente con la física de la inflación. Si las regiones termalizadas pudieran
formarse hasta el infinito pasado en el espacio-tiempo en contracción, todo el universo se
habría termalizado antes de que pudiera comenzar la expansión inflacionaria. En nuestro
análisis excluiremos la posibilidad de tal fase de contracción considerando espaciotiempos
para los cuales la región pasada obedece a una condición de expansión promedio, por lo que
queremos decir que la tasa de expansión promedio en el pasado es mayor que cero: Hav> 0
(Borde, Guth y Vilenkin 2003, p. 1).

En su conferencia de 2003 en el instituto Kavli de UCSB, Guth reconoce: “[Anthony] Aguirre y


[Steve] Gratton han propuesto un modelo que evade nuestro teorema, en el que la flecha del
tiempo se invierte en la hipersuperficie t = infinito, por lo que el universo 'se expande' en ambas
mitades del espacio completo de De Sitter ".37Es posible, entonces, evadir el teorema BGV
mediante una burda deconstrucción de la noción de tiempo. Supongamos que se afirma que en
la pasada fase de contratación se invierte la dirección del tiempo. Entonces, el tiempo fluye en
ambas direcciones alejándose de la singularidad. ¿Es esto razonable? Sugerimos que no, ya que
el escenario Aguirre-Gratton (Aguirre y Gratton 2002) niega la continuidad evolutiva del
universo que es topológicamente anterior a ty nuestro universo. El otro lado del espacio de De
Sitter no es nuestro pasado. Porque los momentos de ese tiempo no son anteriores a t ni ninguno
de los momentos posteriores a t en nuestro universo. No hay conexión o relación temporal
alguna de nuestro universo con esa otra realidad. Los esfuerzos por deconstruir el tiempo
rechazan fundamentalmente el paradigma evolutivo.

Resumen de la sección III


Principalmente, los intentos de superar el nuevo teorema de la singularidad de Borde, Guth y
Vilenkin se centran en generar modelos de universo que no presentan una expansión positiva
promedio en su pasado. Esto se puede hacer teniendo una expansión negativa promedio (es
decir, contracción) o teniendo una expansión promedio cero (un modelo asintóticamente
estático). Ambos intentos parecen encontrar dificultades insuperables. El modelo de contracción
presenta un ajuste fino causal a su pasado asintótico y al caos BKL a medida que la contracción
se acerca a una singularidad en su “rebote” anterior al Big Bang en nuestra realidad actual en
expansión. El caos de BKL puede, de hecho, probar que es imposible que un universo atraviese
una singularidad.
Los modelos de expansión promedio cero generalmente se construyen de dos maneras
diferentes. O la expansión se acerca asintóticamente a cero a medida que el tiempo (mirando
hacia atrás) se acerca al infinito negativo. También se puede considerar un número infinito de
ciclos donde la expansión y la contracción se cancelan exactamente para cada ciclo. El primer
caso tiene el dilema de que debe comenzar estático y luego pasar a una expansión. Por tanto, la
fase estática es metaestable, lo que implica que es finita durante su vida. El universo comienza a
existir.
Los modelos cíclicos suelen fallar debido a la necesaria acumulación de entropía de un ciclo a
otro. Si hubiera un número infinito de ciclos, ¿por qué el universo no está en un estado de
"muerte por calor"? La entropía también tendría el efecto de hacer que la amplitud de los ciclos
(el tamaño máximo del universo durante un ciclo) crezca con el tiempo. Entonces, mirando hacia
atrás en el tiempo, esto implica un primer ciclo hacia el pasado finito. Uno puede intentar superar
estos problemas, como hacen Baum y Frampton, afirmando que un solo universo se fracciona en
un multiverso de contracciones. La mayoría de los "hijos" en contracción del universo padre
habrán eliminado la entropía desarrollada en la fase anterior y, por lo tanto, permitirán el ciclo.
Pero, como hemos visto, su mecanismo parece no fraccionarse. Incluso si se fraccionara en
dominios separados libres de entropía, ¡incluso un universo hijo inicialmente vacío desarrollaría
un caos BKL cuando se acercara a una contracción e interrumpiría el escenario!
La última táctica, la de afirmar que el tiempo invierte su flecha antes del Big Bang, falla porque
el otro lado del Big Bang no es el pasado de nuestro universo.
Por lo tanto, estos modelos tienen un comienzo o no son viables.

IV Gravedad cuántica
Una excepción final y esperada a los teoremas de Hawking-Penrose es una formulación conocida
como "gravedad cuántica". Los dos grandes pilares de la física del siglo XX, el GR de Einstein (la
ciencia de lo muy grande) y la Mecánica Cuántica (QM) (la ciencia de lo muy pequeño), gozan de
un abrumador apoyo observacional. Sin embargo, si la teoría estándar del Big Bang fuera
correcta en su predicción de que el universo debe acercarse a una singularidad en su pasado
distante, entonces QM debe finalmente gobernarlo. Pero GR es una teoría clásica, no una teoría
cuántica de campos. Para un universo primitivo de densidad extremadamente alta, donde la
gravedad actuaba como fuerza dominante y como fuerza cuántica, debemos tener una nueva
teoría, la gravedad cuántica, para describirla. Además, en 2002, 38Se informó la primera evidencia
observacional de que la gravedad es de hecho una fuerza cuántica. Sin embargo, una de las
suposiciones de Hawking-Penrose para sus teoremas de singularidad fue que GR es una
descripción correcta del universo. Dado que esto no es cierto en la escala de singularidades,
quizás las singularidades no existían después de todo. Quizás, extrapolando hacia atrás, el
universo evoluciona suavemente a través del Big Bang hacia un pasado desconocido.
Aquí hay tres candidatos destacados para una teoría de la gravedad cuántica (figura 1.11). El
trabajo principal de algunos modelos de gravedad cuántica es llevar a uno a través de la
singularidad a un pasado eterno (se espera). Otros aceptarán un "comienzo" para el universo
pero deconstruirán las nociones de tiempo, nada o causalidad.
Figura 1.11 Familias de cosmologías de gravedad cuántica.

IVa. Modelos de cuerdas


La teoría de cuerdas es, con mucho, el método más popular propuesto hasta ahora para unificar
la teoría cuántica con GR. Esencialmente, la teoría de cuerdas propone que las entidades
elementales de la naturaleza no son partículas puntuales (objetos de dimensión cero), sino
cuerdas (objetos unidimensionales). La teoría de cuerdas elimina muchos de los problemas que
ocurren en las teorías de partículas. Las interacciones de partículas pueden ocurrir hasta una
distancia literalmente cero; donde las leyes de la fuerza explotan (recuerde, por ejemplo, que la
dependencia de la gravedad de la distancia es 1 / r2; es decir, la fuerza se vuelve infinita cuando
el rango llega a cero) y predice respuestas infinitas (es decir, sin sentido). La teoría de cuerdas
calma este comportamiento al introducir una distancia mínima (la distancia de “Planck”) a las
interacciones. Al "extender" las interacciones de las cuerdas, se evitan los infinitos.
Otra ventaja de la teoría de cuerdas es que puede explicar de manera no ad hoc la existencia
de diferentes tipos de "partículas" elementales. Las diferentes propiedades de las "partículas"
podrían ser simplemente diferentes tipos de vibraciones que ocurren en una cuerda (similares
a las notas musicales). Se esperaba (y todavía lo hacen algunos) que la teoría predeciría
naturalmente las características de las partículas elementales que de otra manera serían
parámetros libres en la teoría anterior (que se llama el “Modelo Estándar”).
Se cree que la característica de "distancia mínima" de la teoría de cuerdas es una característica
deseable para los modelos cosmológicos porque, de manera análoga al caso de las interacciones
de partículas, el modelo estándar del Big Bang predice que el factor de escala del universo se
reduce literalmente a cero. La teoría de cuerdas podría "calmar" esta característica del modelo
sugiriendo un tamaño mínimo. Esto incluso podría superar los teoremas de Hawking-Penrose y
sugerir que hubo un "antes" para la condición singular. Quizás el Big Bang no fue un evento ultra-
mundano en el que el momento mismo llegó a existir. Si no fue así, la puerta está abierta a un
universo eterno pasado.

IVa (i). Inflación anterior al Big Bang (PBBI)


Hay dos modelos de cuerdas que pueden aspirar a describir adecuadamente un entorno infinito
anterior al Big Bang. Estos son el escenario PBBI de Gabriele Veneziano y Maurizio Gasperini y
el modelo Ekpyrotic / Cyclic de Paul Steinhardt y Neil Turok. El escenario de inflación anterior
al Big Bang es una versión clásica de un modelo asintóticamente estático. Así lo describe uno de
sus autores:

Figura 1.12Modelos y proponentes de la cosmología de cuerdas. La teoría de cuerdas también ha dado origen a la cosmología
"brana", donde el énfasis está en el trasfondo dentro del cual se propagan las cuerdas en lugar de las propias cuerdas. Estos fondos,
llamados n-branas, pueden ser variables en el número de sus dimensiones. Por ejemplo, normalmente se propone que nuestro
espacio tridimensional es una de estas '3-branas' que pueden o no estar flotando en un espacio dimensional superior
(generalmente llamado "la masa").

Según el escenario, el universo pre-bang era casi una imagen especular perfecta del post-
bang. Si el universo es eterno en el futuro, su contenido se reduce a una escasa papilla,
también es eterno en el pasado. Hace muchísimo tiempo estaba casi vacío, lleno sólo con un
gas caótico, tenue, ampliamente disperso de radiación y materia. Las fuerzas de la naturaleza,
controladas por el campo de dilatón, eran tan débiles que las partículas de este gas apenas
interactuaban. Con el paso del tiempo, las fuerzas ganaron fuerza y unieron la materia
(Veneziano 2004, p. 63).

A través de la contracción gravitacional, las regiones del universo anterior al Big Bang se
convirtieron en agujeros negros. Debido a los efectos cuánticos, una vez que la densidad de un
agujero negro alcanzó un valor crítico, experimentó un "rebote" en un Big Bang. Nuestro
universo persiste entonces dentro de esta superficie que de otro modo estaría cerrada (con
respecto al espacio de fondo "exterior" donde todo comenzó).
En su popularización en Scientific American, Veneziano parece sugerir que su comienzo es un
punto infinitamente distante pero nunca alcanzable (es decir, ideal). El artículo implica que el
modelo debe interpretarse de manera realista.39Pero uno debe ser cauteloso al interpretar el
infinito del pasado para este modelo, ya que es fácil abusar del concepto de límite infinito, así
como ignorar la distinción entre una interpretación realista e instrumentalista del modelo. Los
problemas para interpretar este modelo son similares a los que se encuentran al evaluar la clase
de modelo Emergente. Cabe señalar que el coautor del modelo PBBI Maurizio Gasperini indica
que todo el pasado (o futuro) asintótico no debe tomarse como real:
. . . Encuentro engañoso hablar de un "futuro del escenario PBB", porque el escenario PBB
solo (posiblemente) se aplica para describir una parte (más o menos extendida) de la historia
pasada de nuestro cosmos, y se espera que se una sin problemas al estándar. escenario
cosmológico en una época lo suficientemente temprana, a fin de reproducir resultados
estándar sobre nucleosíntesis, bariogénesis, formación de estructuras, etc. En otras palabras,
el escenario PBB se puede considerar como un modelo para explicar las condiciones iniciales
de nuestra configuración cosmológica estándar, de una manera que es consistente con la
teoría de cuerdas, pero no se puede extrapolar hacia el futuro sin más supuestos, que en la
actualidad han no ha sido completamente resuelto (con la excepción del modelo dilatón de
energía oscura propuesto por Piazza, Veneziano y yo en PRD 65, 023508 (2002))
”(Comunicación personal,

¿Se puede construir una interpretación realista de este modelo? Es interesante contrastar la
descripción de PBBI como prueba de "el mito del comienzo de los tiempos" en un entorno donde
se fomentan las conclusiones sensacionales (Scientific American) con la caracterización de PBBI
como un "modelo de juguete" en un entorno donde los científicos son naturalmente conservador
(revistas académicas revisadas por pares).40
Como se describe en la literatura académica, el modelo parece tener una fase inicial. Las fases
relevantes son:

1. Un universo estático (Milne) o fase de vacío perturbativo de cuerda (SPV). Esto significa
que el universo está vacío (la energía y la densidad de energía es cero) y es estático, es
decir, que no se expande ni se contrae global o localmente.
2. Una fase cuasi-Milne, que constituye un vacío perturbativo de cuerda “perturbado”. Aquí
"H es (pequeño y) positivo en el marco de String, (pequeño en módulo y) negativo en el
marco de Einstein, y tiende a cero cuando t va a menos infinito, y el Universo se acerca a
la configuración SPV (donde H es idénticamente cero ya que el espacio-tiempo es plano)
”(Comunicación personal, Maurizio Gasperini, 16 de enero de 2007).
3. Una fase “inflacionaria”. En un conjunto de coordenadas (el marco de Einstein), la materia
colapsa en superficies atrapadas o agujeros negros. En otro conjunto de coordenadas (el
marco de la cadena), esto puede verse como una expansión espacial. Esto sucede a nivel
regional en lugar de global.
4. Una fase FRW post-Big Bang que es típica del modelo estándar Hot Big Bang.

Los autores comienzan a construir el modelo en un tiempo finito en el pasado donde se da una
condición llamada “trivialidad pasada asintótica” (APT) (Veneziano y Gasperini 2002, p. 54). APT
representa el límite entre la fase (2) y la fase (3). El período de contracción (inflación en el marco
de la cuerda) es finito en sí mismo.
Luego, los autores proyectan este estado hacia el futuro y lo evolucionan asintóticamente hacia
el pasado. De manera similar a la versión de Maartens del modelo Emergente, se considera que
la duración de la fase (2) dirigida al pasado de la APT es infinita.

Figura 1.13La construcción del modelo PBBI se da en la 'Trivialidad pasada asintótica' o punto APT. A partir de aquí, el modelo se
proyecta hacia adelante en el tiempo para dar el universo del Big Bang. También se proyecta hacia atrás hasta el infinito pasado.
Tenga en cuenta que los datos APT se dan en un tiempo finito en el pasado en el diagrama. La era SPV propuesta estaría en 'pasado
nulo infinito', o el punto inferior marcado 'I-'. El pasado infinito es 'nulo', en lugar de 'temporal', porque las ondas de gravidilaton
que lo incrustan no tienen masa.

A diferencia del modelo Emergente, el SPV perturbado dura un tiempo y luego los parches
individuales que cumplen con la condición de Hawking-Penrose para una superficie cerrada
atrapada comienzan la contracción regional (inflación en coordenadas de cadena). ¿Deberíamos
tratar SPV como ESS? Gasperini observa que una característica significativa de SPV es que es
inestable:

Figura 1.14 Tasa de expansión del universo frente al tiempo en el modelo PBBI Crédito de la fuente: Maurizio Gasperini en
http://www.ba.infn.it/~gasperin/

. . . el SPV ya es inestable en el nivel clásico. . . [la desintegración del SPV] puede describirse
como una transición cuántica, pero es un proceso que también está permitido clásicamente
(Comunicación personal, 4 de enero de 2007).
. . . la inestabilidad del SPV es similar a la inestabilidad de una bola clásica colocada
exactamente en la cima de una colina perfectamente simétrica. En principio, si el sistema
comienza inicialmente en la configuración de equilibrio única y no hay perturbaciones
externas, el sistema podría permanecer estático para siempre. En la práctica, sin embargo,
hay perturbaciones físicas que sacan al sistema del equilibrio, tarde o temprano, con una
probabilidad distribuida de forma caótica (o aleatoria). En el caso del SPV, las perturbaciones
que lo sacan del equilibrio son las fluctuaciones cuánticas de los campos de fondo (en
particular del dilatón). Además, la configuración de equilibrio exacta solo se puede lograr
como una extrapolación asintótica, en el límite en el que el tiempo cósmico llega a menos
infinito: en la práctica, en cualquier tiempo físico finito dado,
Yo diría que el SPV no es una fase prolongada en el tiempo, es solo un estado inicial
asintótico al que se aborda, sin embargo, en un tiempo infinito. En la práctica, la descripción
física nunca parte “exactamente” de ese estado, sino de un estado que representa una
perturbación arbitrariamente pequeña del SPV (Comunicación personal, 27 de febrero de
2007).
. . . si vivo en la porción del espacio-tiempo que inicialmente colapsa, entonces tengo la
oportunidad de atravesar el rebote, en alguna época en el futuro. Pero esto no concierne a
todo el espacio-tiempo. Hay regiones del espacio-tiempo que se están colapsando y
eventualmente rebotan en un FRW como el Universo, y otras que no. Es posible, en principio,
vivir en regiones del espacio-tiempo sin experimentar nunca el rebote ni el colapso, y
permanecer para siempre en una configuración bien descrita por el vacío perturbativo de la
cuerda (o por una perturbación cuántica del mismo) (Comunicación personal, 9 de enero). ,
2006).

Entonces, si el SPV fuera real, sería un estado con una vida útil finita. Algún tiempo después de la
descomposición, las porciones aleatorias serán lo suficientemente densas para formar
superficies cerradas atrapadas y comenzar la contracción gravitacional. Otras regiones podrían
permanecer indefinidamente en el estado post-SPV (es decir, ya perturbadas por una condición
de equilibrio).
El lenguaje de Veneziano y Gasperini a veces sugiere tratar SPV como una extrapolación
finalmente no realizada similar a lo que se describe en el artículo de Scientific American. Pero
aquí y en otros lugares, parecen sugerir que el SPV es bastante real (si se tomara en serio el
pasado asintótico del modelo):
Todo el proceso puede verse como el lento, pero eventualmente explosivo, decaimiento del
vacío perturbativo de la cuerda (el estado inicial asintótico plano y libre de interacción del
escenario anterior al Big Bang), hacia un estado final dominado por la radiación típico de los
estándares. cosmología (Veneziano y Gasperini 2002, p. 21).

El modelo PBBI se describe como un evento de "desintegración" o "túnel" cuántico similar a los
modelos semiclásicos de Hawking-Hartle y Vilenkin (ver sección IVc). Pero:
[PBBI] también se puede interpretar como un proceso de tunelización, no "de la nada", sin
embargo [que es como se interpretan los modelos Hawking-Hartle y Vilenkin; ver sección
IVc], pero “del vacío perturbativo de la cuerda” (Veneziano y Gasperini 2002, p. 208).
Figura 1.15 PBBI como una transición cuántica de cuerdas.41La figura contrasta modelos de "creación de la nada" como el enfoque
sin límites de Hawking-Hartle o el "túnel de la nada" de Vilenkin (ver sección IVc) con un enfoque de cuerdas. Aquí, un estado
cuántico previo entra en túneles en nuestro universo FRW actual.

Es razonable suponer que si hay una transición física del estado "A" al estado "B", y el estado
"B" es ontológicamente real, entonces el estado "A" debe tomarse como ontológicamente real. 42
También es significativo que el estado inmediatamente después de la desintegración de SPV (si
SPV fuera un estado físico realizado) se obtendría solo hace un tiempo finito al pasado, dado que
la descripción de Gasperini del producto de desintegración es idéntica a la siguiente:
La solución regular genérica se acerca a Milne cuando t [se acerca al infinito negativo] pero,
en cualquier gran [tiempo negativo] finito, también contiene pequeñas perturbaciones
dilatónicas (y de ondas gravitacionales) que dan 0 <Ω «1. Cuando t → -∞, Ω → 0. A medida
que avanza el tiempo, en cambio, Ω tiende a crecer hasta que, en algún momento crítico -T0,
Ω se convierte en O (1), en alguna región del espacio. A partir de ese momento, en ese parche
"afortunado", la métrica comienza a desviarse de Milne y se establece la inflación impulsada
por dilaton, empujando Ω extremadamente cerca de 1 en ese parche (Veneziano 1998, p. 10,
énfasis agregado).43
Entonces, si el estado SPV fuera real, solo podría haber una línea de tiempo finita desde él hasta
el presente. Solo si la perturbación en sí fuera irreal, sobreviviría la naturaleza eterna pasada del
modelo. ¿Es esto realista? Si miramos hacia atrás desde el punto APT, ¿cuál sería el significado
de una perturbación cuántica real en un estado arbitrariamente cercano a SPV? ¿No tendría uno
una situación que fuera virtualmente idéntica a comenzar simplemente con SPV “real”? Este es
esencialmente un escenario de "pseudo comienzo".
Vaas clasifica esta cosmología como "explosión suave / pseudo comienzo" al igual que lo hace
con los modelos Emergentes.44Aunque el comportamiento del SPV perturbado es en última
instancia diferente del ESS (o ESS perturbado), la similitud con respecto a la inestabilidad clásica
(y cuántica) debería ser la controladora. Los dos modelos son matemáticamente similares con
respecto al enfoque asintótico de un estado inestable infinitamente distante. Vaas sostiene que
no hay una flecha obvia del tiempo y, por lo tanto, el pasado asintótico es probablemente un
artefacto matemático.
Quizás la línea de tiempo infinita pasada es solo de naturaleza técnica: la duración desde el
punto APT extrapolado hacia atrás es infinita, pero eso debe entenderse instrumentalmente. En
respuesta a la pregunta, "si el SPV es inestable, y dentro de un tiempo finito las fluctuaciones
cuánticas del dilatón alterarán su equilibrio, ¿no implica eso que el pasado debe ser finito?"
Gasperini responde,
Desde un punto de vista físico, una variedad de espacio-tiempo tiene una extensión infinita
(pasada) si sus geodésicas temporales o nulas pueden extenderse (pasadas) para valores
infinitos de su parámetro afín, sin terminar en una singularidad. Esta propiedad se satisface
con la extensión pasada de las soluciones anteriores al Big Bang, por lo que, en este sentido,
son eternas del pasado (Comunicación personal, 17 de enero de 2007).

Como indica Gasperini, es cierto que, en cierto sentido, las soluciones son eternas. En GR puro,
es cierto que las geodésicas dirigidas hacia atrás trazarán todo el camino hasta el infinito pasado.
De hecho, en GR puro, incluso si uno asumiera un estado SPV real, todavía sería el caso de que,
técnicamente hablando, las geodésicas dirigidas hacia atrás son eternas en el pasado por la
misma razón que un estado estático de Einstein real es técnicamente eterno en el pasado.

Pero la pregunta relevante parece ser la siguiente: ¿todas las geodésicas dirigidas al pasado de
un estado cuasi-Milne (o un cuasi-ESS) se cruzan con una perturbación significativa del sistema,
o al menos un rastro geodésico, sin perturbaciones, hasta el infinito pasado? Considere la
siguiente comparación:
A) Suponga que el Vacío Perturbativo de Cuerdas (o Estado Estático de Einstein) fuera visto
como ontológicamente real en lugar de como puntos idealizados en el infinito pasado. Dentro
de un tiempo finito, una perturbación cuántica perturbaría el estado y la línea de tiempo
resultante hasta el presente también sería finita. El modelo no sería más allá del infinito. B)
Supongamos, en cambio, que ESS o SPV se toman como puntos ideales asintóticos. Por el bien
del análisis, comience en el presente y mire hacia atrás. Dentro de un tiempo finito, uno está
arbitrariamente cerca de la condición ideal. Ahora considere cualquier (nueva) fluctuación
cuántica que ocurra al estado cuasi-SPV (o cuasi-ESS) mientras se rastrea la línea de tiempo
hacia atrás. La probabilidad de esto es esencialmente 1.

¿Qué diferencia significativa hay entre el universo en el caso A y el caso B (en el "nuevo" punto
de fluctuación)? Mirando hacia atrás, habrá un número ilimitado de todo tipo de fluctuaciones
de todos los tamaños, cualquiera de las cuales detendrá el supuesto desarrollo asintótico del SPV
(o ESS). La extrapolación infinita pasada propuesta parece ser un artefacto matemático (o al
menos explicativamente vacío). Incluso si se toma en serio (es decir, no como un modelo de
“juguete”), el modelo no predice que el pasado sea infinito.

IVa (ii) Ekpyrótico / cíclico


El modelo Ekpyrotic es un modelo cíclico, pero no en el antiguo sentido de un universo que sufre
una secuencia periódica eterna de expansión y colapso. El modelo Ekpyrotic hace uso de la
naturaleza extradimensional de la teoría de cuerdas para proponer que el ciclo ocurre, pero en
una dimensión superior. Los autores Paul Steinhardt y Neil Turok ven el nuevo modelo como
preferible al modelo inflacionario posterior al Big Bang porque tiene menos características ad
hoc. Por ejemplo, la energía oscura (actual) es un complemento del modelo anterior, pero es una
característica natural y necesaria de su nuevo modelo de ciclismo. La teoría de cuerdas permite
entidades llamadas "branas" que podrían ser representativas de lo que de otro modo
llamaríamos nuestro universo tridimensional (espacial). La teoría de cuerdas exige seis
dimensiones adicionales de espacio para ser autoconsistente. Se cree que estas dimensiones
adicionales están (generalmente) estrechamente enrolladas alrededor de las tres dimensiones
macroscópicas y, por lo tanto, generalmente no son observables. (Piense en una pajita de
refresco frente a una línea unidimensional. El círculo formado al mirar el borde de la pajita
podría considerarse como una segunda dimensión enrollada alrededor de la primera).
El modelo Ekpyrotic propone que una de estas dimensiones adicionales (la dimensión "a
granel") es de tamaño macroscópico. Dentro de esta dimensión adicional se encuentran dos 3
branas, cualquiera de las cuales podría representar nuestro universo. Estas 3 branas chocan
periódicamente, como si estuvieran conectadas por un resorte. Cuando lo hacen, la energía de la
colisión se transfiere a las branas (figura 1.16).
Figura 1.16 Descripción pictórica del ciclo Ekpyrotic.

Esta energía se convierte en materia (y radiación) que finalmente gravita en galaxias. Sigue el
resto de la secuencia normal del Big Bang (estrellas, planetas, etc.). A medida que las branas se
separan unas de otras, las propias branas siempre se están expandiendo. (Hay versiones del
modelo en las que las branas sufren una contracción limitada, pero siempre se expanden, en la
red, con cada ciclo). Con el tiempo, las estrellas se queman, las galaxias retroceden más allá del
horizonte visual de cada galaxia y el universo entra en un período de frío, quemado. fuera cenizas.
Mientras tanto, las branas giran hacia otra colisión.
Luego, el universo se renueva con un nuevo ciclo. La energía que se libera en las branas durante
cada colisión se repone con un suministro inagotable: energía potencial gravitacional. De esta
forma, Ekpyrosis es un sistema "abierto". Siempre hay un suministro ilimitado de energía
gratuita. Esta característica de la cosmología como sistema abierto (a diferencia del antiguo
escenario de la "muerte por calor") es nueva pero muy extendida en la cosmología
contemporánea.
Sin embargo, a pesar de evitar el escenario de la “muerte por calor”, ahora hay un nuevo
problema que resolver. Si se vierte nueva energía en la brana durante un tiempo infinito,
entonces la densidad de entropía o la densidad de energía en cada punto debe ser infinita.
Obviamente, esto sería contrario a la observación. Sin embargo, la expansión continua de las
branas de tamaño infinito mantiene constante la densidad de entropía. Entonces, la expansión
(neta) es una característica crítica del modelo.
Steinhardt reconoce que su modelo del universo no carece verdaderamente de principio. Aquí
están los comentarios relevantes de su sitio web:

• ¿El modelo cíclico ha estado en ciclo desde siempre?


• En principio, es posible que el universo haya experimentado un número semi-infinito de
ciclos en su pasado durante los cuales el volumen aumenta de un ciclo a otro. Aunque esto
tomaría un tiempo infinito de acuerdo con los relojes ordinarios, esta no puede ser la
historia completa. Este régimen de ciclos no cubriría todo el espacio-tiempo. Algo debe
haber precedido a los ciclos.
• Un problema similar surge en la cosmología inflacionaria. En ambos casos, esta es una
pregunta abierta. El problema se conoce como el problema de la incompletitud geodésica
refiriéndose al hecho de que una fase puramente en expansión no abarca todo el espacio-
tiempo y uno tiene que considerar lo que sucedió antes.45

La página de preguntas frecuentes del sitio web de Steinhardt indica que el modelo ya está
incompleto desde el punto de vista geográfico. Aquí los autores comentan en su trabajo
publicado:
La historia más probable es que el ciclismo fue precedido por algún comienzo singular.
Considere un universo que se instala en el ciclo a partir de un corte plano en el pasado
distante hace muchos rebotes. Cualquier partícula producida antes del ciclo debe viajar a
través de un número exponencialmente grande de rebotes, cada uno de los cuales es una
superficie cáustica con una alta densidad de materia y radiación en reposo con respecto a los
cortes espaciales planos. Cualquier partícula que intente este viaje será dispersada o
aniquilada y su información se termalizará antes de llegar a un observador actual. En
consecuencia, el observador está efectivamente aislado de lo que precedió a la fase de ciclo y
no se pueden realizar mediciones para determinar cuántos ciclos han tenido lugar. Aunque
el espacio es formalmente geodésicamente incompleto, es como si, a todos los efectos
prácticos,

Steinhardt y Turok sugieren que el universo comenzó en una singularidad pero que "para todos
los propósitos prácticos" ha estado en ciclo desde siempre. Esta afirmación se basa en el hecho
de que prácticamente ninguna información sobre las condiciones iniciales del universo podría
haber sobrevivido hasta el presente. Steinhardt explica que los fotones que transportan esta
información estarían “desplazados al rojo semi-infinitamente” (Comunicación personal, 27 y 30
de enero de 2004). Hay un número "semi-infinito" de ciclos entre ese límite y el presente. ¿Cómo
vamos a entender esto? La descripción del modelo como "de Sitter-like" y la línea de tiempo
pasada "semi-infinita" asociada es casi la misma situación vista anteriormente con la discusión
del universo "Mixmaster" de Misner (sección IIIa). 46
Dentro del modelo Ekpyrotic, un observador vería un número infinito de rebotes con
aproximadamente un billón de años por rebote. Entonces, en los relojes ordinarios, el tiempo
pasado es infinito (Comunicación personal, 27 y 30 de enero de 2004). Sin embargo, existe
claramente un límite pasado (¿un punto de inicio infinitamente distante?) Que precede a este
comportamiento. Cabe señalar que la razón por la que este modelo tiene un comienzo es
precisamente porque cae dentro del teorema BGV mencionado anteriormente. Borde y col.
Aplicar explícitamente su teorema al modelo Ekpyrotic de Steinhardt y Turok (Borde, Guth,
Vilenkin 2003).
Eso implica, entre otras cosas, que el "límite pasado" debe alcanzarse en un período de tiempo
finito. Así que Steinhardt parece estar equivocado en su predicción de un número semi-infinito
de ciclos, a diferencia de los modelos Emergente y PBBI, que evaden el teorema BGV (en el tiempo
adecuado; es decir, si "un reloj ordinario" es la medida más apropiada de tiempo físico).
Steinhardt nos indicó que medir la distancia entre el presente y el comienzo es ambiguo. Sin
embargo, lo que no es ambiguo es que existe un límite. ¿Son los ciclos infinitos una característica
necesaria de la teoría? En comunicación personal reconoció que la teoría no requiere un número
infinito de ciclos.
Steinhardt, al igual que Maurizio Gasperini, nos sugirió una visión pragmática de su modelo.
La descripción del modelo del enfoque del límite pasado (y el límite) no es (todavía) rigurosa. El
límite al que hace referencia el teorema de BGV podría ser la marca de algo fundamental, como
una singularidad, o ser el marcador de una transición a una física diferente. Si uno afirma que el
límite simplemente marca la transición a una física diferente, entonces el problema en cuanto a
la edad de la configuración previa al ciclo se impone. De manera significativa, Steinhardt sostiene
que la solución cíclica es un atractor dinámico (esto es riguroso) (Comunicación personal, 27 y
30 de enero de 2004). Lo que esto significa es que si uno configura el sistema con condiciones
iniciales genéricas dentro de la configuración de doble brana, automáticamente, dentro de un
tiempo finito, convergen a la solución cíclica. Por tanto, la configuración de preciclado tendría
una vida útil finita. Por tanto, todavía hay un origen inexplicable. Por lo tanto, se puede decir con
seguridad que el universo ekpirótico (ya sea que el límite represente una singularidad genuina
o no) comience a existir.47

Gravedad cuántica de bucle IVb


Otra teoría de la gravedad cuántica es el enfoque cuántico de bucle (figura 1.17). La gravedad
cuántica de bucles (LQG) considera que el espacio-tiempo en sí está cuantificado; es decir, el
espacio-tiempo se divide en partes constituyentes discretas. Es una teoría que tiene como
objetivo llenar el vacío en GR estándar respondiendo a la pregunta, ¿qué sucede realmente en
una singularidad?
Figura 1.17 Cosmologías de gravedad cuántica de bucle candidatas.

Según LQG, las singularidades no existen realmente. Como en la teoría de cuerdas, la naturaleza
tiene un tamaño mínimo que evita infinitos matemáticos microscópicos. Por tanto, el tiempo y el
espacio no llegan a su fin cuando uno llega a una "singularidad". Habrá una línea de tiempo
pasada. Esto lleva a la conclusión de un pasado asintóticamente estático, o un verdadero pasado
cíclico.
Martin Bojowald es el principal exponente de este enfoque. Podemos pensar en el modelo de
Bojowald como una variación del antiguo modelo cíclico de Tolman. Solo hay un universo. Solo
hay tres dimensiones espaciales. No hay energía “libre” inyectada en la situación (como ocurre
en escenarios inflacionarios o ekpiróticos). El modelo de Tolman tuvo dos problemas que
impidieron su amplia aceptación: (1) No existe un mecanismo físico conocido para producir un
"rebote" cíclico, y (2) las consideraciones termodinámicas muestran que el universo actual
debería haber alcanzado el equilibrio termodinámico (" muerte por calor ”). Esto sugiere que el
pasado es finito. Bojowald reconoce ambos problemas y cree que puede resolverlos. Su enfoque
básico es el mismo para ambos temas;
Con respecto al primer problema, la mayor dificultad ha sido resolver un tipo de caos que se
prevé que ocurrirá cerca de las singularidades clásicas. 48Se ha demostrado que este caos,
denominado "BKL" en honor a sus descubridores (Belinsky, Khalatnikov y Lifshitz) se "calma"
mediante un enfoque cuántico de bucle. A partir de 2007, algunos teóricos cuánticos de bucles
han podido demostrar que, para ciertos modelos idealizados, es factible una transición a través
de una condición de Big Bang (Ashtekar, Pawlowski y Singh 2006). Entonces, aunque todavía
falta una prueba generalizada, el proyecto parece prometedor.
La segunda condición es más abrumadora. ¿Cómo puede haber un comportamiento
verdaderamente cíclico (un ciclo se parece mucho al anterior, aunque no hay una recurrencia
evento por evento) cuando la segunda ley de la termodinámica predice que la entropía debe
aumentar de un ciclo a otro? Utilizando un enfoque semiclásico para calcular la entropía, Penrose
encuentra que el final de nuestro ciclo actual (el "Big Crunch") debería diferir en entropía de la
singularidad del Big Bang por el estupendo factor de 1022 (Penrose 2005, p. 730).49Dado que no
hay entrada de energía del exterior (y Bojowald sostiene que el sistema está realmente cerrado),
¿cómo se puede evitar este resultado? Parece haber tres posibilidades:
(1) El problema es solo epistémico. En un artículo de 2004, Bojowald y sus colegas parecen
favorecer esta solución:
Si bien la dinámica efectiva es consistente con nuestras expectativas tanto para el comienzo
como para el final del universo, la aparente asimetría de inversión del tiempo permanece.
Esto se explica por el hecho de que la situación es, de hecho, asimétrica en el tiempo debido
a nuestra propia posición en el universo. Podemos ver solo una parte de él, no todo el espacio-
tiempo, y en particular, solo vemos una pequeña parte del comienzo. Con el conocimiento
actual, la parte observable de nuestro universo bien puede ser parte de un espacio-tiempo
clásico con una singularidad inicial muy heterogénea. Sin embargo, dado que la mayor parte
de la singularidad inicial es inobservable, no se analiza más a fondo. La singularidad final, por
otro lado, es completamente inobservable hasta que se alcanza. Si comparamos solo
propiedades observables dentro del universo, simplemente no podemos saber lo suficiente
como para decir si las singularidades pasadas y futuras son similares. Si comparamos la
estructura teórica de un espacio-tiempo desde fuera, concluimos que, de hecho, no hay
diferencia conceptual entre el comienzo y el final de un espacio-tiempo genérico.
Sólo si comparamos la parte observable de la singularidad inicial con la expectativa
teórica de una singularidad final aparece la asimetría temporal (Bojowald y Hossain 2004, p.
38).50

2) Nuestra comprensión "clásica" actual de la entropía es engañosa. Bojowald sugirió esta


posibilidad en la comunicación personal:
La interpretación de la entropía es una medida de la falta de información que un observador
externo puede obtener si solo conoce parámetros macroscópicos como la masa total o el
momento angular.
La situación en la termodinámica fuera del equilibrio es más complicada, lo que sería
relevante, por ejemplo, para los agujeros negros en colisión o las etapas violentas de la
cosmología. Para la cosmología, tampoco está tan claro con qué debería asociarse
matemáticamente la entropía total, por lo que contar es difícil. Para los agujeros negros, por
otro lado, la entropía se refiere a los grados de libertad en la región del agujero negro, que
pueden identificarse y contarse dentro de la teoría.
La entropía de los agujeros negros describe la falta de información en las etapas clásicas
de los agujeros negros (cuántos estados cuánticos hay para una masa dada y otros
parámetros). Esta es una falta absoluta de conocimiento en la gravedad clásica porque la
región del agujero negro está oculta a los observadores externos.
Sin embargo, con la teoría cuántica, los agujeros negros se evaporan y, por lo tanto,
revelan información en etapas posteriores (aunque todavía se discute hasta qué punto esto
se realiza). La falta de información es entonces solo temporal y aparente porque un
observador externo simplemente no es lo suficientemente paciente como para esperar hasta
que pueda recuperar toda la información. En otras palabras, la entropía en este contexto
depende del observador y no es una cantidad absoluta. Dado que solo incluye el agujero
negro, pero no el observador ni nada externo, tampoco es la entropía relevante para la
cosmología.
La imagen intuitiva habitual en cosmología es la siguiente: cuando hay muchos agujeros
negros, esta entropía aparente es muy alta para los observadores externos. Pero si se
consideran todos los grados de libertad, incluidos los de los agujeros negros que volverán a
emerger después de la evaporación, o si se espera hasta que los agujeros negros se hayan
evaporado, se obtendría una cantidad menor. Esto no significa que la entropía disminuya; la
accesibilidad de la información por parte de los observadores simplemente cambia
(Comunicación personal, 28 de febrero de 2006, énfasis nuestro).

3) Ciclo a ciclo, el estado de entropía es genuinamente reversible. Nuevamente, esta alternativa


surge en la comunicación personal:
Sinclair: “Lo que me suena que estás diciendo en esta última comunicación es que (con
respecto al modelo cíclico) la misma energía se recicla sin cesar. Este es un sistema cerrado,
a diferencia de otras propuestas cosmológicas que existen. Por lo tanto, está hablando de un
sistema que es completamente reversible. Este no es un caso en el que hay procesos
disipativos e irreversibles que se acumulan con el tiempo y producen el escenario de 'muerte
por calor' ”. Bojowald: “Al menos en la versión cíclica. Si no hay un colapso en un gran
volumen, el universo simplemente habría pasado por un solo rebote y seguirá
expandiéndose. El final puede ser una muerte por calor, pero como no conocemos el
contenido de campo de nuestro universo (como lo demuestran los acertijos de materia
oscura y energía oscura), el futuro lejano puede ser bastante diferente de lo que parece ser
ahora ”( Comunicación personal, 28 de febrero de 2006).

Es importante señalar que Bojowald (y sus colegas) no están comprometidos con un modelo con
un número infinito de ciclos en el pasado, como muestra su última respuesta. Está abierto a la
posibilidad de un aumento irreversible de la entropía en función del tiempo. Por lo tanto, el
hecho de que la entropía aumente, ciclo a ciclo, y haga tropezar con un modelo cíclico infinito
pasado propuesto no es, per se, una prueba de la viabilidad del enfoque cuántico de bucle como
candidato para la gravedad cuántica. En cambio, nuestro interés (en esta sección) se limita a los
modelos cíclicos sin comienzo.
Considerando la primera solución, la respuesta de Bojowald a Penrose sería que hay una parte
grande e inobservable de la singularidad inicial que es una variedad genérica genuina, es decir,
un estado de máxima entropía con inhomogeneidad y anisotropía aleatorias. Por tanto, la
entropía de las singularidades inicial y final sería similar. Un mecanismo de inflación (de un
pequeño parche de esta variedad) produciría entonces la homogeneidad e isotropía necesarias
del universo FRW actual. Penrose, sin embargo, había anticipado esta objeción. Utilizando un
argumento de selección de observadores antrópicos, argumenta que el tamaño del parche
inflacionario que deberíamos esperar debería ser mucho más pequeño según los criterios
termodinámicos (por el factor 10 (10 ^ 123)) (Penrose 2005, p. 763).
Penrose sugiere que la vida podría necesitar un universo de solo 1/10 del tamaño de nuestro
universo actual (visible). Obtiene la probabilidad de un parche inicial de tamaño apropiado de
una variedad genérica utilizando la ecuación de Hawking-Bekenstein para la entropía de un
agujero negro. El exponente "123" en la fórmula de Penrose se basa en el cuadrado de la masa
dentro del universo observable. Entonces, multiplicar el radio del universo por un décimo
tendría el siguiente efecto: la masa dentro de este universo de menor tamaño se reduciría en un
factor de 10-3 (ya que el volumen es proporcional a r3), y la masa se eleva al cuadrado en la
fórmula de la entropía . Por tanto, el exponente se reduce en 6; por lo que la entropía general se
reduce de (10123) a (10117). La probabilidad de encontrarnos en cualquiera de los estados sería
aproximadamente diez elevada a la potencia apropiada.51
Entonces, ¿cuántos eventos inflacionarios más en un multiverso producirían un universo
susceptible de vida pero más pequeño? Esto se obtiene dividiendo las probabilidades:

Toma el logaritmo de ambos lados y simplifica:

Aquí -10117 es insignificante en comparación con el 10123 más grande. Por lo tanto, E = 10
(10 ^ 123). El recíproco de esto representa la probabilidad de encontrarnos en un universo
grande versus uno pequeño. Por tanto, es sumamente improbable que nos encontremos como el
producto de un evento inflacionario de una variedad genérica, como Bojowald et al. propuesto
originalmente. Por tanto, argumenta Penrose, la entropía de la variedad inicial debe ser
excesivamente baja.
Aparte de esto, el argumento epistémico no tiene en cuenta la generación de entropía durante
el ciclo. Durante un tiempo infinito, esto debería ser un factor, aunque puede ser insignificante
para un solo ciclo. Los huevos se rompen, la gente envejece, las estrellas se queman. Esta entropía
puede ser insignificante en comparación con la formación de un agujero negro. Pero en ciclos
infinitos, se sumaría.
La segunda solución, que la comprensión "clásica" de la entropía es engañosa, mitiga el
problema del crecimiento de la entropía, pero no lo resuelve. Si bien la entropía calculada
clásicamente puede ser demasiado alta (es decir, la estimación de Penrose sobreestima la
entropía debido a la falta de información contextual), el enfoque cuántico aún reconoce la
entropía (y el crecimiento de la entropía) como una cantidad física genuina. Los agujeros negros
siguen siendo muy entrópicos. Entonces, su formación durante un ciclo, especialmente si uno
aterriza en un Big Crunch, aún causaría que una variedad final tenga más entropía que una
variedad inicial. Aún sería de esperar que esta situación implique un comienzo, ya que implica
una muerte por calor dados ciclos infinitos. Por lo tanto, Bojowald solo está siendo realista al
optar por la tercera solución, que el modelo cíclico de LQG, de hecho, necesita ser completamente
reversible.
Pero oponerse a la segunda ley de la termodinámica es una tarea formidable; uno recuerda las
palabras del cosmólogo de principios del siglo XX, Sir Arthur Eddington:
Si alguien le señala que su teoría favorita del universo está en desacuerdo con las ecuaciones
de Maxwell, entonces mucho peor para las ecuaciones de Maxwell. Si la observación lo
contradice, bueno, estos experimentales a veces cometen errores. Pero si se descubre que su
teoría va en contra de la segunda ley de la termodinámica, no puedo darle ninguna esperanza;
no le queda más remedio que colapsar en la más profunda humillación (Eddington 1948, p.
74).

Entonces, la pregunta es, ¿puede LQG realmente probar la reversibilidad? Debemos esperar
nuevos desarrollos sobre el terreno. Es justo decir que la opinión predominante en la comunidad
cosmológica en general no está de acuerdo con Bojowald. Como admite el propio Bojowald, el
jurado aún está deliberando:
Sinclair: "¿Es el supuesto de inversión de la entropía: a) un supuesto inicial alrededor del
cual se construye un modelo LQG autoconsistente, ob) una consecuencia natural de los
modelos LQG? Bojowald: “Definitivamente es b), hasta donde podemos verlo actualmente. Se
deben completar muchos detalles, pero no hacemos suposiciones a priori sobre la entropía.
Dado que la entropía no es un objeto fundamental sino una medida de nuestra ignorancia de
lo que está sucediendo microscópicamente, ni siquiera es posible hacer tal suposición en una
teoría como la gravedad cuántica de bucles. Solo podemos hacer suposiciones sobre objetos
microscópicos y luego ver lo que esto implica para cantidades más comunes. Lo que aún no
sabemos es cómo se equilibran exactamente los cambios de entropía. Por tanto, no estamos
seguros de que la entropía no aumente de un ciclo a otro.

Hay que reconocer que Bojowald no ha asumido simplemente una entropía neta cero en su
modelo. Está usando el enfoque correcto; permitiendo a la física predecir la acumulación de
entropía a lo largo del tiempo. Sin embargo, hasta ahora, la única conclusión confiable es que la
gravedad cuántica de bucles puede mostrar que los argumentos de entropía de Penrose deben
modificarse desde su orientación semiclásica (lo que hemos llamado opción 2). Sin embargo, esto
no ha demostrado que la entropía del universo no aumente acumulativamente ciclo por ciclo. La
fuerza del argumento de Penrose permanece intacta incluso si su evaluación cuantitativa de la
entropía debe cambiar.
Aparte del problema de la entropía, sigue existiendo el problema de la energía oscura, que
puede tener el potencial de detener el ciclo e inducir una expansión abierta. El efecto actual de
energía oscura observado empíricamente, por ejemplo, parece adecuado para producir una
expansión acelerada de final abierto. Este resultado sería definitivo si la energía oscura tuviera
la forma de una constante cosmológica (es decir, su valor fuera independiente del espacio y el
tiempo; ver Barrow y Dabrowski 1995).52Como se relató anteriormente (Overbye 2006), este
parece ser el destino del universo actual. Pero si se niega una ganancia de entropía (ciclo a ciclo),
nunca se puede tener más de un "ciclo". La constante cosmológica habría llevado a una expansión
abierta la primera vez. Por tanto, la singularidad inicial (nuestro Big Bang) representa un
comienzo absoluto.
Sin embargo, si la energía oscura fuera de la forma de "quintaesencia" (es decir, tuviera un
valor que dependa del espacio y / o el tiempo), entonces sería posible que su valor pudiera
revertirse y ser consistente con una fase de colapso, incluso teniendo en cuenta la evidencia
observacional actual. Pero entonces podría surgir un nuevo problema. Bojowald reconoce que
después del rebote y la siguiente transferencia de energía, los diferentes modos de los campos
de materia se excitarán de modo que el siguiente rebote será diferente al anterior. Pero si el
término de quintaesencia cambia, entonces quizás el modelo más genérico de LQG sería un
híbrido entre los modelos cíclico y de rebote único. En algún ciclo particular, el valor del término
de quintaesencia sería tal que conduciría a una expansión sin fin. Bojowald responde,
Si solo hay una constante cosmológica, se fijaría para todos los ciclos y no cambiaría. Pero si
hay algún tipo de quintaesencia, tienes razón en que sus condiciones iniciales para la fase
clásica se verían afectadas por la transición de rebote. Para que su escenario se pueda realizar
en modelos de quintaesencia adecuados. Sin embargo, lo que la gente suele preferir son los
modelos de quintaesencia que tienen un comportamiento atractor en momentos tardíos, o
las llamadas soluciones de seguimiento. Esto permite evitar demasiados ajustes y hace que
la dinámica sea menos sensible a los cambios en los valores iniciales. Para tales modelos, por
lo tanto, no se esperan genéricamente grandes cambios entre ciclos. Por otro lado, dado que
el efecto sería bastante dramático si se pudiera realizar una expansión abierta, incluso una
posibilidad no genérica puede ser importante (Comunicación personal, 9 de marzo de 2006).

Dado un número infinito de tiradas de dados, cualquier probabilidad distinta de cero de que la
quintaesencia pueda producir una expansión abierta sería suficiente para hacerlo. Una
expansión abierta implica que el número total de ciclos ha sido finito y, por lo tanto, el modelo
no carecería de comienzo.53
En general, la gravedad cuántica de bucles parece una alternativa prometedora a la teoría de
cuerdas como candidata a la gravedad cuántica. Pero construir un modelo LQG cíclico
genuinamente sin comienzo parece ser un desafío mucho más difícil. 54

IVc Creación semiclásica ex nihilo modelos


Cuando se exploró por primera vez la inflación como concepto, se entendió que era una fase en
la historia de nuestro universo que ocurrió en algún momento después del evento de origen y
terminó hace mucho tiempo. Esto naturalmente llevó a la pregunta: "¿Cómo pudo haber
comenzado la inflación?" (Figura 1.18).
Esa comprensión ha cambiado con el trabajo de cosmólogos como Andrei Linde (inflación
caótica) y el trabajo reciente sobre el paisaje de cuerdas de pioneros como Susskind, Bousso y
Polchinski (y muchos otros). Aquí, la inflación no se ve solo como una fase en el desarrollo, sino
como la característica dominante de un multiverso más grande, dentro del cual nuestro
“universo” es solo un fenómeno regional. Sin embargo, dados los teoremas de singularidad
desarrollados por Borde, Guth y Vilenkin, la inflación misma no se considera como un pasado
eterno.55. Por lo tanto, la vieja pregunta aún persiste: ¿Cómo comenzó la inflación? Vilenkin
explica un enfoque que inició (Vilenkin 1982) para abordar esta pregunta:

Figura 1.18 Modelos cuánticos con un comienzo explícito al pasado finito.

Mucha gente sospechaba que para comprender lo que realmente sucedió al principio,
deberíamos tratar el universo de forma mecánica cuántica y describirlo mediante una
función de onda en lugar de un espacio-tiempo clásico. Este enfoque cuántico de la
cosmología fue iniciado por DeWitt y Misner, y después de un comienzo algo lento recibió un
amplio reconocimiento en las últimas dos décadas. La imagen que ha surgido de esta línea de
desarrollo es que un pequeño universo cerrado puede nuclearse espontáneamente de la
nada, donde por "nada" me refiero a un estado sin espacio y tiempo clásicos. La función de
onda cosmológica se puede utilizar para calcular la distribución de probabilidad para las
configuraciones iniciales de los universos nucleantes. Una vez que el universo se nuclea, se
espera que pase por un período de inflación, impulsado por la energía de un falso vacío.

Vilenkin utiliza el túnel cuántico de una partícula a través de un pozo potencial como una
analogía para todo el universo. En la figura 1.19, las porciones en verde representan un universo
cerrado de Freidmann-Robertson-Walker, es decir, un universo que no tiene suficiente energía
total para tener una expansión de extremos abiertos. Por lo tanto, pasa por ciclos continuos de
Big Bang / Big Crunch. En la física clásica (GR), este estado de cosas persistiría para
siempre.56Pero la gravedad cuántica proporciona una salida. Existe una probabilidad finita de
que, en lugar de volver a colapsar, el universo haga un "túnel" a través de la barrera de energía y
comience una expansión inflacionaria.
Este enfoque todavía no resuelve el problema de la creación; más bien ha hecho retroceder la
pregunta un paso: al universo inicial, diminuto, cerrado y metaestable. Este estado universal
puede haber existido solo durante un tiempo finito. ¿De dónde vino?
La solución de Vilenkin fue considerar lo que sucede en el límite cuando la energía de este
universo cerrado inicial se vuelve cero. El factor de escala del universo también se vuelve cero.
Esta es la génesis de la afirmación de que el universo se crea a partir de "nada". No hay espacio,
tiempo, materia ni energía. Esto constituye una transformación topológica: “Creación de un
universo de la nada. . . es una transición del sector topológico nulo que no contiene universos en
absoluto al sector con un universo de topología S3 ”(Vilenkin 1994, p. 23). Vilenkin concede que
la nada así concebida no es lo mismo que la ausencia del ser:

Figura 1.19 Creación ex nihilo de un universo.

Entiendo que un universo de radio cero no es necesariamente lo mismo que ningún universo
en absoluto. Pero matemáticamente, mi túnel cuántico desde la nada se describe con la misma
geometría de "volante" que Hartle y Hawking [NB, Fig. 1.20 a continuación]. (De hecho, el
volante apareció por primera vez en mi artículo de 1982). Esta geometría ciertamente no es
pasado-eterno, y no hay ningún punto en la esfera euclidiana que puedas identificar como el
universo inicial de tamaño cero. Entonces, si el enfoque de Hartle-Hawking evita las
“paradojas de la creación”, no veo por qué mi mío no lo hace (Comunicación personal, 23 de
octubre de 2006).
La descripción matemática de un universo en túnel sugiere que el tiempo, el espacio y la
materia llegaron a existir hace un tiempo finito. “Nada” se refiere al estado “anterior”
(Comunicación personal, 30 de octubre de 2006).

El universo claramente tiene un comienzo en este enfoque. Pero la afirmación parece ir más allá
de esto: el universo "llegó a existir" a partir de un estado "anterior" de "nada". Esta última
afirmación (que el universo llega a existir) es significativa, porque la noción de tiempo se vuelve
mal definida en estos modelos cerca del comienzo.

Figura 1.20Transición al tiempo "normal" en un enfoque Hartle-Hawking. En realidad, esta es solo una técnica matemática llamada
continuación analítica, que es útil para problemas con funciones “mal comportadas”, pero que no implica compromiso ontológico.

Un enfoque similar al de Vilenkin es la “propuesta sin límites” de James Hartle y Stephen


Hawking. Hartle-Hawking hace uso del enfoque de Richard Feynman sobre la mecánica cuántica.
El enfoque de Feynman (Feynman 1985) consiste en encontrar la probabilidad de un cierto
estado cuántico final mediante una integral de trayectoria, una "suma de historias". En términos
cuánticos, esta es una superposición de estados. Toda posible historia del universo es parte de la
función de onda; cada estado final posible tiene una probabilidad asociada de realización
(alternativamente, uno puede ver todos los estados posibles como existentes "en algún lugar" en
un multiverso realizado). El camino integral del universo, como uno podría imaginar, presenta
un problema insoluble; por eso, Hartle y Hawking hacen una conjetura fundamentada sobre un
subconjunto de universos posibles que se espera que dominen el cálculo y afirmen espacios
compactos solo para resolver el problema de que las integrales de trayectoria (o contorno) a
menudo se comportan mal. Tienden a divergir y dar respuestas sin sentido (como "infinito" para
una probabilidad).
Para rectificar el problema de la divergencia, Hartle y Hawking utilizan métricas euclidianas
para describir las primeras fases de la existencia del universo. Esta es una técnica matemática
llamada continuación analítica (o más específicamente, rotación de Wick) que permite analizar
una función que se comporta mejor en el dominio de interés. Una métrica "normal" o
"lorentziana" tiene una firma (-, +, +, +), que indica un carácter especial para la dimensión de
tiempo. Una métrica euclidiana (+, +, +, +) trata el tiempo de la misma manera que las
dimensiones del espacio. La rotación de Wick toma la variable de tiempo real "T" y la reemplaza
con la cantidad imaginaria "ix T." Aquí "i" es la raíz cuadrada de uno negativo. Así, se dice que
Hartle y Hawking emplean "tiempo imaginario" en su modelo.
El uso de una métrica euclidiana tiene el efecto de eliminar la singularidad inicial predicha por
la GR "pura", de ahí el término "propuesta sin límites". En general, no existe un compromiso
ontológico asociado con este cambio en la firma métrica. Pero Hawking, en sus escritos
populares, parece afirmar la realidad física de la firma euclidiana. Esta es la génesis de la
afirmación de Hawking de que “[el universo] no sería creado ni destruido. Simplemente SERÍA
”(Hawking 1988, p. 141). Hawking continúa preguntando "¿Qué lugar, entonces, para un
creador?" Sin embargo, curiosamente, Hartle y Hawking también afirman que se puede
interpretar que su universo surgió de la "nada":
Se puede interpretar que la integral funcional de todas las cuatro geometrías compactas
limitadas por una geometría tres dada da la amplitud para que esa geometría tres surja de
una geometría cero tres; es decir, un solo punto. En otras palabras, el estado fundamental es
la probabilidad de que el Universo aparezca de la nada (Hawking y Hartle, 1983, p. 2961).
[Luego se refieren al artículo de Vilenkin sobre "túneles desde la nada".] 57

También existe una tercera interpretación de estos resultados. Recuerde que Gott y Li han
criticado el enfoque de la creación ex nihilo por dos motivos. (1) Las transiciones en la mecánica
cuántica son siempre entre estados clásicos permitidos (el enfoque de Vilenkin y Hartle-Hawking
tiene una transición de una región clásicamente prohibida a una región clásicamente permitida).
(2) Los enfoques de Vilenkin y Hartle-Hawking deberían contener campos de energía realistas
(algo más cercano a lo que realmente vemos en la naturaleza). Si lo hicieran, entonces el principio
de incertidumbre de Heisenberg requeriría que el estado inicial de sus modelos tuviera una
energía finita y distinta de cero. Si ese es el caso, entonces los modelos cuánticos semiclásicos
realmente comienzan en un estado metaestable clásicamente permitido, en lugar de "nada". Gott
y Li elaboran:

El problema con este modelo [Vilenkin y Hawking-Hartle] es que ignora la "energía de punto
cero". Si hay un campo escalar conforme φ, entonces los niveles de “energía” deben ser E n =
n + 1/2. Incluso para n = 0 hay una "energía de punto cero". El potencial hace que el sistema
se comporte como un oscilador armónico en el pozo de potencial cerca de a = 0. Un oscilador
armónico no puede ubicarse en el fondo del pozo de potencial; el principio de incertidumbre
no lo permitiría. Debe haber algo de energía de punto cero y la partícula debe tener cierto
impulso, ya que oscila dentro del pozo de potencial cuando se incluye el campo φ. Por lo tanto,
cuando se considera la "energía puntual cero", vemos que el estado inicial no es un punto,
sino un pequeño universo oscilante (0 <a <a1) del Big Bang, que oscila entre big bangs y big
crunches (aunque las singularidades en los big bangs y big crunches pueden estar manchadas
por efectos cuánticos). Este es el estado clásico inicial a partir del cual se produce el túnel. Es
metaestable, por lo que este universo oscilante no podría haber existido para siempre:
después de una vida media finita, es probable que decaiga. Alcanza el radio máximo a1, y
luego hace un túnel a un estado clásico de De Sitter en el radio mínimo a2 donde a2 <a0 (Gott
y Li 1998, p. 38, énfasis nuestro).

La pregunta relevante para la interpretación de estos modelos, entonces, es: ¿Es el universo (i)
creado a partir de la nada, (ii) ni creado ni destruido sino, en efecto, eternamente subsistente, o
(iii) dejado en última instancia sin explicación, ya que la existencia del universo inicial,
metaestable, cerrado, del tamaño de Planck del que nació nuestro universo, ¿no se explica en sí
mismo? La opción (i), si se adopta, implica claramente que el universo comenzó a existir. Sin
embargo, como incluso el propio Vilenkin reconoce, "nada", como él lo describe, no es lo mismo
que ausencia de ser. Cualquiera que sea la realidad que subyace a las leyes de la mecánica
cuántica, debe existir al menos para transformar el sector topológico nulo en un universo FRW.
Las leyes mismas, si existen, son meros objetos abstractos de naturaleza proposicional y, por lo
tanto, no mantienen relaciones causales con nada. Como tales, son irrelevantes para lo que
sucede en el mundo; es la realidad que les corresponde lo que distingue la posibilidad
meramente lógica de la real. Como dijo una vez Heinz Pagels: “Este vacío impensable se convierte
en el pleno de la existencia, una consecuencia necesaria de las leyes físicas. ¿Dónde están escritas
estas leyes en ese vacío? ¿Qué le 'dice' al vacío que está preñado de un universo posible?
Parecería que incluso el vacío está sujeto a la ley, una lógica que existe antes del espacio y el
tiempo ”(Pagels 1985, p. 347). La opción (i), entonces, está equivocada, ya que se basa en un uso
idiosincrásico de la palabra "nada". Ese estado inicial claramente no es nada, sino algo. “Este
vacío impensable se convierte en el pleno de la existencia, una consecuencia necesaria de las
leyes físicas. ¿Dónde están escritas estas leyes en ese vacío? ¿Qué le 'dice' al vacío que está
preñado de un universo posible? Parecería que incluso el vacío está sujeto a la ley, una lógica que
existe antes del espacio y el tiempo ”(Pagels 1985, p. 347). La opción (i), entonces, está
equivocada, ya que se basa en un uso idiosincrásico de la palabra "nada". Ese estado inicial
claramente no es nada, sino algo. “Este vacío impensable se convierte en el pleno de la existencia,
una consecuencia necesaria de las leyes físicas. ¿Dónde están escritas estas leyes en ese vacío?
¿Qué le 'dice' al vacío que está preñado de un universo posible? Parecería que incluso el vacío
está sujeto a la ley, una lógica que existe antes del espacio y el tiempo ”(Pagels 1985, p. 347). La
opción (i), entonces, está equivocada, ya que se basa en un uso idiosincrásico de la palabra
"nada". Ese estado inicial claramente no es nada, sino algo. está equivocado, ya que se basa en un
uso idiosincrásico de la palabra "nada". Ese estado inicial claramente no es nada, sino algo. está
equivocado, ya que se basa en un uso idiosincrásico de la palabra "nada". Ese estado inicial
claramente no es nada, sino algo.
En cuanto a la opción (ii), el propio Hawking parece dar buenos motivos para tratar su
propuesta solo como un enfoque instrumental. En su colaboración con Roger Penrose La
naturaleza del espacio y el tiempo (Hawking y Penrose, 1996), demuestra el mismo enfoque
matemático (continuación analítica) para describir la producción de pares de pares de
electrones y positrones en un campo eléctrico fuerte. Esta es una técnica matemática estándar
que a veces se usa cuando las funciones analíticas complejas se comportan mejor en un
determinado dominio que sus contrapartes reales. Sin embargo, no implica un compromiso
ontológico con la descripción alternativa. Nos parece que dada la ininteligibilidad de la región
del “tiempo imaginario” en estos modelos, es más razonable tratar este enfoque como de carácter
no realista.
En cuanto a la opción (iii), parece que tenemos el mismo tipo de situación que encontramos
con los modelos Emergente y PBBI con sus estados ESS y SPV metaestables asociados. El
universo no puede ser más allá de la eternidad porque el estado metaestable inicial sólo puede
haber tenido una vida finita. Nos parece que esta es la opción más razonable para una
interpretación realista de estos modelos. Emplea interpretaciones conocidas y significativas de
los fenómenos físicos de la teoría cuántica "clásica" y las extiende a los modelos de gravedad
cuántica. Se evitan los problemas asociados con la novedad de afirmar una condición de energía
cero para el estado inicial (negado por el principio de incertidumbre de Heisenberg), la novedad
de afirmar una transición cuántica de un estado prohibido a un estado clásicamente permitido
(la teoría cuántica normal solo incluye transiciones sobre o a través de regiones prohibidas de
un estado permitido a otro), y es consistente con campos de energía más realistas. La opción (iii)
también es consistente con la segunda premisa del argumento cosmológico kalam.

2.34 Resumen
Tomando como trampolín los desafíos a los teoremas de la singularidad de Hawking-Penrose,
hemos examinado el desarrollo histórico de tres programas de investigación, cada uno de los
cuales persigue excepciones conocidas a los teoremas: 58(1) curvas de tiempo cerradas, (2)
violación de la condición de energía fuerte (inflación eterna) y (3) falsedad de GR (gravedad
cuántica). Los principales desarrollos teóricos relacionados con las opciones (2) y (3) fueron la
teoría inflacionaria (gravedad repulsiva) y la gravedad cuántica semiclásica.
Las curvas de tiempo cerradas, aunque interesantes, parecen fallar dada la conjetura de
protección cronológica. Se pueden encontrar contraejemplos a la conjetura, pero parecen ser
modelos de juguetes poco físicos y / o infinitamente afinados.
En cuanto a la inflación, un tipo exótico de campo energético posee la extraña propiedad de la
presión negativa. Esta energía quiere colapsar sobre sí misma debido a la presión, pero de
acuerdo con las ecuaciones de Einstein, la presión también produce una fuerza gravitacional. Si
la presión es negativa, la fuerza gravitacional es repulsiva. Resulta que la repulsión es la más
fuerte de las dos tendencias, en gran medida. El universo puede expandirse muchos órdenes de
magnitud en una fracción de segundo; desde invisiblemente pequeño hasta más grande que todo
el cielo observable. Este desarrollo permitió una reevaluación de la cuestión de los orígenes que
duró dos décadas. Finalmente, un nuevo teorema de la singularidad, desarrollado por Arvind
Borde, Alan Guth y Alexander Vilenkin, mostró que este modelo, el universo inflacionario,
todavía tenía un comienzo en el pasado finito.
Es fascinante observar que la historia reciente de la cosmología puede mapearse mediante los
intentos de superar estos teoremas de la singularidad. Siguiendo el teorema de BGV en 2003, los
intentos de construir modelos se han basado en excepciones a ese teorema. Estos fueron: (1) la
expansión pasada promedio del universo es negativa (contracción-rebote), (2) la expansión
pasada promedio es cero (universo asintóticamente estático), (3) la expansión pasada promedio
es cero (universo cíclico) y (4) espacio-tiempo exótico.

El primero, algo parecido al universo de De Sitter, presentó una contracción infinita en un


rebote en la singularidad, seguida de nuestra expansión actual. Pero presentaba la elección de
Hobson entre una contracción acausalmente afinada o un punto de inicio infinitamente distante.
En cualquier caso, se predijo que el rebote sería caótico (debido a las oscilaciones de BKL) y, por
lo tanto, su "Big Bang" no se parecería en nada al que realmente medimos.
El segundo caso, ejemplificado por la clase de modelo Emergente, presenta un estado inicial
inestable o metaestable seguido de una expansión inflacionaria. Pero un estado inestable (ESS)
o un estado metaestable (la adición de la gravedad cuántica de bucle al modelo emergente) tiene
una vida útil finita. Entonces, el comienzo del universo se reafirma.
Se sabe desde hace mucho tiempo que el tercer caso, desde los modelos originales de Richard
Tolman, es problemático por motivos de entropía. Baum y Frampton han tratado de resolver este
problema mediante un enfoque denominado "el rebote fantasma". Aquí, el universo sufre una
superexpansión ayudado por los efectos de la energía "fantasma", que acelera la expansión con
efectos similares a la inflación. El universo luego se fraccionaría en un multiverso, con casi todos
los universos hijos habiendo descartado su entropía dada la expansión inicial. ¿Podría funcionar
esto? No parece que sea así, la principal dificultad es que la reconexión causal del universo
probablemente ocurre en el punto de "cambio radical" (cuando la expansión pasa a la
contracción) que conduce a una contracción, en lugar de a muchas. Una conclusión más segura
es que, incluso dado un universo "vacío"59 Al sufrir una contracción, las fluctuaciones caóticas a
medida que la contracción se acerca a una singularidad crearían materia, lo que conduciría a un
crujido caótico, lo que evitaría el ciclo.
El cuarto caso presenta una deconstrucción del tiempo mismo. Postula dos expansiones
inflacionarias en espejo, donde las flechas del tiempo se alejan de una frontera pasada. Por tanto,
el universo espejo no es nuestro pasado. Este es solo un caso de un doble Big Bang. Por tanto, el
universo todavía tiene un origen.
¿Qué pasa con los intentos de modelos de gravedad cuántica (muchos de los cuales se
superponen con los anteriores)? Incluyen: (1) modelos de cuerdas, (3) modelos LQG y (3)
modelos semiclásicos de gravedad cuántica.60
El campo nuevo más popular es la clase de modelos de cuerdas. Dos enfoques destacados son
los modelos de inflación Ekpyrotic / Cyclic y Pre-Big Bang. Pero el primero está sujeto al teorema
de singularidad BGV y, por lo tanto, tiene un comienzo. El segundo probablemente se
interpretará sólo instrumentalmente y, en cualquier caso, parece tener las características de la
clase Emergente con respecto al estado inicial. Por lo tanto, tiene una fase inicial metaestable,
llamada Vacío Perturbativo de Cuerdas, que no puede ser eterna en el pasado. El modelo de
cuerdas más popular es la generalización de la teoría inflacionaria conocida como el paisaje de
cuerdas. Sin embargo, se sabe que este escenario tiene un comienzo en el pasado finito debido al
mismo teorema de BGV.
La gravedad cuántica de bucles es un competidor de la teoría de cuerdas. Vimos una de esas
aplicaciones cuando LQG se incorporó a la clase de modelo Emergente. Otro enfoque de LQG es
intentar construir un modelo cíclico viable. LQG parece un enfoque prometedor para abordar el
problema del caos BKL, por lo que quizás proporcione una justificación para un modelo de
rebote. Pero el LQG cíclico todavía parece no tener en cuenta los efectos de la entropía que
generalmente condenan la ciclicidad infinita. Incluso si lo hiciera, las observaciones actuales
muestran que nuestro universo está en una expansión abierta en lugar de un ciclo Big Bang / Big
Crunch. Por lo tanto, los intentos actuales de LQG no parecen respaldar un universo eterno
pasado.
Los modelos de gravedad cuántica semiclásica tienen, en su propio enfoque, un comienzo hacia
el pasado finito. El comienzo se ha descrito de tres formas posibles (y no consistentes).
Cualquiera:

1. El universo nació de un estado anterior de topología nula (pero que de alguna manera
contenía las leyes de la física) a una métrica de Lorentz (el universo normal). Por lo tanto,
el universo "pasó de la nada" a la existencia.
2. El estado inicial del universo es increado. Esto se debe a la naturaleza del tiempo en una
métrica euclidiana. Equivale a una dimensión espacial.
3. Debido a que el estado inicial de la geometría debe tener una energía de punto cero, está
en un estado clásico con una métrica de Lorentz. Es un universo cerrado metaestable. Por
lo tanto, este estado no pudo haber existido para siempre y, de una manera inexplicable
por el modelo, comenzó a existir.

La segunda descripción parece tener un carácter puramente instrumental. El primero y el tercero


implican que el universo comenzó a existir. Por lo tanto, los modelos semiclásicos apoyan que el
universo tenga un comienzo.
Nuestro estudio muestra que la cosmología contemporánea apoya bastante la segunda
premisa del argumento cosmológico kalām. Además, no se llega a esta conclusión mediante la
búsqueda de condiciones de falla únicas y elaboradas para decenas de modelos individuales. Más
bien, la aplicación repetida de principios simples parece eficaz para descartar un modelo sin
comienzo.61
Son:
Historial de expansión promedio del modelo Condición que requiere un comienzo
1) Modelos en expansión Teoremas de singularidad
2) Modelos asintóticamente estáticos Metaestabilidad
3) Modelos cíclicos Segunda ley de la termodinámica
4) Modelos de contratación Ajuste fino de causales

Parece que el campo de la cosmología, por tanto, proporciona una buena evidencia de que el
universo comenzó a existir.

Notas
1. Además del artículo de Ellis et al., Ver (Vaas 2004).
2. Por lo tanto, se vería que la temperatura del universo aumenta cuando uno mira hacia atrás en el tiempo.
3. Los primeros artículos de Slipher ahora están disponibles en línea en <http://www.roe.ac.uk/~jap/slipher/.>
4. Una geodésica es el camino que traza una partícula en caída libre a través del espacio y el tiempo. Una partícula masiva viaja
a una geodésica similar a un tiempo. Una geodésica nula es viajada por una partícula sin masa, como los fotones que forman
la luz visible.
5. Como escriben Gott, Gunn, Schramm y Tinsley: “El universo comenzó a partir de un estado de densidad infinita hace
aproximadamente un Hubble. El espacio y el tiempo se crearon en ese evento y también lo fue toda la materia en el universo.
No tiene sentido preguntar qué sucedió antes del Big Bang; es algo así como preguntar qué hay al norte del Polo Norte. Del
mismo modo, no es sensato preguntar dónde tuvo lugar el Big Bang. El universo puntual no era un objeto aislado en el espacio;
era el universo entero, por lo que la única respuesta puede ser que el big bang ocurrió en todas partes ”(Gott, Gunn, Schramm,
Tinsley, marzo de 1976, p. 65).
El tiempo de Hubble es el tiempo transcurrido desde la singularidad si la tasa de expansión ha sido constante. La singularidad
es un punto solo en el sentido de que la distancia entre dos puntos cualesquiera en la singularidad es cero. Cualquiera que
piense que debe haber un lugar en el universo donde ocurrió el Big Bang todavía no ha comprendido que es el espacio mismo
el que se está expandiendo; es la superficie bidimensional de un globo inflado que es análoga al espacio tridimensional. La
superficie esférica no tiene centro y, por lo tanto, no tiene lugar donde comience la expansión. No se debe insistir en la analogía
del Polo Norte con el comienzo del tiempo, ya que el Polo Norte no es un borde de la superficie del globo; el comienzo de los
tiempos se parece más al vértice de un cono. Pero la idea es que así como no se puede ir más al norte que el Polo Norte,
6. Sin embargo, experimentos posteriores establecieron definitivamente la correspondencia entre los recursos genéticos y la
naturaleza. El Premio Nobel de Física de 1993 fue otorgado a dos astrónomos: Russell A. Hulse y Joseph H. Taylor, Jr. El premio
fue otorgado por su estudio de un sistema solar distante que consiste en un púlsar binario: dos estrellas de neutrones
orbitando entre sí. GR predijo que la órbita se reduciría con el tiempo debido a la emisión de ondas gravitacionales.
Demostraron que GR tiene una precisión sorprendente de una parte en 1014. Esto hace que GR sea quizás la teoría mejor
probada de toda la física.
7. Got indica: “Creo que nadie ha podido descartar CTC. No ha habido cambios significativos en la gravedad cuántica desde
nuestro artículo. Para comprender si se puede crear una máquina del tiempo, es posible que tengamos que comprender la
gravedad cuántica y nosotros todavía no. Se han encontrado varias lagunas en la protección cronológica. Li Xin-Li, Cassidy y
yo, estudiante de Hawking, hemos encontrado ejemplos de estados cuánticos de vacío que no explotan en el horizonte cauchy.
El artículo de Li Xin-Li sobre el procedimiento correcto de renormalización [Phys. Rev. D. 084016 (1999)] mostró que el
campo de vacío no explotó para los campos electromagnéticos y otros campos, así como para los campos escalares. Esto
significa que la acción o la entropía tampoco explotan, resolviendo un problema que Hawking y Cassidy pensaban que existía.
8. Coule tiene algunas objeciones adicionales propias. Por ejemplo, critica la naturaleza del vacío, indicando que las
fluctuaciones térmicas deben ser de una forma precisa para evitar la contrarreacción de radiación descrita anteriormente por
Thorne. Esta expectativa es inconsistente con la física de escala de Planck empleada por Gott y Li.
9. Para ser justos con Gott y Li, cabe señalar que las críticas de Hiscock se basan en un enfoque semiclásico (una aproximación
de la gravedad cuántica), y es posible que una teoría completa de la gravedad cuántica pueda reivindicar su idea.
10. Vilenkin también ha criticado el modelo de Gott-Li (ver Vilenkin 2006, p. 219). Él indica que el espacio-tiempo de Gott-Li
contiene historias incompletas, por lo que "Esto significa que el espacio-tiempo en sí es un pasado incompleto y, por lo tanto,
no proporciona un modelo satisfactorio de un universo sin un comienzo".
11. El universo parece diferente a varias distancias cuando lo miramos. Pero esto se debe al hecho de que observamos galaxias
distantes como lo eran en el pasado, dado el tiempo que tarda su luz en llegar a nosotros.
12. Para comprender lo que representan estas estructuras exóticas, considere la analogía de un estanque que se congela en
invierno. Si el estanque comienza a congelarse en un lugar y el hielo simplemente crece hasta abarcar todo el estanque,
tendrá una superficie lisa. Pero si diferentes partes del estanque comienzan a congelarse por separado, en última instancia,
estos "icebergs" en crecimiento deben encontrarse en un límite. (Imagínese tomando rocas grandes y abriendo agujeros en
el hielo; luego dejándolo volver a congelarse. Los límites serán ásperos). El universo primitivo era similar. Estos límites se
denominan "defectos" y pueden ser cero, unidimensionales o bidimensionales. Los defectos de dimensión cero se denominan
monopolos magnéticos. Los defectos unidimensionales se denominan cuerdas cósmicas. Los límites bidimensionales se
denominan paredes de dominio.
13. Definición de pliegue electrónico: http://astro.uchicago.edu/~cunha/inflation/node4.html
14. En la inflación caótica de Linde, el campo energético presenta fluctuaciones cuánticas que son críticas para el inicio de
nuevos parches inflacionarios.
15. Dado que sólo falta la causa "material", este proceso es un ejemplo de auténtica creatio ex nihilo visto por los teóricos físicos
en la actualidad. Tal reconocimiento de la causalidad eficiente en ausencia de causalidad material puede servir para silenciar
las objeciones a la creatio ex nihilo teísta como se presenta en el argumento cosmológico kalām.
dieciséis. Hav se refiere al valor promedio de la constante de Hubble a lo largo de la historia.
17. Alan Guth, en una conferencia de 2003 en el Instituto Kavli de UCSB, dice: “Si seguimos al observador hacia atrás en un
universo en expansión, se acelera. Pero, el cálculo muestra que si Haverage> 0 en el pasado, entonces alcanzará la velocidad
de la luz en un tiempo propio finito ". Verhttp://online.kitp.ucsb.edu/online/strings_c03/guth/pdf/KITPGuth_2up.pdf
18. Andrei Linde ha ofrecido una crítica, sugiriendo que BGV implica que todas las partes individuales del universo tienen un
comienzo, pero tal vez TODO no. Sin embargo, esto parece malinterpretado, ya que BGV no afirma que cada geodésica
inextensible pasada esté relacionada con una singularidad regional. Más bien, afirman que la descripción del universo de
Linde contiene una contradicción interna. Cuando miramos hacia atrás a lo largo de la geodésica, debe extenderse hasta el
pasado infinito si el universo ha de ser más allá de la eternidad. Pero no es así (para el observador que se mueve
conjuntamente con la expansión). Más bien, las geodésicas inextendibles del pasado son el "síntoma", no la "enfermedad".
Como dice Robert Wald (175Wald 1984, p. 216), “Desafortunadamente, los teoremas de la singularidad no brindan
prácticamente información sobre la naturaleza de las singularidades de las que prueban su existencia. ”Entonces no
conocemos la naturaleza de la singularidad que indica el teorema BGV; sólo sabemos que la descripción de Linde de un
pasado infinito es errónea.
19. Véase también Damour y Henneaux (2000): “. . . Nuestros hallazgos sugieren que la inhomogeneidad espacial aumenta
continuamente hacia una singularidad, ya que todos los parches cuasi uniformes de espacio se rompen en otros cada vez
más pequeños por la evolución oscilatoria caótica. En otras palabras, la estructura del espacio-tiempo tiende a desarrollar
una especie de 'turbulencia' ”.
20. En respuesta a la pregunta, "¿Son c-límites [ver Fig. 1.7 y la siguiente discusión para la explicación de estos términos] como
infinito temporal pasado y futuro y scri + bordes físicamente reales al espacio-tiempo (real, como un agujero negro es un
entidad) o son meras conveniencias matemáticas? Pero si el infinito es 'real' y alcanzable, entonces un límite c debe ser un
borde real del espacio-tiempo, físicamente real en su ontología ”, responde Ellis secamente:
“1. no
2. matemáticas: después de todo, un diagrama de espacio-tiempo es solo una representación de la realidad física
3. en mi opinión, el infinito no es real ni alcanzable ".
21. Una supertarea es una serie infinita de subtareas que se pueden completar en un tiempo finito.
22. (Barrow y Tipler 1986, p. 408), atribuido al cosmólogo Thomas Gold.
23. Ver, por ejemplo, (Earman y Mosterin 1999) para un argumento relacionado.
24. Ahora acabamos de mostrar en la sección anterior que Ellis tiene un problema filosófico con los modelos que sugieren un
punto de inicio infinitamente distante e incluso, de hecho, la noción de un infinito realizado en la naturaleza. Sin embargo,
aquí tenemos una familia de modelos desarrollados por Ellis et al. que parecen sugerir precisamente eso. Esto se explica a
través de lo siguiente:
1) El infinito está tan profundamente arraigado en los RR.GG. que el pragmatismo puro exige que uno incluya el concepto en su
trabajo.
2) No es cognitivamente disonante considerar que uno podría estar equivocado e investigar en consecuencia. De hecho, un buen
procedimiento científico incluye un intento de falsificar las propias teorías.
3) Los colaboradores de Ellis pueden no tener los mismos compromisos filosóficos.
4) Un infinito que aparece debido a una interpretación técnica de GR puede desaparecer dada una generalización de la teoría
(digamos, considerando la gravedad cuántica).
Una mirada completa al trabajo reciente de Ellis indica un sesgo hacia modelos con espacios compactos (es decir, espacialmente
finitos ya sea a través de una curvatura cerrada o topología), un escepticismo con respecto a los multiversos infinitos y una
apertura hacia la idea de un "pseudo-comienzo" en el pasado finito. En resumen, la idea del pseudo-comienzo es que existe
una realidad atemporal donde el tiempo "enciende", produciendo nuestro estado actual de cosas.
25. Esto está relacionado con los modelos de “creación de la nada”; ver sección IVc.
26. Observamos, también, que una perturbación a un estado cercano a ESS debería ser tan eficaz para perturbar el universo
como una perturbación a un ESS genuino. Por lo tanto, un modelo que solo es una EEE asintótica pasada no escapa al
problema. De hecho, dado el tiempo infinito pasado y la variedad de transiciones exóticas del universo cuántico postuladas
a lo largo de la literatura cosmológica, parece inconcebible que cualquier universo pueda mantener una estructura
conservada durante períodos de tiempo "largos" en comparación con el intervalo desde el Big Bang.
27. Él dice, "observe la versión posterior de nuestro modelo (astro-ph / 0502589) basada en la aproximación semiclásica a la
gravedad cuántica de bucles donde el modelo estático es estable durante mucho tiempo" (Comunicación privada, 24 de enero
de 2006).
28. Modelo de mosaico: las características indeseables de un universo modelo pueden tener un alcance regional; la
consideración de un multiverso puede eliminar esas características.
29. Energía fantasma: energía oscura con una ecuación de estado supernegativa, es decir, p / r <-1.
30. En junio de 2007, Paul Frampton puso un documento en la preimpresión web (Frampton 2007a) que abordaba parcialmente
el problema. Pero parece mostrar solo que un modelo cíclico genérico evita el teorema de BGV. Ese punto no estaba en
disputa. La pregunta original todavía parece persistir.
31. Los modelos de rebote fantasma funcionan bajo el supuesto de que la ecuación de Friedmann estándar ya no es válida para
las condiciones del universo donde la densidad de energía fantasma está cerca de un valor crítico.
32. Aquí τ indica periodicidad; indica en qué ciclo se encuentra actualmente el universo.
33. (Frampton y Takahashi 2003) y (Frampton y Takahashi 2004)
34. En un "Big Rip", la tasa de expansión del universo se vuelve infinita y conduce a una futura singularidad.
35. Banks se queja: “Tengo un problema con TODAS las cosmologías cíclicas. . . . La fase de colapso de estos modelos siempre
tiene un hamiltoniano dependiente del tiempo para las fluctuaciones del campo cuántico alrededor del fondo clásico.
Además, los trasfondos clásicos se están volviendo singulares. Esto significa que las teorías de campo se excitarán a estados
de energía cada vez más altos (defina la energía de alguna manera adiabática durante la era en la que la cosmología todavía
varía bastante lentamente, y use esto para clasificar los estados, aunque no se conserve). Los estados de alta energía en la
teoría de campos tienen la propiedad ergódica: se termalizan rápidamente, en el sentido de que el sistema explora todos sus
estados. Willy Fischler y yo propusimos que en esta situación tenderías de nuevo a maximizar la entropía. llamó a esto Black
Crunch y sugirió que la ecuación de estado de la materia tendería nuevamente hacia p = ρ. Parece tonto imaginar que, incluso
si a esto le sigue una re-expansión, que uno comenzaría esa expansión con un estado inicial de baja entropía, o que uno
tuviera algún control sobre el estado inicial ”(Comunicación privada, 12 de octubre , 2007).
36. Observamos que Xin Zhang tiene su propio modelo cíclico competitivo, en el que admite que las fluctuaciones térmicas
plantean un problema grave para las cosmologías de rebote fantasma (Zhang, Zhang y Liu 2007): “Es de destacar que el
universo cíclico discutido en este artículo es un caso ideal, y todavía existen varios obstáculos severos en la cosmología
cíclica, como el crecimiento de la fluctuación de la densidad en la fase de contracción, la formación de agujeros negros y el
aumento de entropía, que pueden obstruir la realización de una cosmología verdaderamente cíclica ”(énfasis agregado ).
37. Alan Guth, discurso ante el Instituto Kavli de Física Teórica, octubre de 2003, Web:
http://online.kitp.ucsb.edu/online/strings_c03/guth/
38. Nesvizhevsky et al (2001), ver http://www.newscientist.com/article.ns?id=dn1801 297, o
http://physicsworld.com/cws/article/news/3525. El experimento se realizó rebotando neutrones superfríos y notando que
se cuantificó la altura del rebote.
39. ¿O es Scientific American quien ha insertado la interpretación realista?
40. “El supuesto escenario 'pre-big bang' descrito en este informe debe verse en la perspectiva anterior como un posible
ejemplo, incluso como un modelo de juguete de cómo puede verse la cosmología si asumimos que el modelo estándar
buscado de la gravedad y la cosmología se basa en (alguna versión particular de) la teoría de supercuerdas ”(Veneziano y
Gasperini 2002, p. 4).
41. "WDW" se refiere a la ecuación de Wheeler-DeWitt, que es la base de las cosmologías semiclásicas que se discutirán en la
sección IVc.
42. Si el estado "A" es irreal, entonces no tiene lugar ninguna transición, sino más bien un "surgimiento" absoluto del estado
"B". Según esta interpretación, el universo comenzó a existir.
44. Para aclarar, un universo de Milne es un estado especial donde el parámetro de densidad crítica es exactamente igual a cero;
el universo está vacío. Recuerde que el parámetro de densidad crítica determina si una cosmología de Friedmann-Robertson-
Walker tendrá una geometría cerrada, plana o abierta. Está cerrado si <1, plano si = 1 y abierto si> 1. Si la constante
cosmológica es cero, entonces un universo cerrado volverá a colapsar y un universo plano o abierto se expandirá
constantemente.
44. Vaas elabora: “Un problema relacionado se refiere al modelo anterior al Big Bang (Veneziano & Gasperini 2003). Aquí, el
vacío de la cuerda, donde un colapso local en el marco de Einstein (que corresponde a una inflación impulsada por dilatón
en el marco de la cuerda) antes de que ocurra el big bang, es bastante simple, homogéneo, casi vacío y no tiene una flecha
general de tiempo. Pero, matemáticamente, el origen del pre-big bang, o, para ser más precisos, cualquier pre-big bang, ya
que el modelo también implica un escenario multiverso, se remonta a una condición estática y extremadamente simple solo
en el pasado infinito. (principio de trivialidad pasada asintótica). Pero esto también puede interpretarse como un predecesor
local de un big bang y no como una característica que caracteriza al vacío de cuerdas infinitas en su conjunto ”(Vaas 2004,
págs. 18-19).
45. El sitio de Internet del cosmólogo Paul Steinhardt; Sección de preguntas frecuentes para el modelo
Ekpyrotichttp://wwwphy.princeton.edu/~steinh/cyclicFAQS/index.html#eternal
46. Recuerde que la ecuación de estado es negativa (para una presión constante cosmológica = menos densidad) para un modelo
inflacionario típico. Para Ekpyrosis, la singularidad de colisión ocurre en la dimensión de "masa" entre las dos branas; no
dentro de la brana en la que nosotros mismos viviríamos.
47. Rüdiger Vaas ha sugerido que, si bien el ciclo en el modelo Ekpyrotic tuvo un origen, los componentes de la brana en sí
mismos podrían ser eternos en el pasado. Sin embargo, como hemos visto, es necesaria una explicación de cómo llegaron a
su estado inicial no cíclico en un tiempo finito al pasado. Vaas no proporciona uno (Vaas 2004, p. 17).
48. Este es el mismo tipo de caos que Ellis mencionó como un obstáculo para los modelos de contracción infinita en la sección
IIIa y está relacionado con el problema mencionado por Banks para los modelos oscilantes (sección IIIb).
49. Penrose considera que hay 1080 bariones en el universo observable. Luego sugiere que la máxima entropía del universo es
equivalente a un agujero negro con esta masa. Si el destino del universo fuera finalmente colapsar en un "Big Crunch", esta
sería la entropía aportada por estos 1080 bariones. Penrose utiliza la fórmula de Hawking-Bekenstein para la entropía de un
agujero negro, y en unidades naturales (donde constantes de la naturaleza como la velocidad de la luz se establecen en la
unidad), encuentra que esta entropía es aproximadamente 10123. La entropía de nuestro universo en el día actual es mucho
más bajo que esto, en aproximadamente 22 órdenes de magnitud.
50. Tenga en cuenta que los términos singularidad "inicial" y singularidad "final" se refieren a los estados que comienzan y
terminan nuestro ciclo cosmológico actual. Bojowald y col. no se refieren al principio y al final de los tiempos.
51. La entropía está relacionada con el número de posibles configuraciones de un sistema de partículas. El número de
configuraciones es aproximadamente igual al exponencial de la entropía. Dado el tamaño de los números involucrados,
esencialmente no hay diferencia entre ex y 10x. Entonces, Penrose usa la base 10 por conveniencia.
52. Según la NASA, http://map.gsfc.nasa.gov/m_mm/mr_limits.html, sus datos actuales tienden a favorecer la teoría de la
constante cosmológica para la energía oscura en contraposición a la quintaesencia, aunque esta última no se descarta.
53. Barrow y Dabrowski indican que si la energía oscura fuera del tipo que se desintegra en materia y radiación; es decir, si es
impermanente, el ciclo volverá a comenzar después de la descomposición.
54. Observamos que existen otros modelos LQG que presentan pseudo-comienzos de tipo Vaas y nos parecen viables.
55. Uno recuerda, por supuesto, excepciones como los modelos asintóticamente estáticos y la objeción de Linde de que el
comportamiento del todo puede no ser el mismo que sus partes.
56. Suponiendo, por supuesto, que los problemas de las cosmologías cíclicas (acumulación de entropía, física de rebote, etc.)
fueran solucionables.
57. Nótese que en el comentario de Vilenkin (nota), indica que la geometría de su modelo puede entenderse en términos de una
métrica euclidiana inicial (que representaría la región "prohibida" del diagrama de energía (figura 1.20).
58. Las condiciones cuarta y quinta, es decir, la satisfacción de una condición energética genérica y la existencia de una
superficie cerrada y atrapada en nuestro pasado, se cumplen fácilmente.
59. Es decir, a excepción de la energía fantasma de entropía cero.
60. En interés de la economía, no hemos discutido los intentos anteriores de postular un estatus regional e inmanente para el
Big Bang que deja el origen del espacio inicial en cuestión. Parecería que este espacio no puede contraerse, expandirse o
permanecer estático sin violar los criterios antes mencionados (teoremas de singularidad, rebotes caóticos, comienzos
metaestables, etc.). Por tanto, estos modelos resultaron insostenibles.
61. Esto no agota la lista de posibles formulaciones de modelos. Es probable que los diferentes tipos de modelos de mosaico
sean lo próximo que se derrumbe. Tampoco examinamos todos los modelos que existen en el presente (ni podríamos
hacerlo). También está la queja del filósofo James Brian Pitts: "¿Qué derechos poseen las teorías no nacidas?"

Referencias
Aguirre, A. y Gratton, S. (2002), “Inflación eterna en estado estacionario”, en Phys. Rev. D65, 083507,
preimpresión:http://arxiv.org/abs/astro-ph/0111191.
Ashtekar, Abhay, Pawlowski, Tomasz y Singh, Parampreet (2006), "Naturaleza cuántica del Big Bang", en Phys. Rev. D 74,
084003, Preimpresión:http://arxiv.org/abs/gr-qc/0602086v2.
Banks, T. y Fischler, W. (2002), "Black Crunch", http://arxiv.org/abs/hep-th/0212113v1
Barrow, John D. y Tipler, Frank (1986), El principio cosmológico antrópico. Oxford: Clarendon Press.
Barrow, John y Dabrowski, Mariusz (1995), "Oscillating Universes", en Mon. No. R. Astron. Soc. 275, 850–862.
Barrow, John D. (2005), The Infinite Book, Nueva York: Pantheon Books.
Baum, Lauris y Frampton, Paul H. (2006), "Deflation at Turnaround for Oscillatory Cosmology", http://arxiv.org/abs/astro-
ph/0608138.
Baum, Lauris y Frampton, Paul H. (2007), “Cambio en cosmología cíclica”, en Phy. Rev. Lett. 98, 071301, página 1,
preimpresión:http://arxiv.org/abs/hep-th/0610213.
Belinsky, VA, Khalatnikov, IM y Lifshitz, EM (1970), "Enfoque oscilatorio a un punto singular en la cosmología relativista", en Adv.
Phys. 19, 525.
Bojowald, Martin, Date, Ghanashyam y Hossain, Golam Mortuza (2004), “El modelo Bianchi IX en Cosmología cuántica de bucles”,
en Clase. Quant. Grav. 21, 3541, preimpresión:http://arxiv.org/abs/gr-qc/0404039.
Bojowald, Martin (2005), “Preguntas originales”, NATURE Vol 436 18 de agosto de 2005, pág. 920–921.
Borde, A., Guth, A., Vilenkin, A. (2003), “Los espaciotiempos inflacionarios no son pasados completos”, en Physical Review
Letters, vol. 90, pág. 151301, archivo de preimpresión:http://arxiv.org/abs/gr-qc/0110012.
Bousso, Raphael y Freivogel, Ben (2007), "Una paradoja en la descripción global del multiverso", en Journal of High Energy
Physics, Número 06, Preprint: http://arxiv.org/PS_cache/hep-th/pdf/0610/0610132v2.pdf.
Coule, DH (2005), “Modelos cosmológicos cuánticos”, en Class.Quant.Grav. 22 (2005) R125–2308.
preimpresión:http://arxiv.org/abs/gr-qc/0412026v3, pág. 31.
Damour, Thibault y Henneaux, Marc (2000) "El caos en la cosmología de supercuerdas", en Phys. Rev. Lett. 85, 920-923,
preimpresión:http://aps.arxiv.org/abs/hep-th/0003139.
Davies, Paul (1978), "Singularidades del espacio-tiempo en cosmología", en El estudio del tiempo III, ed. JT Fraser (Berlín:
Springer Verlag), págs. 78-9.
Davies, Paul (1983). Dios y la nueva física. Nueva York: Simon & Schuster.
Earman, J. y Mosterin, J. (1999), "Una mirada crítica a la cosmología inflacionaria", en Philosophy of Science, pág. 66.
Eddington, AS (1948), La naturaleza del mundo físico, Nueva York: Macmillan, p. 74.
Einstein, Albert (1917). “Consideraciones cosmológicas sobre la teoría general de la relatividad”, en El principio de la relatividad,
por A. Einstein, et. al., con notas de A. Sommerfeld, trad. W. Perrett y JB Jefferey (rep. Ed .: Nueva York: Dover Publications,
1952), págs. 177–188.
Ellis, GFR; Kirchner, U. y Stoeger, WR (28 de agosto de 2003). “Multiversos y cosmología física”.http: // arXiv: astro-ph /
0305292v3.
Ellis, GFR, Murugan, Jeff y Tsagas, Christos G. (2004), "El Universo Emergente: Una construcción explícita", en Clase. Quant. Grav.
27, 233, preimpresión:http://arxiv.org/abs/gr-qc/0307112.
Ellis, GFR, Maartens, Roy (2004) "El Universo Emergente: Cosmología inflacionaria sin singularidad", Clase. Quant. Grav. 21, 223,
preimpresión:http://arxiv.org/abs/gr-qc/0211082.
Feynman, Richard (1985), QED, La extraña teoría de la luz y la materia. Prensa de la Universidad de Princeton.
Frampton, PH y Takahashi, T. (2003), "El destino de la energía oscura", en Phys. Letón. B557, 135,
preimpresión:http://arxiv.org/abs/astro-ph/0211544.
Frampton, PH y Takahashi, T. (2004), "Bigger Rip with No Dark Energy", en Astropart. Phys. 22, 307,
preimpresión:http://arxiv.org/abs/astro-ph/0405333.
Frampton, Paul (2007a), "Cyclic Universe and Infinite Past", preimpresión:
http://aps.arxiv.org/PS_cache/arxiv/pdf/0705/0705.2730v2.pdf.
Frampton, Paul (2007b), “Comentario sobre '¿Pueden los agujeros negros ser rasgados por un fantasma en cosmología cíclica?'
por X. Zhang ”, preimpresión:http://arxiv.org/PS_cache/arxiv/pdf/0709/0709.1630v1.pdf.
Frege, Gottlob (1968). Los fundamentos de la aritmética: una investigación lógico-matemática sobre el concepto de número.
Trans. JL Austin. 2da rev. ed. Evanston, Ill .: Northwestern University Press.
Friedman, Michael (1973). "Grünbaum sobre la convencionalidad de la geometría". En Espacio, tiempo y geometría, págs. 217–
33. Ed. Patrick Suppes. Biblioteca de síntesis. Dordrecht: D. Reidel.
Friedmann, Alexander (1922), “Über die Krümmung des Raumes”, Zeitschrift für Physik 10 (1922): 377–86; G. Lemaître, “Un
univers homogène de masse constante et de rayon croissant, rendant compte de la vitesse radiale des nébuleuses
extragalactiques”, Annales de la Société scientifique de Bruxelles 47 (1927): 49–59.
Gott III, J. Richard, Gunn, James E., Schramm, David N. y Tinsley, Beatrice M., "Will the Universe Expand Forever?" Scientific
American [marzo de 1976], 65).
Gott III, J. Richard y Li-Xin, Li (1998). "¿Puede el universo crearse a sí mismo?" Revisión física D 58 (2): 023501–1.
Greene, Brian (2004), La tela del cosmos, Editorial: Alfred A. Knopf.
Guth, Alan H. (1981), “Universo inflacionario: una posible solución a los problemas de horizonte y planitud”, en Physical Review
D, Volumen 23, Número 2, 15 de enero.
Hawking, Stephen y Penrose, Roger (1970), "Las singularidades del colapso gravitacional y la cosmología", en Proceedings of the
Royal Society of London, serie A, 314, pág. 529–548.
Hawking, Stephen y Hartle, James (1983), "La función de onda del universo", en Physical Review D, Volumen 28, Número 12, 15
de diciembre, 2960–75.
Hawking, Stephen (1988), Una breve historia del tiempo, Bantam Books, pág. 141.
Hawking, Stephen (1992), "La conjetura de protección cronológica", en Phys. Rev., D46, 603–611.
Hawking, Stephen y Penrose, Roger (1996), La naturaleza del espacio y el tiempo, Princeton University Press.
Hawthorne, Jonathan. 2000. “Efecto anterior y causalidad de Zenón”. Noûs 34: 622–33.
Hiscock, William A. (2000), “Protección de campos cuantificados y cronología”, preimpresión: http://arxiv.org/abs/gr-
qc/0009061v2, pág. 3.
Hubble, Edwin (1929), "Una relación entre la distancia y la velocidad radial entre nebulosas extragalácticas", Actas de la
Academia Nacional de Ciencias 15 (1929): 168–73.
Linde, Andrei (1998), “El universo inflacionario que se reproduce a sí mismo”, pág. 103 de The Magnificent Cosmos, edición
especial de Scientific American, mayo.
Linde, Andrei (2005), “Inflación y cosmología de cuerdas”, J.Phys.Conf.Ser. 24151–160,
preimpresión:http://arxiv.org/PS_cache/hep-th/pdf/0503/0503195v1.pdf.
Naber, Gregory L. (1988), Espacio-tiempo y singularidades: una introducción. Cambridge: Cambridge University Press, 1988,
págs. 126–27.
Nerlich, Graham (1976). La forma del espacio. Cambridge: Cambridge University Press.
Nesvizhevsky et al (2001), “Estados cuánticos de neutrones en el campo gravitacional de la Tierra” Nature 415, pág. 297.
Overbye, Dennis (2006), “Reported 'Dark Energy' de 9 mil millones de años”, en The New York Times (17 de noviembre).
http://www.nytimes.com/2006/11/17/science/space/17dark.html.
Pagels, Heinz (1985), Perfect Symmetry: The Search for the Beginning of Time, Nueva York: Simon & Schuster, pág. 347.
Penrose, Roger (2005), The Road to Reality, Nueva York: Alfred A. Knopf.
Poincaré, Henri (1982). Ciencia e hipótesis. En Los fundamentos de la ciencia, de Henri Poincaré. Repr. ed. Washington, DC:
University Press of America.
Quinn, Phillip L. (1976). "Métricas intrínsecas en colectores espaciales continuos". Filosofía de la ciencia 43: 396–414.
Reichenbach, Hans (1958). La filosofía del espacio y el tiempo. Trans. Maria Reichenbach y John Freund. Nueva York: Dover.
Russell, Bertrand (1937). Los principios de las matemáticas. 2ª ed. Londres: George Allen y Unwin.
Señor, Thomas D. (1993). "Temporalidad Divina y Creación ex nihilo". Fe y filosofía 10: 86–92.
Smith, Quentin (2007). "Argumentos cosmológicos de Kalam a favor del ateísmo". En The Cambridge Companion to Atheism,
págs. 182–98. Ed. M. Martin. Compañeros de Cambridge a la filosofía. Prensa de la Universidad de Cambridge.
Steinhardt, Paul y Turok, Neil (2005). “El modelo cíclico simplificado”, en New Astron.Rev. 49, pág. 43–57,
preimpresión:http://arxiv.org/abs/astro-ph/0404480
Thorne, Kip (1994) Agujeros negros y deformaciones del tiempo, WW Norton & Co., pág. 505–506
Vaas, Rüdiger (2004). “Tiempo antes del tiempo: clasificaciones de universos en la cosmología contemporánea y cómo evitar la
antinomia del comienzo y la eternidad del mundo”. En conocimiento y creencia. Artículos del 26º Simposio Internacional de
Wittgenstein. Löffler, W., Weingartner, P. (eds.): Sociedad austriaca Ludwig Wittgenstein: Kirchberg am Wechsel, págs. 351–
353 preimpresión: <http://arXiv.org/abs/physics/0408111>.
Veneziano, Gabriele (1998), "Una introducción breve / simple a la física / cosmología anterior al Big-Bang", preimpresión:
http://arxiv.org/abs/hep-th/9802057.
Veneziano, Gabriele (2004), “El mito del comienzo de los tiempos”, Mayo Scientific American, pág. 63.
Veneziano Gabriele y Gasperini, Maurizio (2002), “El escenario anterior al Big Bang en cosmología de cuerdas”, Phys. Rep.373, 1,
preimpresión:http://arxiv.org/abs/hep-th/0207130.
Vilenkin, Alexander (1982), "Creación de universos de la nada", en Phys. Letón. B117, 25.
Vilenkin, Alexander (1994), "Aproximaciones a la cosmología cuántica", en Phys. Rev. D 50, 2581-2594,
preimpresión:http://lanl.arxiv.org/abs/gr-qc/9403010v1.
Vilenkin, Alexander (2002), "Cosmología cuántica e inflación eterna", en The Future of Theoretical Physics and Cosmology, actas
de la conferencia en honor al 60 cumpleaños de Stephen Hawking, preimpresión: http://arxiv.org/abs/gr-qc/0204061.
Vilenkin, Alexander (2006), Many Worlds in One, Autor: Alexander Vilenkin, Editor: Hill & Wang.
Wald, Robert M. (1984). Relatividad general, Editorial: The University of Chicago Press, pág. 215-16.
Zhang, Jinfei, Zhang, Xin, Liu, Hongya (2007) "Energía oscura holográfica en un universo cíclico", Autores :. EUR. Phys. J. C 52
(2007) 693–699 Preimpresión:http://arxiv.org/PS_cache/arxiv/pdf/0708/0708.3121v2.pdf.
Zhang, Xin (2007a), "¿Pueden los agujeros negros ser destruidos por fantasmas en cosmología cíclica?"
http://arxiv.org/PS_cache/arxiv/pdf/0708/0708.1408v1.pdf.
Zhang, Xin (2007b), "Comentario sobre" Cambio en cosmología cíclica "por Paul Frampton y Lauris Baum", preimpresión:
http://arxiv.org/abs/0711.0667v1.
2
Por qué la singularidad del Big Bang no ayuda al
argumento cosmológico de Kalām a favor del teísmo

J. Brian Pitts

1. Introducción
El estatus epistémico de la creencia teísta sigue siendo de interés. Dado que el clima intelectual
occidental moderno es escéptico sobre la revelación divina y lo sobrenatural en general, los
teístas parecen estar bien servidos si se dispone de buenos argumentos teístas de la filosofía
natural. Uno de los argumentos teístas más populares, dada la ciencia actual y especialmente el
éxito de la Teoría de la Relatividad General de Einstein (GTR) aplicada a la cosmología, emplea
la singularidad del Big Bang para mostrar que el universo comenzó a existir. Esta estrategia
apologética teísta a menudo procede de manera informal, pero a veces mediante el uso explícito
del argumento cosmológico formal de Kalām. Cualesquiera que sean los detalles, este tipo de
argumento se ha recomendado a no pocos físicos de renombre (como se discute en Jaki [1980])
y otros científicos y filósofos, así como al menos a un Papa, Pius XII (Pius XII [1952]; McMullin
[1981a]). En la década de 1960, Engelbert Schücking anunció que "aunque algunos cosmólogos
podrían todavía proyectar inconscientemente cuadros teológicos en su ciencia, hemos sido
capaces de asustar a la mayoría de los ministros y sacarlos de la cosmología mediante una
sencilla aplicación del cálculo tensorial" (Schücking [1967 ], pág.218). A pesar de Schücking, se
siguen realizando esfuerzos significativos y visibles para apoyar el teísmo a través de la
singularidad del Big Bang. Los respaldos recientes incluyen al experto en genoma humano
Francis Collins (Collins [2007], págs. 64-7) y al nuevo deísta Antony Flew (Flew y Varghese
[2007], págs. 135-8). Evidentemente, algunos otros ateos además de Flew han estado de acuerdo
en que la cosmología del Big Bang apoya el teísmo y, por lo tanto, han dudado de la cosmología
del Big Bang: Engelbert Schücking anunció que "aunque algunos cosmólogos todavía podrían
proyectar inconscientemente cuadros teológicos en su ciencia, hemos sido capaces de asustar a
la mayoría de los ministros y sacarlos de la cosmología mediante una sencilla aplicación del
cálculo tensorial" (Schücking [1967], p. 218). A pesar de Schücking, se siguen realizando
esfuerzos significativos y visibles para apoyar el teísmo a través de la singularidad del Big Bang.
Los respaldos recientes incluyen al experto en genoma humano Francis Collins (Collins [2007],
págs. 64-7) y al nuevo deísta Antony Flew (Flew y Varghese [2007], págs. 135-8). Evidentemente,
algunos otros ateos además de Flew han estado de acuerdo en que la cosmología del Big Bang
apoya el teísmo y, por lo tanto, han dudado de la cosmología del Big Bang: Engelbert Schücking
anunció que "aunque algunos cosmólogos todavía podrían proyectar inconscientemente cuadros
teológicos en su ciencia, hemos sido capaces de asustar a la mayoría de los ministros y sacarlos
de la cosmología mediante una sencilla aplicación del cálculo tensorial" (Schücking [1967], p.
218). A pesar de Schücking, se siguen realizando esfuerzos significativos y visibles para apoyar
el teísmo a través de la singularidad del Big Bang. Los respaldos recientes incluyen al experto en
genoma humano Francis Collins (Collins [2007], págs. 64-7) y al nuevo deísta Antony Flew (Flew
y Varghese [2007], págs. 135-8). Evidentemente, algunos otros ateos además de Flew han estado
de acuerdo en que la cosmología del Big Bang apoya el teísmo, y por eso han dudado de la
cosmología del Big Bang: hemos podido asustar a la mayoría de los ministros y sacarlos de la
cosmología mediante una sencilla aplicación del cálculo tensorial »(Schücking [1967], p. 218). A
pesar de Schücking, se siguen realizando esfuerzos significativos y visibles para apoyar el teísmo
a través de la singularidad del Big Bang. Los respaldos recientes incluyen al experto en genoma
humano Francis Collins (Collins [2007], págs. 64-7) y al nuevo deísta Antony Flew (Flew y
Varghese [2007], págs. 135-8). Evidentemente, algunos otros ateos además de Flew han estado
de acuerdo en que la cosmología del Big Bang apoya el teísmo y, por lo tanto, han dudado de la
cosmología del Big Bang: hemos podido asustar a la mayoría de los ministros y sacarlos de la
cosmología mediante una sencilla aplicación del cálculo tensorial »(Schücking [1967], p. 218). A
pesar de Schücking, se siguen realizando esfuerzos significativos y visibles para apoyar el teísmo
a través de la singularidad del Big Bang. Los respaldos recientes incluyen al experto en genoma
humano Francis Collins (Collins [2007], págs. 64-7) y al nuevo deísta Antony Flew (Flew y
Varghese [2007], págs. 135-8). Evidentemente, algunos otros ateos además de Flew han estado
de acuerdo en que la cosmología del Big Bang apoya el teísmo y, por lo tanto, han dudado de la
cosmología del Big Bang: Los respaldos recientes incluyen al experto en genoma humano Francis
Collins (Collins [2007], págs. 64-7) y al nuevo deísta Antony Flew (Flew y Varghese [2007], págs.
135-8). Evidentemente, algunos otros ateos además de Flew han estado de acuerdo en que la
cosmología del Big Bang apoya el teísmo, y por eso han dudado de la cosmología del Big Bang:
Los respaldos recientes incluyen al experto en genoma humano Francis Collins (Collins [2007],
págs. 64-7) y al nuevo deísta Antony Flew (Flew y Varghese [2007], págs. 135-8). Evidentemente,
algunos otros ateos además de Flew han estado de acuerdo en que la cosmología del Big Bang
apoya el teísmo y, por lo tanto, han dudado de la cosmología del Big Bang:
Quizás el mejor argumento a favor de la tesis de que el Big Bang apoya el teísmo es el evidente
malestar con el que algunos físicos ateos lo saludan. A veces, esto ha dado lugar a ideas
científicas. . . avanzando con una tenacidad que excede tanto su valor intrínseco que sólo se
puede sospechar que la operación de fuerzas psicológicas es mucho más profunda que el
deseo académico habitual de un teórico de apoyar su teoría. (Isham [1997], pág. 378).

Si bien algunos teístas y algunos ateos sostienen que la singularidad apoya al teísmo, tanto los
ateos como los teístas (Drees [1990]; Küng [2007]) también han criticado el argumento. Sin
embargo, los críticos ateos mezclan no pocas veces con sus puntos buenos varios movimientos
inútiles, como negar ex nihilo, nihil fit y, por lo tanto, quizás ceder el terreno racional, introducir
premisas que al apologista teísta le parecen una mendicidad de preguntas, o escribir en un tono
que sugiere que El rechazo de la conclusión teísta juega un papel indebido en la motivación del
rechazo del argumento. Se podrían hacer comentarios comparables sobre algunas críticas
hechas por algunos teístas liberales: su hostilidad a priori hacia la acción divina especial o
detectable en el mundo podría dar la impresión de parcialidad en contra de argumentar desde la
singularidad al teísmo,
A juzgar por la falta de progreso en parte de la literatura, el resultado es un punto muerto
(Craig y Smith [1993]; Redhead [1996]). Quentin Smith, quien ha jugado un papel en la crítica
del argumento de la singularidad a favor del teísmo, tiene una evaluación diferente pero también
negativa de la respuesta general al argumento teísta de la singularidad del Big Bang. Smith
([1992]) sostuvo: 'La respuesta de ateos y agnósticos. . . ha sido comparativamente débil, de
hecho, casi invisible ”.
Por lo tanto, creo que hay espacio para una crítica del argumento de la singularidad del Big
Bang al teísmo que se esfuerza por convencer incluso a los defensores del argumento de la
singularidad del Big Bang, no solo a los indiferentes y a los que ya se oponen. Si un argumento es
malo, es valioso mostrar su maldad incluso a sus proponentes, si es posible. Tal crítica requerirá
una breve discusión de la doctrina de la creación. También implicará algunas concesiones al
apologista teísta del Big Bang que de otro modo podrían parecer demasiado generosas; tales
concesiones harán evidente cuán débiles y poco ambiguas son las premisas utilizadas en la
crítica. El trabajo tendrá un poco del sabor de un artículo de revisión.
La crítica que se presenta aquí también tiene algunos elementos novedosos, que deberían ser
de interés directo para los no teístas y también para los amantes de la cerca. Uno de estos
elementos es una estrategia de reductio ad absurdum que lleva a la conclusión de que la
singularidad del Big Bang implica un Creador divino solo si el colapso gravitacional estelar en un
agujero negro implica un Destructor teísta. Aparte de algunas diferencias que en última instancia
no importan, los escenarios son los mismos. Una segunda novedad es el fortalecimiento de las
preocupaciones por la convencionalidad apelando a teorías de la gravedad distintas de la GTR.
La teoría de la gravedad de Bach-Weyl muestra que una teoría física ni siquiera necesita definir
la longitud de una curva. En las teorías del tensor escalar u otras teorías con múltiples métricas,
la edad puede ser radicalmente ambigua. Por lo tanto, sólo una noción topológica de "comienzo"
en términos de un primer momento está disponible si el argumento de Kalām tiene la intención
de producir una verdad necesaria necesariamente no vacía. Pero un primer momento es fácil de
evitar, como se verá a continuación. También sugeriré que algunas críticas leibnizianas del
argumento del Big Bang al teísmo son menos persuasivas de lo que a menudo se cree.
Debe enfatizarse que el punto en cuestión no es principalmente la solidez del argumento
cosmológico de Kalām, sino más bien su efectividad dialéctica. Un teísta podría pensar que el
argumento de Kalām es sólido y aceptar la crítica hecha aquí, al sostener que la premisa
controvertida clave del argumento de Kalām debe aceptarse no sobre la base de la cosmología
del Big Bang, sino solo sobre la base de la revelación divina. que podría o no tomar la forma de
algún tipo de argumento. Hoy en día, los teístas argumentan cada vez más que la creencia en Dios
puede estar justificada incluso en ausencia de argumentos (Plantinga [2000]), más o menos
porque Dios ha diseñado la mente humana de tal manera que cuando funciona correctamente en
ciertos contextos, crea una creencia en Dios. Tal formación de creencias (indirectamente)
causada por Dios es un proceso adecuadamente confiable para producir conocimiento, no solo
la verdadera creencia por un feliz accidente. Por lo tanto, afirma Plantinga, la creencia teísta bien
podría estar justificada si es cierta; no se puede demostrar que el teísmo no se puede conocer
aparte de demostrar que es falso (Plantinga [2000]). Claramente, esta epistemología reformada
es una forma de externalismo —la visión epistemológica de que la evidencia, garantía o
justificación de una creencia que cuenta como conocimiento no necesita estar disponible para el
conocedor— en contraste con el internalismo dominante en la tradición de Descartes y Locke.
Cualquiera que sea el valor de la epistemología reformada, el significado de su rebelión parcial
contra las medidas anti-entusiastas de Locke (Mavrodes [1989]), o las complejidades del debate
de los epistemólogos sobre el internalismo versus el externalismo, la tarea en este artículo es la
evaluación de un argumento teísta. de tipo osmológico, tanto en el sentido de la «cosmología»
del filósofo como del físico. El debate medieval sobre la doctrina de Aristóteles de la eternidad
del mundo proporciona un precedente muy útil.

2 La doctrina de la creación y su justificación


Históricamente, la doctrina de la creación ha sido básicamente propiedad común entre el
judaísmo, el cristianismo y el islam. Si bien ha habido algunos puntos de vista diferentes sobre la
doctrina, las diferencias tienen poco que ver con las diferencias entre estas religiones. Surgió un
consenso de que, al ritmo del Timeo de Platón, la creación era ex nihilo: Dios trajo (o trae
atemporalmente) todas las demás cosas a la existencia y lo hace sin utilizar materiales
preexistentes. Además, Dios crea el mundo voluntariamente, como resultado de la voluntad más
que como una emanación necesaria involuntaria. Además de la creación inicial ex nihilo 'en el
principio', hay algún tipo de sustento continuo, preservación, creación continua o similar, por la
cual Dios mantiene el mundo en existencia y sin el cual dejaría de existir (Quinn [1993]) .
Dada la creación ex nihilo, una cuestión secundaria es si Dios creó el mundo en el pasado finito
o eternamente. Podemos hablar de "creación en el tiempo" si el universo es finitamente viejo y
tuvo un primer momento de existencia. (Si el universo es finitamente viejo pero no tuvo un
primer momento, entonces no está claro si creación en el tiempo o creación eterna es un término
más apropiado, especialmente debido a las preocupaciones de convencionalidad que se
discutirán más adelante). creación a favor de la creación eterna del universo por parte de Dios.
En la época medieval, esta negación ocurrió con filósofos islámicos no tan ortodoxos como
Avicena y Averroes y con los mismos averroístas aristotélicos de la cristiandad occidental. Esta
visión de la "creación eterna" fue derrotada por la ortodoxia que defendía la creación en el
tiempo. En la cristiandad occidental,
Los defensores de la creación en el tiempo han estado en desacuerdo sobre si la edad finita del
universo podría ser conocida por la razón o solo por la fe (Thijssen [1998]). En respuesta a los
argumentos filosóficos aristotélicos a favor de un universo eterno, tanto Moisés Maimónides
como Tomás de Aquino sostuvieron que tales argumentos no eran concluyentes. Ambos también
sostuvieron que los argumentos filosóficos de sus días a favor de una edad finita no eran
concluyentes. Por lo tanto, el problema quedó resuelto por las Escrituras, que favorecían la edad
finita (Hyman y Walsh [1973]). Buenaventura, por el contrario, consideró que la edad finita del
universo era demostrable filosóficamente. Esta distinción es muy análoga al tema abordado en
este documento. Aquellos que defienden el teísmo desde la singularidad del Big Bang siguen a
Buenaventura en espíritu. Argumentaré que los teístas que afirman la creación en el tiempo
deberían sostener,
Aparte de la controversia aristotélica del siglo XIII sobre la eternidad del mundo, parece haber
poca controversia en los círculos cristianos sobre la creación en el tiempo hasta que surgió la
teología moderna. Como escribe Langdon Gilkey, '[hasta] n el siglo XIX, casi todos los pensadores
cristianos aceptaron esta doble implicación [que involucra un origen temporal y una
dependencia metafísica] de la doctrina de la creación: Dios hace mucho tiempo trajo el mundo a
la existencia de la nada. en un primer momento de la serie temporal. A todos les pareció el
mensaje claro del primer versículo del Génesis ”(Gilkey [1959], p. 311). En la teología moderna,
Friedrich Schleiermacher minimizó la creación inicial por no ser necesaria por su principio
controlador del sentimiento de dependencia absoluta (Russell [1996b]). Es más, tomó la doctrina
del evento de creación inicial para depender del relato de la creación del Génesis, que tomó como
el producto de un tiempo mitológico (Copán y Craig [2004], págs. 150, 151). Un buen número de
eruditos modernos se han sentido libres de descartar o tomar a la ligera el evento de creación
inicial, por lo que la creación eterna ahora se considera atractiva en algunos círculos (Gilkey
[1959]; Polkinghorne [1994]; Russell [1996a]; Helm [1997]) . Según John Polkinghorne, «[la]
heología se ocupa del origen ontológico y no del comienzo temporal. La idea de la creación no
tiene un interés especial en un comienzo datable del universo ”(Polkinghorne [1994]). Paul Helm
está de acuerdo (Helm [1997]). Por otro lado, Phil Quinn ofrece un relato en el que la creación
implica un primer momento; así, si un objeto no tiene un primer momento, Dios no lo crea,
aunque lo conserva en existencia (Quinn [1993]). También ha surgido la pregunta de si Génesis
1: 1 realmente afirma un comienzo o no, pero la interpretación tradicional todavía tiene
defensores (Copan y Craig [2004]). No hace falta decir que la interpretación de un texto es una
cuestión distinta de la exactitud de sus afirmaciones.
Si se crea un universo, ¿es eterno, finitamente viejo pero sin un primer momento, o finitamente
viejo con un primer momento? Presumiblemente, el tiempo es isomorfo a los números reales, los
enteros o un subconjunto conectado (que no tiene huecos en el medio, por así decirlo) de
ninguno de los dos. El hecho de que el universo tenga un primer momento implica que sea
finitamente antiguo (a menos que se introduzca un punto en el infinito, que parece puramente
formal), pero la implicación inversa podría fallar. Si el tiempo es continuo, entonces que el
mundo sea finitamente viejo no implica que tenga un primer momento. Al menos prima facie,
parece que un universo con un primer momento es el tipo que más confirma el teísmo (McMullin
[1981b]), mientras que un universo eterno es el menos útil. Con respecto a los dos casos
extremos, Aquino sostuvo algo en este sentido, como Ernan McMullin discute (McMullin [1981a],
p. 39):

Si el universo comenzara en un momento determinado, ¿esto respaldaría más la afirmación


de que se necesita un Creador que si el universo siempre existiera? Aquino argumentó que
en cierto sentido lo haría, aunque insistió en que un universo que siempre había existido
necesitaría igualmente un Creador para sustentarlo. Pero la creación en el tiempo y no desde
la eternidad hace que la obra del poder de Dios sea más evidente, dice Tomás de Aquino,
porque un agente muestra más poder al actuar, más alejado del acto está la potencia sobre la
que actúa. Y en la creación en el tiempo no hay potencia de ningún tipo sobre la que trabajar.
Esto en sí mismo muestra inmediatamente la infinidad de poder requerido para convocar a
un universo a actuar.

Parece que un primer momento transmite tres ventajas de una doctrina de la creación sobre la
mera edad finita.
Primero, es más obvio que un universo finitamente viejo con un primer momento requiere una
causa externa que un universo finitamente viejo en el que cada momento está precedido por uno
anterior. En el último caso, uno podría tener la tentación de pensar que el presente se explica
completamente por el pasado dentro de la historia del universo, por lo que no se requiere nada
externo (Grünbaum [198 9]; Earman [1995]; Smith [2000]).
En segundo lugar, tener un primer momento es una noción topológica, no métrica, por lo que
escapa a las preocupaciones de convencionalidad (Misner [1969]; Agnese y Wataghin [1971];
McMullin [1981a]; Grünbaum [1989]; Levy-Leblond [1990] ) sobre la remetrización temporal de
un pasado finito a uno infinito. Las preguntas convencionales sobre la importancia de la
diferencia entre lo finito y lo infinito parecen deberse a EA Milne (Kragh [2004], p. 209; McMullin
[1981a]). La convencionalidad se convierte en una preocupación especialmente seria en las
teorías físicas que contienen múltiples métricas. Las teorías del tensor escalar son quizás el lugar
más conocido para la pregunta "¿Qué métrica es la métrica física?" (Magnano y Sokolowski
[1994]; Weinstein [1996]; Kaloper y Olive [1998]; Santiago y Silbergleit [2000]). Si bien esta
pregunta parece no necesitar una respuesta para la mayoría de los propósitos (como los que
involucran solo las ecuaciones de campo), las preguntas sobre singularidades, condiciones de
contorno, energía positiva y cuantificación le dan a esa pregunta un poco más de urgencia
(Kaloper y Olive [1998]; Santiago y Silbergleit [2000]; Faraoni y Nadeau [2007]; Catena et al.
[2007]; Sotiriou et al. [2008]). Las teorías con múltiples métricas pueden tener diferentes tipos
de materia que se acoplan a la gravedad de diferentes maneras; entonces tal vez una métrica
podría producir una edad finita, pero otra edad infinita, en cuyo caso parece no haber respuesta
a la pregunta '¿cuántos años tiene el universo?', incluso si las opciones disponibles son
meramente 'finitas' e 'infinitas' . Resulta que el universo real probablemente no se comporta de
acuerdo con una teoría del tensor escalar, dada la confirmación empírica de los diversos
principios de equivalencia en la gravedad (Will [1993]), que dificultan que las teorías
empíricamente distinguibles de la GTR en campos gravitacionales débiles o moderados sean
empíricamente viables. Pero una doctrina de la creación necesita ser lo suficientemente rica en
modalidades para acomodar la posibilidad de que Dios cree mundos con leyes físicas sin una
estructura métrica única o preferida para autorizar una respuesta de edad 'finita' o 'infinita'.
En tercer lugar, un primer momento, que es topológico en lugar de métrico, está bien definido
incluso en ausencia de una métrica. La gravedad conforme de Bach-Weyl (Fiedler y Schimming
[1980]; Schimming y Schmidt [1990]; Kazanas y Mannheim [1991]; Dzhunushaliev y Schmidt
[2000]), en ausencia de materia o con algunos tipos de materia, emplea sólo la parte conforme ĝ

μν de una métrica, un tensor de densidad con peso (en cuatro dimensiones espacio-
temporales) y determinante -1 (Anderson [1967]). Dada una métrica g μν, se puede obtener su
parte conforme usando

(en cuatro dimensiones espacio-temporales). Al no tener una métrica, la teoría de Bach-Weyl


toma ĝ μν como primitiva y no asigna longitudes a las curvas. 1Si bien las geodésicas similares a
la luz (nulas) están bien definidas en la teoría de Bach-Weyl, su parametrización afín no lo es
(Wald [1984], p. 446), por lo que incluso las geodésicas similares a la luz (nulas) no brindan
ayuda para definir la edad finita . Por el contrario, Copan y Craig simplemente dan por sentada
la existencia, y quizás la singularidad, de la métrica de las curvas temporales al establecer el
argumento de Kalām (Copan y Craig [2004], p. 199) (aquí presentado de manera un poco
diferente de la versión citada a continuación):
Para evaluar la verdad de la premisa [que la serie temporal de eventos físicos pasados no es
sin comienzo], será útil definir algunos términos. . . . Para que todos los eventos que
componen la serie temporal de eventos pasados tengan la misma duración, estipulamos
arbitrariamente algún evento como nuestro estándar. . . . Por "comienzo", uno significa un
primer evento estándar. Por tanto, no es relevante si la serie temporal tuvo un punto de inicio
(un primer instante temporal).

Copan y Craig quizás tomen su argumento de Kalām para expresar una verdad necesaria que se
aplica de manera no vacía a todas las teorías físicas posibles. Sin embargo, su criterio para un
comienzo carece de sentido para la teoría de Bach-Weyl porque "igual duración" no tiene sentido
en esa teoría. El criterio de Copán-Craig podría ser ambiguo para las teorías escalar-tensorial, lo
que también es algo preocupante. Dado que ni la existencia ni la unicidad de una métrica (para
curvas de tipo temporal) se cumplen necesariamente, el movimiento natural es adoptar una
noción de comienzo topológica en lugar de métrica. Por lo tanto, un primer momento es el punto
que debe abordarse. Sin embargo, adoptar un primer momento como criterio para un comienzo
es admitir la derrota, en lo que se refiere a argumentar desde la singularidad al teísmo, porque
los dos movimientos plausibles relativos a la cosmología contemporánea (a saber, tomar el
espacio-tiempo para contener sólo puntos "después" de la singularidad o invocar alguna teoría
quizás actualmente desconocida que resuelve la singularidad, y así permite un pasado infinito)
carece de un primer momento. Dada la contingencia demostrable de la existencia y unicidad de
una métrica, y la relación contingente entre el tensor g μν y las longitudes físicas (que depende
de cómo se acopla la materia a la gravedad (Brown [2005]), no está claro por qué la edad métrica
finita es tan importante incluso para GTR.
Resulta que el Cuarto Concilio de Letrán de 1215 convirtió en una doctrina de fe, al menos para
los católicos romanos, que el mundo tuvo un comienzo temporal, e incluso escapa a la
preocupación convencionalista al postular un primer momento (McMullin [1981a], págs. 29, 54,
55) (véase Grant [1994], pág. 83; Leith [1982], pág. 57). La definición del concilio aparentemente
es de carácter topológico más que métrico, por lo que su inteligibilidad resiste los avances
matemáticos de los últimos 700 a 800 años. Independientemente de lo que se haga de la
relevancia contemporánea de los cánones del Cuarto Concilio de Letrán como liberación de la fe,
solo los católicos romanos tradicionales se sentirán obligados a aceptar las enseñanzas del
concilio, mientras que su estipulación de que los ángeles fueron creados en el mismo momento
(Leith [1982 ], pag.
Como observan McMullin y Aquino, la creación en el tiempo tiene algunas ventajas teológicas
sobre la creación eterna, incluso aparte de la adhesión a la parte relevante del relato del Génesis.
Por otro lado, la epistemología de la creación, al menos para el autor de la carta a los Hebreos en
el Nuevo Testamento, podría favorecer a Aquino más que a Buenaventura. Un pasaje clave es
Hebreos 11: 3: 'Por la fe entendemos que el universo fue creado por la palabra de Dios, de modo
que lo que se ve no fue hecho de cosas visibles' (ESV). A la luz de este pasaje (similar en otras
traducciones, aunque no en la RSV), quizás los cristianos deberían esperar que las
demostraciones filosóficas o científicas de la creación fracasen con el tiempo. En cualquier caso,
las demostraciones actuales de la singularidad del Big Bang fracasan.

3 Cardinalidad y tamaños del infinito


Serán útiles unos breves comentarios sobre los argumentos a priori de Craig y Copan a favor de
un pasado finito. En cuanto a la supuesta imposibilidad de atravesar un infinito real (Craig
[1979]; Copan y Craig [2004]), uno podría objetar el tratamiento del infinito (Morriston [2003];
Redhead [1996]). En cuanto a la posibilidad de la existencia de un infinito real, no hay un absurdo
evidente en el Hotel de Hilbert, que tiene tantas habitaciones como números enteros positivos.
También es difícil considerar omnipotente a un Dios que no pudo crear el hotel de Hilbert. Si la
ocurrencia de un comienzo del tiempo pudiera conocerse a priori, entonces los argumentos de
la cosmología física serían en gran medida redundantes. Por el bien del argumento (y también
por otras razones), asumo que un pasado infinito es metafísicamente posible.
Parece que las objeciones de Craig a la posibilidad de infinitos reales, como el Hotel de Hilbert,
se deben en gran parte a la afirmación generalizada de que el concepto de tamaño está
plenamente capturado por la noción de cardinalidad. Pero uno bien podría aceptar la posibilidad
de infinitos reales, como el Hotel de Hilbert, mientras se duda de que la cardinalidad agote la
noción de igualdad de tamaño o conteo. De hecho, la física contemporánea niega implícitamente
que la cardinalidad agote la noción de igualdad de tamaño o contar para conjuntos infinitos: los
físicos cuentan rutinariamente el número de grados de libertad en una teoría de campo como
dos en cada punto espacial (escrito como 2∞3 en tres dimensiones espaciales ), o tres en cada
punto espacial (escrito como 3∞3), o similares (Sundermeyer [1982]; Henneaux y Teitelboim
[1992]). Mientras que la teoría electromagnética de Maxwell tiene 2-3 grados de libertad, el
electromagnetismo de Proca con fotones masivos (para tomar prestada una frase cuántica), una
teoría (o familia de las mismas) digna de consideración en las discusiones sobre la
subdeterminación y la equivalencia empírica, tiene 3-3 grados de libertad. . Los físicos nunca se
sienten obligados a realizar, o incluso entretener, manipulaciones cantorianas como 2∞3 = ∞,
3∞3 = ∞, y por lo tanto 2∞3 = 3∞3, de modo que las teorías de Maxwell y Proca tienen el mismo
número de grados de libertad. Tales manipulaciones reducirían algunos razonamientos
importantes en la teoría de campo y las dinámicas restringidas a un sinsentido. La lección parece
ser que las teorías físicas implican propiedades de continuidad de conjuntos de los que se abstrae
la cardinalidad, y que, no obstante, parece razonable llamar a los resultados "contar".
Evidentemente, La cardinalidad no agota las nociones útiles de "mismo tamaño" o de contar en
todos los contextos. Un punto relacionado pertenece a las matemáticas del análisis de Fourier de
funciones arbitrarias en términos de funciones sinusoidales: para intervalos finitos de la línea
real, se pueden representar funciones usando una serie de Fourier con infinitos coeficientes
numerables, mientras que para toda la línea real uno representa funciones utilizando una
integral de Fourier con incontables coeficientes (Jackson [1975]), aunque el intervalo finito y
toda la línea real tienen la misma cardinalidad. Obviamente, estas partes importantes de las
matemáticas aplicadas no tienen una conexión directa con la cardinalidad. Parece
desaconsejable, entonces, decir que la cardinalidad es simplemente la noción de tamaño o contar
para conjuntos infinitos (aunque su utilidad técnica en algunos contextos es innegable). Por lo
tanto, quizás uno pueda simpatizar con algunas de las motivaciones matemáticas de Craig para
objeciones a priori a colecciones realmente infinitas. Sin embargo, no resulta ningún buen
argumento en contra de sus posibilidades.

4 Cosmología y creación modernas


La cosmología física moderna es un marco bastante eficaz para unificar y explicar una amplia
variedad de observaciones astronómicas en un marco proporcionado por leyes físicas bien
confirmadas que se mantienen aquí y ahora. En términos generales, se supone una métrica de
espacio-tiempo de Robertson-Walker que satisface las ecuaciones del campo gravitacional de
Einstein (Wald [1984]). Esta métrica es espacialmente homogénea e isotrópica, lo que significa
que todos los puntos del espacio son iguales en un momento dado, y también lo son todas las
direcciones. Claramente se trata de una idealización. Los datos del presente, especialmente el
hecho de que los desplazamientos al rojo de los objetos luminosos son mayores para los objetos
más distantes, indican que el universo se está expandiendo (redescripción módulo convencional,
que podría permitir la representación de todos los objetos en contracción). La dinámica de GTR,
con tipos estándar de materia, permítanos extrapolar de nuevo a una fase densa caliente
anterior, durante el cual se produjeron plausiblemente las abundancias cósmicas observadas de
elementos ligeros. Durante la fase densa caliente, el contenido material del universo sería
radiación o materia que se aproxima mucho a la radiación en su ecuación de estado que relaciona
la presión y la densidad. Dada la forma del tensor tensión-energía-momento para la radiación,
GTR predice (o retrodicta) que el universo se expandiría aproximadamente como ,
donde a es el factor de escala yt mide el tiempo físico propio, el 0 corresponde matemáticamente
a la singularidad del Big Bang. Este comportamiento es exacto para el caso espacialmente plano
(idealizado), y se mantiene como una aproximación cada vez más buena cuando t → 0 en los
casos curvados espacialmente positiva o negativamente (Wald [1984], p. 98).
Un problema teórico que se ha descuidado con frecuencia es el 'problema de promediar', la
necesidad de promediar las ecuaciones de Einstein sobre distancias cósmicas para encontrar
ecuaciones para los parámetros cósmicos (Ellis [1984]; Zalaletdinov [1992]; Buchert y Carfora
[2002] ; Coley y Pelavas [2006]). El procedimiento análogo para el electromagnetismo en un
medio es bien conocido y comparativamente simple debido a la linealidad de las ecuaciones de
Maxwell (Jackson [1975]; Mars y Zalaletdinov [1997]). Para las ecuaciones de Einstein, la
dinámica del promedio tiene una relación complicada con el promedio de la dinámica, por así
decirlo, debido a las no linealidades. Experimentalmente, desde finales de la década de 1990
parece que la expansión cósmica se está acelerando. Sin embargo, algunos sostienen que prestar
atención al problema del promedio podría ayudar a resolver el aparente fenómeno de la
expansión acelerada, para el cual se ha postulado la "energía oscura" (Buchert [2008]) como una
explicación o al menos como un nombre. También se ha argumentado que parte de la capacidad
de persuasión de la aceleración de la expansión cósmica es un artefacto de elecciones
convencionales de variables estadísticas (Cattoen y Visser [inédito]), o que una falla más
profunda de homogeneidad podría requerir consideración (Ellis [2008]). ). Poco se ocupa de
estos temas para mis propósitos, porque el uso de la versión más actual de la cosmología del Big
Bang con expansión acelerada no fortalece el argumento de la singularidad del Big Bang para la
creación y el tiempo, y por lo tanto el teísmo. Lo mismo podría decirse de la inflación, que John
Earman y Jesus Mosterin han examinado críticamente (Earman y Mosterin [1999]). Ignoraré
libremente estos desarrollos más recientes a favor de la vieja y candente cosmología del Big
Bang.
Dada la expansión cósmica observada, la extrapolación matemática aún más en el pasado, un
movimiento audaz que podría tener poca justificación, dependiendo de qué tan lejos se
extrapola, implica que la métrica del espacio-tiempo era singular hace aproximadamente
14.000.000.000 de años: había un estado de infinito curvatura y densidad, a través de las cuales
las ecuaciones de Einstein no permiten más retrodicciones. Debe enfatizarse que la
extrapolación en pequeños períodos de tiempo cerca de t = 0 corresponde a la extrapolación a
través de un rango extraordinario de energías, en reinos mucho más allá del alcance de los
experimentos con aceleradores de partículas. Contrariamente a algunas esperanzas anteriores
(Earman [1995], p. 205) todavía presentes en la década de 1960, los teoremas relativistas
generales de singularidad muestran que el comportamiento singular es genérico, no es un
artefacto de la alta simetría asumida en modelos homogéneos isotrópicos o esféricamente
simétricos como lo es en la gravedad newtoniana (Wald [1984]). Si se asume la homogeneidad
(como suele ser, al menos para los modelos prototípicos como Robertson-Walker), entonces la
singularidad se da en todas partes a lo largo de todo el espacio, por lo que ha parecido natural
hablar de un origen del espacio (o espacio-tiempo). en la singularidad. Sin embargo, la
homogeneidad en escalas más allá del horizonte es una suposición o convención (Bondi [1947];
Layzer [1954]; McCrea [1955]; Callan et al. [1965]; Klein [1971]; Feynman et al. [1995]; Smoller
y Temple [2003]; Adler et al. [Inédito]), no es un hecho empírico. De hecho, incluso la topología
global del espacio-tiempo está sujeta a preocupaciones con respecto a la convencionalidad
(Glymour [1973]; Malament [1977]). Empíricamente, no tenemos acceso (directo) a regiones
más distantes que algunos miles de millones de años luz (al menos aparte de la mecánica
cuántica), debido a restricciones de causalidad relativista. Como resultado, las afirmaciones de
que la homogeneidad se mantiene, digamos, un billón de años luz, o 1030 años luz, no están bien
fundamentadas desde el punto de vista de la observación (Earman [1995], p. 125; McCabe
[2004]). (Por supuesto, la cosmología inflacionaria podría complicar las cosas). Hago hincapié en
la naturaleza espacialmente local más que global del conocimiento cosmológico actual y, por
tanto, de la singularidad, en anticipación a discutir la analogía entre la cosmología del Big Bang
y la inversión temporal del colapso gravitacional estelar. Si uno desea pensar que la cosmología
del Big Bang involucra, digamos, una bola de materia en expansión suficientemente vasta
rodeada de espacio vacío, los datos que respaldan la cosmología candente del Big Bang no
suponen ningún obstáculo; por supuesto, la métrica de Robertson-Walker no se aplicará en la
región de vacío exterior. Un poco de perspectiva histórica es útil aquí. Aunque hubo excepciones,
'[e] n el debate ideológico de finales del siglo XIX, el finitismo (la visión de que el mundo es finito
en el tiempo y el espacio) se asoció generalmente con el conservadurismo y la fe cristiana,
mientras que los socialistas y materialistas se adhirieron a la doctrina de un universo infinito y
eterno ”(Kragh [2004], p. 57). No es difícil ver cómo el finitismo podría servir a las visiones del
mundo teleológico al reducir los recursos probabilísticos para los procesos evolutivos no
guiados, o cómo su negación podría servir a las visiones del mundo no teleológicas, pero los
experimentos no han resuelto el problema y tal vez no puedan. la métrica de Robertson-Walker
no se aplicará en la región de vacío exterior. Un poco de perspectiva histórica es útil aquí. Aunque
hubo excepciones, '[e] n el debate ideológico de finales del siglo XIX, el finitismo (la visión de que
el mundo es finito en el tiempo y el espacio) se asoció generalmente con el conservadurismo y la
fe cristiana, mientras que los socialistas y materialistas se adhirieron a la doctrina de un universo
infinito y eterno ”(Kragh [2004], p. 57). No es difícil ver cómo el finitismo podría servir a las
cosmovisiones teleológicas al reducir los recursos probabilísticos para los procesos evolutivos
no guiados, o cómo su negación podría servir a las cosmovisiones no teleológicas, pero los
experimentos no han resuelto el problema y tal vez no puedan. la métrica de Robertson-Walker
no se aplicará en la región de vacío exterior. Un poco de perspectiva histórica es útil aquí. Aunque
hubo excepciones, '[e] n el debate ideológico de finales del siglo XIX, el finitismo (la visión de que
el mundo es finito en tiempo y espacio) se asoció generalmente con el conservadurismo y la fe
cristiana, mientras que los socialistas y materialistas se adhirieron a la doctrina de un universo
infinito y eterno ”(Kragh [2004], p. 57). No es difícil ver cómo el finitismo podría servir a las
visiones del mundo teleológico al reducir los recursos probabilísticos para los procesos
evolutivos no guiados, o cómo su negación podría servir a las visiones del mundo no teleológicas,
pero los experimentos no han resuelto el problema y tal vez no puedan. '[e] n el debate ideológico
de finales del siglo XIX, el finitismo (la visión de que el mundo es finito en el tiempo y el espacio)
se asoció generalmente con el conservadurismo y la fe cristiana, mientras que los socialistas y
materialistas se adhirieron a la doctrina de un infinito y eterno universo »(Kragh [2004], pág.
57). No es difícil ver cómo el finitismo podría servir a las visiones del mundo teleológico al
reducir los recursos probabilísticos para los procesos evolutivos no guiados, o cómo su negación
podría servir a las visiones del mundo no teleológicas, pero los experimentos no han resuelto el
problema y tal vez no puedan. '[e] n el debate ideológico de finales del siglo XIX, el finitismo (la
visión de que el mundo es finito en el tiempo y el espacio) se asoció generalmente con el
conservadurismo y la fe cristiana, mientras que los socialistas y materialistas se adhirieron a la
doctrina de un infinito y eterno universo »(Kragh [2004], pág. 57). No es difícil ver cómo el
finitismo podría servir a las cosmovisiones teleológicas al reducir los recursos probabilísticos
para los procesos evolutivos no guiados, o cómo su negación podría servir a las cosmovisiones
no teleológicas, pero los experimentos no han resuelto el problema y tal vez no puedan. pag. 57).
No es difícil ver cómo el finitismo podría servir a las cosmovisiones teleológicas al reducir los
recursos probabilísticos para los procesos evolutivos no guiados, o cómo su negación podría
servir a las cosmovisiones no teleológicas, pero los experimentos no han resuelto el problema y
tal vez no puedan. pag. 57). No es difícil ver cómo el finitismo podría servir a las cosmovisiones
teleológicas al reducir los recursos probabilísticos para los procesos evolutivos no guiados, o
cómo su negación podría servir a las cosmovisiones no teleológicas, pero los experimentos no
han resuelto el problema y tal vez no puedan.
El "dónde" en la métrica del espacio-tiempo se encuentra la singularidad del Big Bang merece
algún comentario. Al invertir una relación anterior, se puede descomponer la métrica del
espacio-tiempo en un factor conforme ĝμν y un factor del determinante de la métrica, que
determina los volúmenes.
Dado que la cosmología del Big Bang se pasa por alto como que involucra la expansión del
universo, y que esta expansión es isotrópica, se podría pensar que el tensor métrico g μν se
vuelve singular en la parte que determina los volúmenes, el determinante g = def det (g μν) . Sin
embargo, ese no puede ser el caso, porque se puede lograr g = −1 en algú n vecindario sobre
cualquier punto dado, un hecho bien conocido que recientemente se vio que tiene profundas
consecuencias para analizar la 'covarianza general' que supuestamente caracteriza la innovación
conceptual. de GTR (Pitts [2006]; Giulini [2007]). La singularidad del Big Bang no puede ser una
propiedad de ĝ μν, porque ĝμν es lo mismo que en el espacio-tiempo plano de Minkowski de la
Relatividad Especial, debido a la planitud conforme de las métricas de Robertson-Walker (Infeld
y Schild [1945]; Tauber [1967]). Por la misma razón,2 De ello se deduce que la singularidad del
Big Bang se manifiesta en el mal comportamiento de la relación entre ĝμν y g, que también se
manifiesta en el tensor de curvatura de Ricci (o equivalentemente, el de Einstein).
Si bien varias personas señaladas anteriormente han considerado la singularidad del Big Bang
como una potente evidencia de la creación en el tiempo y, por ende, del teísmo, quizás las
defensas sostenidas más visibles provienen de Craig (Craig [1979]; Craig y Smith [1993]; Copan
y Craig [2004]) y del astrofísico-apologista Hugh Ross (Ross [1991], [2001]). Si bien los trabajos
de Ross generalmente no están dirigidos a la academia, reciben el respaldo de algunos físicos y
astrónomos de renombre como Donald Page y Allan Sandage, citan generosamente artículos
técnicos y tienen cierta influencia semi-popular. Como plantea Ross,

[e] n las palabras de Hawking, el tiempo mismo debe tener un comienzo. [nota al pie omitida]
La prueba del comienzo de los tiempos puede ser el teorema teológicamente más significativo
de todos los tiempos, asumiendo la validez de la teoría general de la relatividad (Ross [2001],
p. 102).

Sin embargo, la condicionalización de GTR pronto desaparece con un respaldo rotundo de esa
teoría:
Hoy se puede decir que ninguna teoría de la física se ha probado jamás en tantos contextos
diferentes y tan rigurosamente como la relatividad general. El hecho de que la relatividad
general haya resistido todas estas pruebas tan notablemente implica que no queda ninguna
base para dudar de las conclusiones del teorema del espacio-tiempo (Ross [2001], p. 107).

Por el contrario, William Lane Craig argumenta con más cuidado y concluye de manera más
modesta. Craig formula el argumento cosmológico de Kalām a lo largo de estas líneas.

(1) Todo lo que comienza a existir tiene una causa de su existencia.


(2) El universo comenzó a existir.
(3) Por lo tanto, el universo tiene una causa de su existencia (Craig [1979], p. 63).

Este argumento es válido, al menos si no es problemático tratar el universo como una cosa, en
lugar de una colección de cosas; Supongo que aquí no hay ningún problema. La primera premisa
parece cierta (aparte de las preocupaciones sobre las partículas virtuales en la teoría cuántica de
campos, quizás), al menos en algunas lecturas de 'comienzo', incluida la que expuse
anteriormente, a saber, un primer momento, aunque ese no es el de Craig. leyendo. La verdad de
la segunda premisa, o más bien, la fuente de justificación de la segunda premisa, si es cierta, es
la cuestión clave. Muchos teístas afirmarán la segunda premisa y considerarán el argumento de
Kalām como sólido, pero ¿cuál es la razón para afirmar la segunda premisa? Claramente, uno no
persuadirá a los no teístas para que acepten el teísmo (o fortalezcan la fe del teísta con apoyo
científico), como se pretende que haga el argumento, si la justificación de la segunda premisa
proviene enteramente de una ostensible revelación divina. Si uno acepta, digamos, la Biblia como
divinamente inspirada, entonces ya ha aceptado el teísmo y mucho más.

5 ¿Tolerancia o intolerancia hacia las singularidades?


Por lo tanto, surge la pregunta de si tomar en serio la singularidad como una característica del
mundo real o descartarla como un artefacto de comprensión física incompleta. Como se ve todo
el tiempo en los artículos sobre la gravedad cuántica, la mayoría de las personas que trabajan en
la gravedad cuántica dan por sentado que la singularidad del Big Bang es un artefacto de
comprensión física incompleta y esperan o esperan que unir la gravedad con la mecánica
cuántica en algún tipo de gravedad cuántica resolverá la singularidad en una situación bien
definida que admite la extrapolación a tiempos aún anteriores, ad infinitum. Jayant Narlikar ha
desplegado persuasivamente este punto como una crítica del argumento de la singularidad al
teísmo (Narlikar [1992]). Earman, por el contrario, defiende un punto de vista menos
generalizado sobre las singularidades, a saber,
Tolerar las singularidades y tratar de aprender de ellas, como lo hace Earman, es una actitud
que debe recomendarse solo a los excepcionalistas de GTR, aquellos que enfatizan las diferencias
entre GTR y las otras fuerzas sobre las similitudes entre ellos. Si uno piensa que la gravedad, tal
como la describe GTR, es muy similar a otras fuerzas, entonces las singularidades gravitacionales
no son apreciablemente más interesantes que el campo eléctrico singular de una carga puntual,
que simplemente necesita ser resuelto por una mejor teoría, como la electrodinámica cuántica.
Por lo tanto, "el colapso gravitacional completo [en ese caso es u] nimportante o como mucho
periférico" (Misner et al. [1973], p. 437). Pero si la gravedad difiere de manera importante de las
otras fuerzas, se podría concluir que "el colapso gravitacional completo [es fundamental para
comprender la naturaleza de la materia y el universo" (Misner et al. [1973], pág. 437). Entonces,
sin embargo, uno tiene fuertes razones técnicas para dudar de que las singularidades existan
como parte del espacio-tiempo.3Dentro del espacio-tiempo cosmológico de Robertson-Walker
para t> 0 (es decir, siempre), se puede explicar cada momento en términos de uno anterior
(Grünbaum [1989]; Earman [1995]; Smith [2000]). Por lo tanto, no se requiere un comienzo y la
premisa 2 podría ser falsa, por lo que la física puede decir. Aquellos que se esfuerzan por 'tomar
las lecciones de la relatividad en serio', como lo hacen los excepcionalistas de GTR, también
podrían tener motivos para dudar de la imagen evolutiva del espacio que evoluciona a lo largo
del tiempo a favor de una imagen intrínsecamente tetradimensional. Si uno rechaza la demanda
de explicaciones evolutivas como una resaca de la física newtoniana, entonces nuevamente el
espacio-tiempo para t> 0 parece suficientemente autoexplicativo que la singularidad no da razón
para inferir un Creador.
En contraste con el excepcionalismo GTR, uno podría adoptar la opinión, más común entre los
físicos de partículas pero no muy conocida entre los filósofos, que las ecuaciones de Einstein
simplemente describen un campo de espín 2 sin masa que interactúa con sí mismo, de manera
similar a como las ecuaciones de Maxwell describen un campo de espín 1 y el Las ecuaciones de
Yang-Mills describen un conjunto de campos de espín 1 que interactúan entre sí (Fierz y Pauli
[1939]; Rosen [1940]; Papapetrou [1948]; Gupta [1954]; Kraichnan [1955]; Feynman et al.
[1995]; Ogievetsky y Polubarinov [1965]; Weinberg [1965]; Sexl [1967]; Deser [1970];
Weinberg [1972]; van Nieuwenhuizen [1973]; Veltman [1981]; Fang y Fronsdal [1979]; Pitts y
Schieve [2001 ]; Boulanger y Esole [2002]); Las características distintivas de GTR se consideran
consecuencias técnicas incidentales (aunque importantes) de que la gravedad tenga un giro 2 en
lugar de un giro 1.
Parece, entonces, que se sea tolerante o intolerante con las singularidades, resulta que no hay
un primer momento (a menos que se instale a mano), porque cada momento está precedido por
momentos anteriores. Por lo tanto, en el sentido relevante para que el argumento de Kalām sea
válido y tenga sentido para una colección suficientemente amplia de teorías físicas, no hay un
comienzo implícito en la física, por lo que la premisa 2 podría ser falsa, por lo que la física puede
demostrar. Para que la singularidad del Big Bang proporcione un buen argumento teísta, la
singularidad debe comportarse lo suficientemente bien como para ser una parte real e inteligible
del espacio-tiempo, y debe comportarse lo suficientemente mal como para no tener un pasado.
Satisfacer ambas condiciones parece difícil y poco probable que se logre. Además, hay varias
razones, algunas bastante buenas, para no tolerar las singularidades,

6 ¿Leibniz contra un relojero incompetente?


Uno podría pensar que Leibniz ha proporcionado el prototipo para una buena crítica del
argumento de la singularidad a favor del teísmo. En la correspondencia Leibniz-Clarke
(Alexander [1956], págs. 11, 12), Leibniz argumentó en contra de Isaac Newton y Samuel Clarke
que Dios no crearía el universo físico de tal manera que se descompondría y requeriría
reparación con el tiempo. a tiempo. Leibniz consideró que los puntos de vista de Newton tenían
tal consecuencia, por lo que si el mundo es análogo a un reloj, entonces el Dios de Newton es un
relojero incompetente porque se requirió que el Dios de Newton realizara milagros en ocasiones
para restaurar el sistema solar a su funcionamiento. Mientras que uno a veces se encuentra con
argumentos de disteleología biológica, este es un argumento de disteleología física. No es
necesario que nos preocupemos si Newton y Clarke merecían esta crítica. La aceptación de la
analogía de Leibniz entre el mundo físico y un reloj no requería un rechazo de los milagros, ya
que Leibniz aceptaba los milagros de la gracia, mientras rechazaba los milagros postulados para
fijar la naturaleza debido a un mal diseño (Alexander [1956], p. 12). Si el mundo físico es como
un reloj, entonces debería poder funcionar para siempre sin romperse. Pero los teoremas de
singularidad de GTR muestran que no puede "funcionar para siempre sin romperse". (No hay
una analogía obvia con la reparación del reloj.) Así, se podría concluir que los teoremas de
singularidad muestran que GTR demuestra su propia insuficiencia. Debido a que Dios no
construiría el mundo de manera tan incompetente, se deduce que GTR no es la teoría correcta
para describir el colapso gravitacional; la verdadera teoría no daría lugar a singularidades. Pero
GTR es invariante en el tiempo, y la singularidad del Big Bang es simplemente la inversión
temporal de un modelo específico de colapso gravitacional de una estrella, que utiliza una
métrica de Robertson-Walker para el interior estelar (Misner et al. [1973], págs. 846–59). Por lo
tanto, la singularidad del Big Bang se eliminaría junto con las singularidades del colapso
gravitacional, o así podría ser el argumento.
Este tipo de argumento sigue siendo utilizado hoy en día, a menudo sin el teísmo explícito, por
los físicos teóricos. Así Abhay Ashtekar, una de las figuras dominantes en el trabajo
contemporáneo sobre la gravedad cuántica, abrió una revisión reciente del campo con la
siguiente motivación:
Big-Bang y otras singularidades:Se cree ampliamente que la predicción de una singularidad,
como el big-bang de la GTR clásica, es principalmente una señal de que la teoría ha sido
empujada más allá del dominio de su validez. Entonces, una pregunta clave para cualquier
teoría de la gravedad cuántica es: ¿Qué reemplaza al Big Bang? . . . (Ashtekar [inédito]).

Uno puede encontrar sentimientos similares en otros lugares con mucha facilidad entre los
trabajadores de la gravedad cuántica.

Leibniz podría o no tener derecho a su premisa de 'Dios no lo haría de esa manera'. Vivió en
una época todavía cristiana y se tomó a sí mismo para conocer muchas cosas por revelación
divina; muchos físicos contemporáneos no pueden decir lo mismo. Si uno está haciendo teología
natural en lugar de teología revelada, la premisa sobre lo que Dios haría o no haría parece difícil
de justificar. Así, Elliott Sober ha advertido recientemente contra este tipo de afirmación
teológica a priori sobre lo que Dios debería o debería hacer (Sober [2003], [2007]). Mientras que
Stephen Jay Gould parecía pensar que sabía que Dios (si hubiera existido) no habría hecho el
pulgar del panda como está, Sober niega que Gould supiera algo así sobre las disposiciones de la
deidad.
La intuición leibniziana de que el mundo no se derrumbaría después de un tiempo finito tiene
cierto atractivo para los físicos, pero la reflexión sugiere que podría ser difícil para el argumento
conseguir tracción con aquellos que aún no están dispuestos a aceptarlo, excepto quizás para los
racionalistas teístas como como Leibniz. Que esta intuición leibniziana (quizás despojada de su
justificación teísta) de hecho atraiga a los físicos puede reflejar el hecho, discutido en las teorías
de la ciencia por Thomas Kuhn, Imre Lakatos y otros (Laudan et al. [1986]), que el progreso
científico ordinario depende de una cierta fe en que las cosas van por buen camino y que el
progreso es posible; De hecho, las anomalías que podrían servir como pruebas contrarias no
suelen considerarse una amenaza para el paradigma o el núcleo duro del programa de
investigación. sino más bien como oportunidades para mostrar su excelencia, tarde o temprano,
triunfando sobre las dificultades, sin causar alarma mientras tanto. La intuición leibniziana bien
podría conducir a la verdad, pero es difícil argumentar a favor de esa conclusión. Este fenómeno
guarda cierta semejanza con el tipo de estancamiento que puede resultar en el debate entre
realismo científico y antirrealismo (Kukla [1998]). Sin embargo, el tipo de pesimismo intelectual
o empirismo fuerte que rechaza la intuición leibniziana, si se acepta, podría socavar el impulso
explicativo que motiva la aceptación de la premisa 1 del argumento de Kalām. Este fenómeno
guarda cierta semejanza con el tipo de estancamiento que puede resultar en el debate entre
realismo científico y antirrealismo (Kukla [1998]). Sin embargo, el tipo de pesimismo intelectual
o empirismo fuerte que rechaza la intuición leibniziana, si se acepta, podría socavar el impulso
explicativo que motiva la aceptación de la premisa 1 del argumento de Kalām. Este fenómeno
guarda cierta semejanza con el tipo de estancamiento que puede resultar en el debate entre
realismo científico y antirrealismo (Kukla [1998]). Sin embargo, el tipo de pesimismo intelectual
o empirismo fuerte que rechaza la intuición leibniziana, si se acepta, podría socavar el impulso
explicativo que motiva la aceptación de la premisa 1 del argumento de Kalām.

7 ¿Inducción del colapso de teorías anteriores?


La física de hace un siglo proporciona algún material para un argumento inductivo de que la
mecánica cuántica solucionará los problemas de la teoría clásica de la gravedad de Einstein. La
historia de la radiación del cuerpo negro y el desarrollo de la teoría cuántica es complicada (Kuhn
[1978]), más que la vista dada en los libros de texto de física modernos, pero la siguiente
selección debería ser suficiente. Hace un siglo, existían buenos argumentos teóricos clásicos a
favor de la ley de Rayleigh-Jeans para la radiación de cuerpo negro, según la cual la densidad de
energía de la radiación a una frecuencia determinada aumentaba con la frecuencia. (La ley de
Rayleigh-Jeans también fue demostrablemente falsa empíricamente, pero de alguna manera es
un accidente irrelevante para los propósitos actuales. Lakatos ya ha ensalzado las virtudes de la
historia reconstruida racionalmente). Pero tal ley de radiación tiene que estar equivocada,
porque la integración en todas las frecuencias (hasta + ∞) implica que un cuerpo negro irradia
un poder infinito. Los objetos ordinarios, especialmente los negros, se aproximan a los cuerpos
negros, por lo que irradiarían su energía inmediatamente en un destello cegador, contrariamente
a la experiencia. Esta dificultad ha llegado a conocerse como la "catástrofe ultravioleta". La
respuesta de Planck y otros a la amenazante inferencia de la catástrofe ultravioleta, muestra la
historia, ayudó a conducir a la mecánica cuántica. Se introdujeron nuevos fundamentos teóricos
que produjeron un factor de descomposición exponencial para contrarrestar el crecimiento de
la ley de potencia de Rayleigh-Jeans y, por lo tanto, dar una integral convergente hasta una
frecuencia infinita. (El factor de descomposición exponencial precedió a las preocupaciones
generalizadas sobre la catástrofe ultravioleta, pero anteriormente estaba motivado por motivos
más empíricos. ) Desde un punto de vista lógico, la catástrofe ultravioleta fue una reducción ad
absurdum de la física clásica subyacente a la ley de radiación de Rayleigh-Jeans. La solución fue
una nueva física de tipo cuántico, que evitó el catastrófico infinito; no se requirió ningún milagro.
Usando este caso y otros, uno podría argumentar inductivamente que así como la mecánica
cuántica resolvió estos problemas, también resolverá los problemas de singularidad de GTR.
Earman analiza perspicazmente un argumento similar en el sentido de que GTR contiene las
semillas de su propia destrucción (Earman [1996]), citando la invocación de Kip Thorne del
átomo de Rutherford. Sin embargo, como señala Earman, el átomo de Rutherford con
electromagnetismo clásico era empíricamente inadecuado, algo que no se puede decir en la
actualidad de la predicción de colapso gravitacional de GTR. Una teoría que predice desastres
aquí y ahora claramente debe cambiarse, si no se observa un desastre. Sin embargo, GTR se ajusta
bastante bien a los datos. ¿Qué hay de su ruptura matemática final en singularidades? Earman
observa que si GTR se toma al pie de la letra, entonces simplemente no hay una región "más allá"
de la singularidad que la teoría no puede describir. Parecería que el supuesto argumento
inductivo se basa en un criterio metateórico además de la adecuación empírica para determinar
que GTR se rompe, uno que se asemeja mucho a la intuición leibniziana discutida anteriormente.
Por tanto, "[l] a analogía con el átomo de Rutherford no es adecuada" (Earman [1996]). Por tanto,
este argumento inductivo no persuadirá a quienes no estén persuadidos por la intuición
leibniziana. Pero hay razones más convincentes para rechazar el argumento del Big Bang al
teísmo.

8 El colapso estelar implica un destructor teísta


Uno podría preguntarse por qué se debe atribuir un significado teológico a la singularidad del
Big Bang, pero no a otras singularidades físicas. Esta preocupación toma su forma más aguda
cuando se considera la similitud de la cosmología del Big Bang con el tiempo inverso del colapso
gravitacional de una estrella a un agujero negro con una singularidad central. Suponiendo
distribuciones de materia homogéneas, tanto la cosmología del Big Bang como el colapso
gravitacional estelar utilizan la métrica del espacio-tiempo de Robertson-Walker en la región
llena de materia (Misner et al. [1973], págs. 846–59). Si se elige un modelo de Big Bang con una
distribución de materia acotada, como ciertamente se puede hacer (Bondi [1947]; Layzer [1954];
McCrea [1955]; Callan et al. [1965]; Klein [1971]; Feynman et al. [1995]; Smoller y Temple
[2003]; Adler et al. [Inédito]) (aunque normalmente uno no lo hace, en parte por conveniencia),
luego, tanto el Big Bang como el colapso gravitacional tienen un interior de Robertson-Walker
emparejado con un exterior de Schwarzschild. Las principales diferencias son la dirección del
tiempo y la escala de distancias. La escala de distancias no parece importante para los propósitos
actuales. Si el Big Bang indica fuertemente que existe un Dios que creó el universo, los eventos
formalmente similares invertidos en el tiempo, como el colapso gravitacional de las estrellas
para formar agujeros negros con singularidades, implican que existe un Dios que sobrenatural
destruye (aniquila, deja de existir). defender) el interior de las estrellas?
Que Dios es el Destructor de las estrellas colapsadas es una conclusión bastante sorprendente.
Si bien el cristianismo describe a Dios como quien crea, sostiene y redime al mundo, la idea de
que Dios aniquila absolutamente el mundo físico en su totalidad o un poco aquí y allá de vez en
cuando parece ser una novedad o ciertamente una rareza en la teología cristiana. Por supuesto
rocas, edificios y animales mueren de vez en cuando, pero sus restos físicos persisten, que es
precisamente lo que no ocurre en el caso estelar. La ortodoxia ha sostenido en general que
incluso aquellos que 'perecen' en el infierno (presumiblemente los mejores candidatos para
dejar de existir) de hecho persisten para siempre, en cuerpo y alma, aunque en una condición
miserable. Dada la política divina de sostener el universo después de crearlo, para que Dios deje
de sostener, digamos, una estrella que colapsa en un agujero negro, sería un milagro. Aniquilar
un objeto (dejar de mantenerlo en existencia) puede no ser el mismo tipo de milagro que crear
uno ex nihilo, pero es un milagro de todos modos. No me sorprendería mucho menos presenciar
la repentina aniquilación de mi automóvil que ver la repentina aparición ex nihilo de un caballo.
Por lo tanto, cualquier asimetría de tiempo que pueda existir en relación con la causalidad, no
ayuda a evitar la conclusión de que el colapso gravitacional estelar termina en un milagro. El
proponente del argumento del Big Bang, por lo tanto, necesita explicar por qué la terminación
del colapso gravitacional estelar no es un milagro, o por qué tal milagro no es inútil y, por lo
tanto, absurdo. Es algo reconfortante que Dios, en la vista en cuestión, solo aniquilaría regiones
de alta densidad, quizás rodeadas típicamente por un horizonte de eventos. Por lo tanto, hay
muchas advertencias para que podamos evitar estos episodios de aniquilación, y el agricultor
que almacena trigo en un silo no debe temer la aniquilación de su trigo. Pero la rareza teórica
permanece. La distinción teológica entre providencia ordinaria y especial, aunque
probablemente nunca haya estado ausente históricamente (de lo contrario, la distinción entre
milagros y eventos ordinarios carecería de sentido o sería irremediablemente vaga), recibió un
impulso en el siglo XII en Occidente (Grant [1996], págs. , 22) e incluso alcanzó el estatus
confesional (no mera aceptación general) en la Confesión de Fe de Westminster (1646):
Dios, en Su providencia ordinaria, hace uso de los medios, pero es libre de trabajar sin ellos,
por encima y contra ellos, a su gusto (Capítulo 5, Sección 3) (Leith [1982], p. 200).

Dada esta sólida (aunque calificada) afirmación de la integridad general de los procesos
naturales, que probablemente fue compartida fuera de la tradición reformada que produjo los
estándares de Westminster, la afirmación de que Dios aniquila las estrellas colapsadas habría
parecido extraña incluso para los creyentes ortodoxos anteriores a la Ilustración (si podemos
imaginarlos informados sobre la física del siglo XX), para quienes los milagros no eran una
vergüenza. Si GTR fuera la única teoría posible para describir el gobierno divino del mundo en
asuntos gravitacionales, tal vez uno podría llegar a aceptar la conclusión de que Dios destruye
milagrosamente las estrellas colapsadas. Pero dada la subdeterminación de las teorías por los
datos y la consiguiente evitación de esa conclusión, esa inferencia parece ser una reductio ad
absurdum.
9 Apilado de la plataforma para GTR
Hay un movimiento engañosamente persuasivo realizado por los defensores del argumento del
Big Bang, apilando la baraja a favor de GTR y, por lo tanto, de la cosmología del Big Bang contra
rivales no singulares. El movimiento generalmente no se hace de manera explícita y detallada,
por lo que lo que sigue es una reconstrucción del proceso de razonamiento que subyacería a
cualquier buen argumento en las cercanías. A menudo se sugiere que los rivales potencialmente
no singulares de GTR son especulativos, mientras que GTR está bien confirmado, por lo que GTR
y su retrodicción de la singularidad del Big Bang deberían aceptarse como la visión
predeterminada que los retadores deben superar con mejores resultados empíricos. Hay una
pizca de verdad en esta afirmación: Algunas o quizás muchas de las teorías o modelos propuestos
realmente como rivales del Big Bang en la literatura más especulativa no forman parte de una
teoría bien probada que se sabe que reproduce los éxitos empíricos de GTR. Por lo tanto, algunos
de estos retadores podrían ser refutados por los datos que ya se tienen, si alguien piensa en hacer
los cálculos necesarios y aplicar los datos empíricos relevantes a los retadores. Si el conocimiento
físico de la comunidad física (o de sus miembros) se cerrara bajo una vinculación lógica, tales
aspirantes a desafiantes serían refutados incluso antes de la publicación; Por desgracia, la finitud
humana se entromete y, a veces, se necesita mucho trabajo para demostrar si una teoría es
coherente con el conocimiento empírico actual.
Sin embargo, la pizca de verdad en esta objeción a veces oculta la pizca de falsedad que también
contiene. Aunque no es del todo trivial, es posible construir teorías que reproduzcan los éxitos
empíricos de GTR en todos los regímenes probados hasta la fecha, pero que difieren en el
régimen de campo ultrafuerte relevante para la cosmología del Big Bang. Concediendo el éxito
de las pruebas de campo débil y medio de GTR que involucran flexión ligera, desplazamiento al
rojo gravitacional, retardo de tiempo y similares, ¿por qué pensar que GTR, en lugar de uno de
sus competidores (quizás aún no propuesto) que se ajuste a los datos actualmente disponibles,
Cuál es la extrapolación correcta? Por ejemplo, se sabe que las variantes masivas de GTR
(relacionadas con GTR como el electromagnetismo de Proca lo hace con el de Maxwell) están de
acuerdo con GTR solo en esos regímenes, mientras que discrepan en campos gravitacionales
fuertes (Visser [1998]; Babak y Grishchuk [2003]), incluidos los cercanos a la supuesta
singularidad cósmica. Sin embargo, la energía positiva aún no se ha probado y podría ser falsa
para variantes masivas de GTR (Boulware y Deser [1972]; Pitts y Schieve [2007]), por lo que los
apologistas de la singularidad del Big Bang todavía pueden esperar que las teorías masivas sean
viciosas. Los apologistas de (o mejor dicho, de) la singularidad necesitan esperar que una gran
cantidad de teorías epistémicamente posibles sean viciosas, de hecho, una esperanza que muy
probablemente decepcionará eventualmente, si es que aún no lo ha hecho.

10 La gravedad cuántica tiende a resolver singularidades


La necesidad de reconciliar la gravedad y la mecánica cuántica prueba que existe una teoría
consistente de la gravedad que coincide con GTR en algún límite clásico, pero que difiere de ella
en los regímenes en los que los argumentos dimensionales sugieren que los efectos cuánticos
deberían ser grandes. Bien podría haber muchas teorías de este tipo sobre la gravedad cuántica.
Los trabajos de Abhay Ashtekar y colaboradores, como (Ashtekar et al. [2006a], [2006b]), y
Martin Bojowald y colaboradores, como (Bojowald [2001a], [2001b], [2002]; Bojowald y
Hinterleitner [ 2002]; Bojowald y Kagan [2006]), proporcionan una buena evidencia de que la
singularidad del Big Bang no ocurre en la gravedad cuántica de bucles (pero ver Cartin y Khanna
[2005]). La gravedad cuántica de bucle es parte del moderno proyecto de gravedad cuántica
canónica no perturbadora (Pullin [2003]),
Además, es probable que una teoría cuántica de la gravedad difiera considerablemente de GTR
precisamente en el régimen de campo ultrafuerte del universo "temprano" denso y caliente,
donde el argumentador del Big Bang se basa esencialmente en GTR. Así, Robert Wald escribe en
un libro de texto de posgrado estándar sobre GTR: "Por supuesto, en las condiciones extremas
muy cercanas a la singularidad del big bang, uno espera que los efectos cuánticos se vuelvan
importantes y se espera que las predicciones de la GTR clásica se rompan" (Wald [ 1984],
pág.100). En tal contexto, surgen curvaturas comparables al cuadrado inverso de la longitud de
Planck, por lo que los términos cuánticos desatendidos deberían ser grandes y la teoría clásica
se convierte en una mala aproximación. Además del programa moderno de cuantificación
canónica, también se debe vigilar la teoría de cuerdas, ya que tiende a resolver singularidades
(Gasperini y Veneziano [2003]),
Lawrence Sklar preguntó una vez: "¿Tienen derechos las hipótesis no nacidas?" (Sklar [1985]).
Claramente, lo hacen en el contexto actual. Como ha señalado Bas van Fraassen en el contexto de
la crítica de la inferencia a la mejor explicación, “[no] podemos observar ninguna disputa de las
teorías que hemos luchado tan dolorosamente por formular, con aquellas que nadie ha
propuesto. Así que nuestra selección bien puede ser la mejor de una mala racha ”(van Fraassen
[1989], p. 143). P. Ky le Stanford sostiene que el problema de las alternativas no concebidas es
un problema aún más serio para el realismo científico que las preocupaciones más comúnmente
discutidas (Stanford [2006], [2001]). Una vez que se respetan los derechos de las teorías no
nacidas, desaparece el estado predeterminado que supuestamente tiene GTR y, por lo tanto, de
la cosmología del Big Bang, tal como la describe GTR cerca de la singularidad. En el régimen de
campo ultrafuerte del llamado 'universo temprano' denso y caliente (para usar un término que
presupone la singularidad del Big Bang), GTR es solo otra especulación entre muchas. ¿Está uno
verdaderamente racionalmente obligado, o incluso racionalmente alentado, a aceptar una
extrapolación infinita de una curva que se ajusta a los datos en alguna región finita? Seguramente
no. Este es un grave problema de ajuste de curvas. Los defensores sofisticados del realismo
científico ahora admiten que diferentes partes de una teoría científica están respaldadas en
diferentes grados por la confirmación empírica de la teoría (Psillos [1999], capítulos 5, 6). En el
contexto de GTR, se debe reconocer que el éxito de la teoría en campos gravitacionales de
intensidad débil y media proporciona poco apoyo para la precisión de la teoría en campos
gravitacionales fuertes como cerca del Big Bang. Pero no hay razón para restringir a los
competidores de GTR a teorías que alguien en la Tierra ya ha propuesto. El conjunto relevante
de competidores para GTR incluye el conjunto de teorías que concuerdan con GTR en todos los
experimentos hasta la fecha, ya sea que ya se hayan entretenido en la Tierra o no. Este conjunto
podría ser infinito, bien podría ser grande, probablemente contiene varios miembros y es casi
seguro que tenga al menos un miembro, una teoría cuántica de la gravedad. Lo más probable es
que el conjunto tenga al menos un miembro que resuelva las singularidades de GTR. Por lo tanto,
no está del todo claro por qué uno debería tomarse en serio a GTR en el régimen de campo fuerte
cerca de la supuesta singularidad del Big Bang. Ciertamente, Einstein no lo hizo (Earman y
Eisenstaedt [1999]). El conjunto relevante de competidores para GTR incluye el conjunto de
teorías que concuerdan con GTR en todos los experimentos hasta la fecha, ya sea que ya se hayan
entretenido en la Tierra o no. Este conjunto podría ser infinito, bien podría ser grande,
probablemente contiene varios miembros y es casi seguro que tenga al menos un miembro, una
teoría cuántica de la gravedad. Lo más probable es que el conjunto tenga al menos un miembro
que resuelva las singularidades de GTR. Por lo tanto, no está del todo claro por qué uno debería
tomarse en serio a GTR en el régimen de campo fuerte cerca de la supuesta singularidad del Big
Bang. Ciertamente, Einstein no lo hizo (Earman y Eisenstaedt [1999]). El conjunto relevante de
competidores para GTR incluye el conjunto de teorías que concuerdan con GTR en todos los
experimentos hasta la fecha, ya sea que ya se hayan entretenido en la Tierra o no. Este conjunto
podría ser infinito, bien podría ser grande, probablemente contiene varios miembros y es casi
seguro que tenga al menos un miembro, una teoría cuántica de la gravedad. Lo más probable es
que el conjunto tenga al menos un miembro que resuelva las singularidades de GTR. Por lo tanto,
no está del todo claro por qué uno debería tomarse en serio a GTR en el régimen de campo fuerte
cerca de la supuesta singularidad del Big Bang. Ciertamente, Einstein no lo hizo (Earman y
Eisenstaedt [1999]). Lo más probable es que el conjunto tenga al menos un miembro que
resuelva las singularidades de GTR. Por lo tanto, no está del todo claro por qué uno debería
tomarse en serio a GTR en el régimen de campo fuerte cerca de la supuesta singularidad del Big
Bang. Ciertamente, Einstein no lo hizo (Earman y Eisenstaedt [1999]). Lo más probable es que el
conjunto tenga al menos un miembro que resuelva las singularidades de GTR. Por lo tanto, no
está del todo claro por qué uno debería tomarse en serio a GTR en el régimen de campo fuerte
cerca de la supuesta singularidad del Big Bang. Ciertamente, Einstein no lo hizo (Earman y
Eisenstaedt [1999]).

11 personaje vicioso Dios de los huecos


Con respecto al argumento de la singularidad del Big Bang al teísmo, Chris Isham señala 'su obvia
susceptibilidad al síndrome del' Dios de los huecos ', en el que Dios es relegado a llenar los
espacios en blanco de una teoría científica que de otro modo sería completa' (Isham [1997]). ,
pág.378). Asimismo, John Earman advierte que '[l] aquellos que quieran encontrar a Dios en el
Big Bang deben tener cuidado de no caer en la trampa de relegar a Dios a los intersticios
decrecientes que deja la ciencia moderna' (Earman [1995], p. 209). Las preocupaciones típicas
sobre los argumentos apologéticos del `` Dios de los huecos '' implican la afirmación de que existe
una larga historia de apelaciones a la acción divina especial para explicar ciertos fenómenos,
pero más tarde aparecieron explicaciones naturales para tales fenómenos, haciendo que la
apelación a la acción divina especial sea innecesaria e incluso tonto. Haciendo una inducción
sobre esta historia,
Por otro lado, se ha argumentado recientemente que las preocupaciones sobre los argumentos
del "Dios de los huecos" se exageran filosóficamente (Ratzsch [2001]; Snoke [2001]; Larmer
[2002]). Del Ratzsch señala, por ejemplo, que la forma del argumento es válida. Estas
preocupaciones también podrían exagerarse históricamente. ¿Forman parte del mismo complejo
de distorsión que la tesis de Huxley-Draper-White de que el modo característico de interacción
entre ciencia y religión ha sido la guerra (White [1896])? Esta afirmación ha sido refutada por
los historiadores modernos de la ciencia (Lindberg y Numbers [1986]; Brooke [1991]; Olson
[2004]). La tesis de la guerra, una generalización a gran escala, acompaña algunas afirmaciones
específicas que son simplemente falsas, como que los medievales creían en una Tierra plana
(refutado en Russell [1991]; Grant [1994]).
Incluso si se concede que algunos argumentos de lagunas a favor del teísmo podrían no ser
malos argumentos, queda claro que el argumento de la singularidad del Big Bang es un mal
argumento de las brechas con Dios. Eso está claro en la Reductio del Destructor: no hay una
diferencia relevante no convencional entre la singularidad del Big Bang y el colapso gravitacional
estelar, y este último seguramente no tiene significado teológico y probablemente desaparecerá
debido a la mejora de la física. Aquí he asumido una actitud intolerante hacia las singularidades.
Si uno tolera las singularidades, entonces cada momento del modelo del Big Bang (t> 0) está
precedido por momentos anteriores y, nuevamente, no hay necesidad de una explicación
extramundana.

12 Garantía fluctuante o inaccesible


Un problema relacionado con argumentar desde el Big Bang hasta la creación en el tiempo y, por
lo tanto, el teísmo es que tales argumentos dependen de manera crucial de varias premisas
altamente técnicas que la mayoría de la gente ni siquiera puede considerar, y mucho menos
evaluar. De ello se deduce que la gran mayoría de las personas, incluso las educadas,
simplemente no tienen derecho a tener creencias al respecto, además de confiar en el testimonio
de expertos. Pero la mayoría de las personas, incluso las personas más educadas, ni siquiera
pueden identificar de manera confiable a los expertos relevantes. La mayoría de los astrónomos
y físicos no son expertos relevantes, aunque bien podrían escribir libros populares y hacer
declaraciones a los medios sobre estos temas. Suponiendo que uno logre identificar a los
expertos relevantes, el problema sigue siendo que sus opiniones de expertos variarán o deberían
variar con bastante rapidez con los vientos y las olas de la fortuna de la investigación.
Pero, ¿debería la teología de uno verse afectada en gran medida por la validez de la condición
de energía nula promedio o débil asumida para los teoremas de singularidad? Muchas
condiciones energéticas que alguna vez fueron creíbles se han quedado en el camino o están
seriamente amenazadas (Barceló y Visser [2002]). Ahora se sabe que la teoría cuántica de
campos viola las condiciones de energía clásicas locales, como la condición de energía débil,
aunque aparentemente la teoría cuántica de campos todavía satisface ciertas condiciones de
energía promedio: la densidad de energía puede ser negativa aquí y allá, pero no por mucho
tiempo y solo. con mayor compensación de energía positiva cercana (Ford y Roman [2001];
Barceló y Visser [2002]; Ford [2003]). Los campos escalares clásicos no acoplados mínimamente
violan las condiciones de energía, al igual que la gravedad masiva (Visser [1998]). ¿Son
periodistas, sociólogos, amas de casa, y se supone que los conductores de camiones deben
aceptar un argumento cuyas premisas son tan técnicas que no pueden entenderlas, y tan
inestables que podrían resultar falsas en el próximo número de Physical Review D? No está claro
por qué. ¿Debería depender la fuerza de la creencia en Dios de qué factor ordenado para la
restricción hamiltoniana es correcto en la gravedad cuántica? Martin Bojowald escribió
recientemente (Bojowald [2002]):
Debido a los efectos geométricos genuinamente cuánticos, la singularidad clásica está
ausente en esos modelos en el sentido de que la evolución no se rompe allí, al contrario de la
situación clásica donde el tiempo espacial es inextensible. Este efecto es genérico y no
depende de que la materia viole las condiciones de energía, pero sí depende del orden de los
factores de la restricción hamiltoniana.

La mayoría de la gente no tiene idea de lo que eso significa y, por lo tanto, no tiene idea de qué
tipo de plausibilidad asignar un orden de factor particular de la restricción hamiltoniana. Si
algunos de ellos creyeron en Dios debido al argumento de la singularidad del Big Bang, ¿deben
ahora ser capaces de refutar la elección de Bojowald de ordenar los factores para mantener esa
creencia de manera racional? Incluso si el argumento de la singularidad no pudiera refutarse de
manera decisiva, ¿podría establecer el teísmo en un grado significativo para cualquier persona
además de las pocas docenas de personas expertas en el ordenamiento de factores en la gravedad
cuántica? No está claro cómo. ¿Podrían incluso los juicios de los expertos permanecer
racionalmente lo suficientemente estables como para servir bien a la fe religiosa? Probablemente
no. Pero quizás la elección del orden de los factores no sea tan importante después de todo (Date
y Hossain [2005]); continúan las fluctuaciones basadas en premisas técnicas detalladas.4Si el
argumento de la singularidad a favor del teísmo proporciona alguna garantía para el teísmo, esa
garantía fluctúa enormemente para los expertos y no puede ser evaluada por los laicos.
Quizás ni el argumento de la singularidad ni ningún otro argumento sea la base de la fe
religiosa. Craig se aferra a algo parecido a la epistemología reformada (correspondencia privada
y Cowan et al. [2000]). Por lo tanto, el creyente religioso no necesita leer y comprender todos los
artículos relevantes en Physical Review D para mantener la creencia teísta de manera racional.
Quizás esta sea la forma correcta de entender la justificación de la creencia teísta. Pero si el
objetivo de hacer el argumento de la singularidad es proporcionar un argumento que
racionalmente debería persuadir a algunas personas del teísmo, entonces la epistemología
reformada es simplemente irrelevante para la tarea en cuestión. El carácter fluctuante (para los
expertos) o inaccesible (para los no expertos) de tal garantía (si la hubiera) como un argumento
de la singularidad al teísmo puede proporcionar,

13 La cosmología del Big Bang no es especialmente compatible


con la fe
Si la singularidad del Big Bang no proporciona un buen argumento teísta, todavía se podría
considerar si la cosmología del Big Bang es de alguna manera especialmente agradable para el
ojo de la fe. Muchos sostienen que el teísmo se benefició de la victoria de la cosmología del Big
Bang sobre la cosmología del estado estacionario. Según Francis Collins, '[l] as consecuencias de
la teoría del Big Bang para la teología son profundas. Para las tradiciones de fe que describen el
universo como creado por Dios de la nada (ex nihilo), este es un resultado electrizante ”(Collins
[2007], p. 66). Como afirmación sociológico-histórica, sin duda el teísmo se benefició, pero ¿hay
alguna ventaja filosófica real? Earman, señalando que uno puede postular puntos de límite
ideales 'en' singularidades como el Big Bang, nos recuerda que tales puntos de límite son
simplemente
elementos ideales. . . . Nada impide al teísta ver a Dios operando en estos puntos ideales. Pero
dado que los puntos ideales no son puntos del espacio-tiempo, el sentido en el que se puede
decir que Dios causa o provoca el universo al operar en estos puntos está muy alejado de las
nociones causales habituales de la ciencia y la vida cotidiana que se ocupan de las conexiones
entre eventos. en el espacio y el tiempo. Esto no quiere decir que la conversación teísta acerca
de que Dios creó el universo sea ilegítima. Pero es para decir que tal charla no encuentra una
compra especial en el big bang. Incluso en modelos sin Big Bang y con el tiempo
extendiéndose infinitamente hacia el pasado, los puntos ideales correspondientes a t = −∞
podrían unirse a la variedad del espacio-tiempo y la mano amiga de Dios podría verse
trabajando allí (Earman [1995], p. 209; énfasis en el original).

Ni la cosmología del Big Bang ni alguna cosmología del mundo eterno tienen un comienzo en el
sentido relevante de un primer momento. Aquellos que estén dispuestos a insistir en un primer
momento real del (espacio) tiempo, quizás de acuerdo con el Cuarto Concilio de Letrán, tienen la
opción de cortar el borde frontal del modelo espacio-tiempo en alguna parte, ya sea en la
cosmología del Big Bang o en alguna cosmología del mundo eterno, en un ejercicio de
antirrealismo científico selectivo. (Tal borde frontal presumiblemente sería una superficie de
Cauchy, en todas partes similar al espacio, pero tal vez casi nula en algunos lugares si se desea.
Sin embargo, la cuestión de dónde cortar es irritante). Junto con CJS Clarke (Clarke [1993],
págs.8, 9), Earman critica implícitamente tal propuesta:
Las consideraciones metafísicas sugieren que para ser un candidato serio para describir la
actualidad, un espacio-tiempo debería ser máximo. Por ejemplo, que la Fuerza Creativa
actualice una subparte adecuada de un espacio-tiempo mayor parecería ser una violación de
los principios de razón y plenitud suficientes de Leibniz. Si uno adopta la imagen del espacio-
tiempo como generado o construido a medida que pasa el tiempo, entonces la versión
dinámica del principio de razón suficiente preguntaría por qué la Fuerza Creativa dejaría de
construirse si es posible continuar (Earman [1995], p. 32 ).

Por otra parte, el propio Leibniz sostenía (dejando de lado el anacronismo) que el espacio-
tiempo es máximo hacia el futuro, pero no es máximo hacia el pasado (Alexander [1956], p. 76).
Dios pudo haber creado el mundo de tal manera que eventos cualitativamente idénticos a los del
primer momento del mundo real hubieran sido precedidos por eventos anteriores. Pero si tal
aumento es razonable y agradable a la sabiduría de Dios, es otra cuestión a la que respondemos
negativamente; de lo contrario, Dios habría hecho tal aumento ”(Alexander [1956], p. 76).
Leibniz continúa citando a Horace acerca de unir a una cabeza humana el cuello de un caballo,
una analogía encantadora, pero no muy útil filosóficamente. Quizás la eficiencia juega un papel
aquí en la justificación de la no máximaidad hacia el pasado, o quizás la asimetría causal o el flujo
del tiempo es relevante. En todo caso,
Dadas las muchas dificultades involucradas en argumentar desde la cosmología del Big Bang
hasta la creación en el tiempo, es alentador tanto para los teístas como para los no teístas que el
Papa Juan Pablo II haya sugerido precaución en el uso apologético de la cosmología del Big Bang:
. . . algunos teólogos, al menos, deberían estar suficientemente versados en las ciencias para
hacer un uso auténtico y creativo de los recursos que las teorías mejor establecidas puedan
ofrecerles. Tal experiencia les impediría hacer un uso acrítico y apresurado con fines
apologéticos de teorías tan recientes como la del "Big Bang" en cosmología (Juan Pablo II
[1997], págs. M11, M12).

Cabe señalar que las preocupaciones planteadas en este artículo tienen poca relación directa con
la capacidad de persuasión de un argumento teleológico del ajuste fino cósmico (Manson
[2003]).

Expresiones de gratitud
Agradezco a William Lane Craig, Ernan McMullin, Don Howard, Samuel Conner, Scott Hawley,
Jeff Koperski, Alex Skiles, John Keller, Jennifer Jensen, Dilkushi de Alwis Pitts, William Pitts y Jan
Pitts por las discusiones u otra ayuda, y quizás otros. a quien no puedo recordar ni nombrar.
Todas las vistas y los errores restantes son míos. Una versión anterior de este artículo se
presentó en la reunión de la Sociedad de Filósofos Cristianos en la Universidad de Notre Dame
en 2006.

Notas
1. La densidad lagrangiana de la teoría de Bach-Weyl es el cuadrado del tensor de curvatura de Weyl . El tensor de
Weyl en su hábitat natural es un tensor (1, 3) y es concomitante de la densidad métrica conforme sin el determinante g = def
det (gαβ), por lo que en sí mismo es conforme invariante (Anderson [1967]; Wald [1984 ]). (Anderson tiene un error de
imprenta en la p. 84 sobre este mismo punto; debe elevarse un índice del tensor de Weyl, como en , o de lo contrario
el índice debería reducirse con ĝμν (no gμν), dando así un tensor de Weyl densitizado). Por lo tanto, la densidad lagrangiana
es (hasta un factor constante) . La ausencia de g se ha puesto de manifiesto mediante el uso de la densidad del tensor
métrico conforme inverso ĝμν, que tiene un peso de densidad y la forma primordial (1, 3) del tensor de Weyl. Al
igual que el término cinético electromagnético de Maxwell ĝμα ĝνβ Fμν Fαβ, la densidad de Bach-Weyl Lagrangiana es una
densidad escalar de peso 1 (como se requiere para un principio de acción estacionaria invariante de coordenadas), pero no
depende de g, por lo que es evidente que conformemente invariante.
2. Para otras métricas de espacio-tiempo, puede suceder que una singularidad se manifieste en la densidad métrica conforme
ĝμν (Tod y Lübbe [inédito]). El Big Bang habitual simplemente no es un caso así. Así, la singularidad del Big Bang no forma
una barrera infranqueable en la teoría de Bach-Weyl, por ejemplo, porque g está ausente de esa teoría.
3. Uno podría tener otras razones para dudar de que las singularidades existan como parte del espacio-tiempo si se enfatiza la
analogía entre la gravedad y otras fuerzas (Pitts y Schieve [2003]).
4. Habiendo dicho esto, tal vez sea apropiada una breve explicación del problema del orden de los factores (Komar [1979]). En
física clásica, la descripción hamiltoniana implica varios productos de coordenadas q y momentos p. En algunas teorías, cada
término es solo una potencia de q o de p, pero no ambas. Pero, ¿qué pasa si hay un término que involucra potencias tanto de
q como de p, como es cierto en la teoría de la gravedad de Einstein? Entonces, el orden en el que se escriben, como p 2 q 2 o q
2 p 2 o qppq, por ejemplo, aunque no tiene importancia clásica, tiene cierta importancia en la teoría cuántica.

Referencias
Adler, RJ, Bjorken, JD y Overduin, JM [inédito]: 'Finite Cosmology and a CMB Cold Spot', <arxiv.org/abs/gr-qc/0602102>.
Agnese, AG y Wataghin, A. [1971]: 'Factor de escala en modelos cosmológicos homogéneos', Lettere al Nuovo Cimento, 1, págs.
857-60.
Alexander, HG, ed. [1956]: Correspondencia Leibniz-Clarke, Manchester: Manchester University Press.
Anderson, JL [1967]: Principios de la física de la relatividad, Nueva York: Academic Press.
Ashtekar, A. [inédito]: 'Quantum Geometry and Gravity: Recent Advances', <arxiv.org/abs/gr-qc/0112038>. Informe de la charla
plenaria de la 16ª Conferencia Internacional sobre Relatividad General y Gravitación, celebrada en Durban, Sudáfrica, en julio
de 2001.
Ashtekar, A., Pawlowski, T. y Singh, P. [2006a]: 'Naturaleza cuántica del Big Bang: una investigación analítica y numérica',
Physical Review D, 73, págs. 1-33.
Ashtekar, A., Pawlowski, T. y Singh, P. [2006b]: 'Naturaleza cuántica del Big Bang: dinámica mejorada', Physical Review D, 74,
págs. 1–23.
Babak, SV y Grishchuk, LP [2003]: 'Gravedad de rango finito y su papel en ondas gravitacionales, agujeros negros y cosmología',
Revista Internacional de Física Moderna D, 12, págs. 1905–59.
Barceló, C. y Visser, M. [2002]: '¿Crepúsculo para las condiciones energéticas?', Revista Internacional de Física Moderna D, 11,
págs. 1553–60.
Bojowald, M. [2001a]: "Ausencia de singularidad en la cosmología cuántica de bucles", Physical Review Letters, 86, págs. 5227-
30.
Bojowald, M. [2001b]: 'El factor de escala inverso en geometría cuántica isotrópica', Physical Review D, 64, págs. 1-8.
Bojowald, M. [2002]: 'Cosmología cuántica de bucle isotrópico', Gravedad clásica y cuántica, 19, págs. 2717–41.
Bojowald, M. y Hinterleitner, F. [2002]: 'Cosmología cuántica de bucle isotrópico con materia', Physical Review D, 66, págs. 1-9.
Bojowald, M. y Kagan, M. [2006]: 'Singularidades en modelos de campos escalares no mínimos isotrópicos', Gravedad clásica y
cuántica, 23, págs. 4983–90.
Bondi, H. [1947]: 'Modelos esféricamente simétricos en la relatividad general', Avisos mensuales de la Royal Astronomical
Society, 107, págs. 410–25.
Boulanger, N. y Esole, M. [2002]: 'Una nota sobre la singularidad de D = 4, N = 1 Supergravedad', Gravedad clásica y cuántica, 19,
págs. 2107–24.
Boulware, DG y Deser, S. [1972]: "¿Puede la gravitación tener un rango finito?", Physical Review D, 6, págs. 3368-82.
Brooke, JH [1991]: Ciencia y religión: algunas perspectivas históricas, Cambridge: Cambridge University Press.
Brown, HR [2005]: Relatividad física: estructura del espacio-tiempo desde una perspectiva dinámica, Nueva York: Oxford University
Press.
Buchert, T. [2008]: 'Energía oscura de la estructura: un informe de estado', Relatividad general y gravitación, 40, págs. 467–527.
Buchert, T. y Carfora, M. [2002]: 'Promedio regional y escala en cosmología relativista', Gravedad clásica y cuántica, 19, págs.
6109-45.
Callan, C., Dicke, RH y Peebles, PJE [1965]: 'Cosmology and Newtonian Mechanics', American Journal of Physics, 33, págs. 105–8.
Cartin, D. y Khanna, G. [2005]: 'Ausencia de soluciones preclásicas en la cosmología cuántica de Bianchi I Loop', Physical Review
Letters, 94, págs. 1-4.
Catena, R., Pietroni, M. y Scarabello, L. [2007]: 'Marcos de Einstein y Jordan reconciliados: un enfoque de marco invariante a la
cosmología escalar-tensorial', Physical Review D, 76, págs. 1-11.
Cattoen, C. y Visser, M. [inédito]: 'Cosmography: Extracting the Hubble Series from the Supernova Data', <arxiv.org/abs/gr-
qc/0703122>.
Clarke, CJS [1993]: El análisis de las singularidades del espacio-tiempo, Cambridge: Cambridge University Press.
Coley, AA y Pelavas, N. [2006]: "Promedio de espaciotiempos esféricamente simétricos en relatividad general", Physical Review
D, 74, págs. 1-4.
Collins, FS [2007]: El lenguaje de Dios: Un científico presenta evidencia de creencias, Nueva York: Free Press.
Copan, P. y Craig, WL [2004]: Creación de la nada: una exploración bíblica, filosófica y científica, Grand Rapids, MI: Baker Academic.
Cowan, SB, Craig, WL, Habermas, GR, Feinberg, PD, Frame, JM y Clark, KJ [2000]: Cinco opiniones sobre la apologética, Grand
Rapids, MI: Zondervan.
Craig, WL [1979]: The Kalām Cosmological Argument, Nueva York: Barnes and Noble.
Craig, WL y Smith, Q. [1993]: Teísmo, ateísmo y cosmología del Big Bang, Oxford: Clarendon Press.
Date, G. y Hossain, GM [2005]: "Genérico de un gran rebote en la cosmología cuántica de bucle isotrópico", Physical Review
Letters, 94, págs. 1-4.
Deser, S. [1970]: "Auto-Interacción e invariancia de calibre", Relatividad general y gravitación, 1, págs. 9-18.
Drees, WB [1990]: Más allá del Big Bang: Cosmologías cuánticas y Dios, La Salle, IL: Open Court.
Dzhunushaliev, V. y Schmidt, H.-J. [2000]: 'Nuevas soluciones de vacío de la gravedad conformada de Weyl', Journal of
Mathematical Physics, 41, págs. 3007-15.
Earman, J. [1995]: Golpes, crujidos, gemidos y chillidos: singularidades y causalidades en los tiempos espaciales relativistas, Nueva
York: Oxford University Press.
Earman, J. [1996]: 'Tolerancia para las singularidades del espacio-tiempo', Fundamentos de la física, 26, págs. 623–40.
Earman, J. y Eisenstaedt, J. [1999]: 'Einstein and Singularities', Studies in History and Philosophy of Modern Physics, 30, págs.
185-235.
Earman, J. y Mosterin, J. [1999]: 'Una mirada crítica a la cosmología inflacionaria', Filosofía de la ciencia, 66, págs. 1-49.
Ellis, GFR [1984]: 'Cosmología relativista: su naturaleza, objetivos y problemas', en B. Bertotti, F. de Felice y A. Pascolini (eds),
Relatividad general y gravitación: artículos invitados e informes de debate de la X Conferencia Internacional sobre Relatividad
General y Gravitación, Padua, 3 al 8 de julio de 1983, Dordrecht: D. Reidel, págs. 215–88.
Ellis, G. [2008]: 'Patchy Solutions', Nature, 452, págs. 158–61.
Fang, J. y Fronsdal, C. [1979]: 'Deformations of Gauge Groups. Gravitation ', Journal of Mathematical Physics, 20, págs. 2264–
2471.
Faraoni, V. y Nadeau, S. [2007]: '(Pseudo) número del Conformal Frame Revisited', Physical Review D, 75, págs. 1-13.
Feynman, RP, Morinigo, FB, Wagner, WG, Hatfield, B., Preskill, J. y Thorne, KS [1995]: Conferencias Feynman sobre gravitación,
Reading, MA: Addison-Wesley. Original del Instituto de Tecnología de California, 1963.
Fiedler, B. y Schimming, R. [1980]: 'Soluciones exactas de las ecuaciones de campo de Bach de la relatividad general', Informes
sobre física matemática, 17, págs. 15–36.
Fierz, M. y Pauli, W. [1939]: "Sobre ecuaciones de onda relativistas para partículas de giro arbitrario en un campo
electromagnético", Actas de la Royal Society (Londres) A, 173, págs. 211–32.
Flew, A. y Varghese, RA [2007]: Hay un Dios: cómo el ateo más famoso del mundo cambió de opinión, Nueva York: HarperOne.
Ford, LH [2003]: "Los teoremas de la singularidad clásica y sus lagunas cuánticas", Revista Internacional de Física Teórica, 42,
págs. 1219–27.
Ford, LH y Roman, TA [2001]: 'Campos escalares clásicos y la segunda ley generalizada', Physical Review D, 64, págs. 1-12.
Gasperini, M. y Veneziano, G. [2003]: 'The Pre-Big Bang Scenario in String Cosmology', Physics Reports, 373, págs. 1-212.
Gilkey, L. [1959]: Creador del cielo y la tierra: La doctrina cristiana de la creación a la luz del conocimiento moderno, Garden City,
NY: Doubleday and Company. La referencia de la página es a la reimpresión de 1965 Anchor Books.
Giulini, D. [2007]: 'Some Remarks on the Noions of General Covariance and Background Independence', en E. Seiler y IO
Stamatescu (eds), Approaches to Fundamental Physics: An Assessment of Current Theoretical Ideas, Lecture Notes in Physics,
vol. 721, Nueva York: Springer, págs. 105–22.
Glymour, C. [1973]: 'Topología, cosmología y convención', en P. Suppes (ed.), Space, Time, and Geometry, Dordrecht: D. Reidel,
págs. 193-216.
Grant, E. [1994]: Planetas, estrellas y orbes: el cosmos medieval, 1200-1687, Cambridge: Cambridge University Press.
Grant, E. [1996]: Los fundamentos de la ciencia moderna en la Edad Media: sus contextos religiosos, institucionales e intelectuales,
Cambridge: Cambridge University Press.
Grünbaum, A. [1989]: 'El pseudo-problema de la creación en cosmología física', Filosofía de la ciencia, 56, págs. 373-94.
Gupta, SN [1954]: 'Gravitation and Electromagnetism', Physical Review, 96, págs. 1683–5.
Helm, P. [1997]: 'Eternal Creation: The Doctrine of the Two Standpoints', en CE Gunton (ed.), The Doctrine of Creation: Essays in
Dogmatics, History and Philosophy, Edimburgo: T&T Clark, págs. 29– 46.
Henneaux, M. y Teitelboim, C. [1992]: Quantization of Gauge Systems, Princeton, Nueva Jersey: Princeton University Press.
Hyman, A. y Walsh, JJ [1973]: Filosofía en la Edad Media: Las tradiciones cristianas, islámicas y judías, 2ª edición, Indianápolis,
MN: Hackett.
Infeld, L. y Schild, A. [1945]: "Un nuevo enfoque de la cosmología cinemática", Physical Review, 68, págs. 250–72.
Isham, CJ [1997]: 'Creación del universo como un proceso cuántico', en RJ Russell, WR Stoeger y GV Coyne (eds), Physics,
Philosophy, and Theology: A Common Quest for Understanding, tercera edición, Ciudad del Vaticano : Observatorio Vaticano /
Notre Dame, IN: Universidad de Notre Dame, págs. 375–408.
Jackson, JD [1975]: Classical Electrodynamics, 2ª edición, Nueva York: Wiley.
Jaki, SL [1980]: Cosmos y Creador. Edimburgo: Scottish Academic Press.
Juan Pablo II [1997]: 'Al Reverendo George V. Coyne, SJ, Director del Observatorio Vaticano, 1 de junio de 1988', en RJ Russell, W
R. Stoeger y GV Coyne (eds), Física, Filosofía y Teología : Una búsqueda común para el entendimiento, 3ª edición, Estado de la
Ciudad del Vaticano: Observatorio del Vaticano / Notre Dame, IN: Universidad de Notre Dame, págs. 15, 16, M1–14.
Kaloper, N. y Olive, KA [1998]: 'Singularidades en cosmologías escalar-tensorial', Physical Review D, 57, págs. 811–22.
Kazanas, D. y Mannheim, PD [1991]: "Estructura general de las ecuaciones gravitacionales de movimiento en la gravedad
conformada de Weyl", Astrophysical Journal Supplement Series, 76 (2), págs. 431–53.
Klein, O. [1971]: 'Arguments Concerning Relativity and Cosmology', Science, 171, págs. 339-45.
Komar, A. [1979]: "Orden de factores coherentes de las restricciones relativistas generales", Physical Review D, 20, págs. 830-3.
Kragh, H. [2004]: Materia y espíritu en el universo: preludios científicos y religiosos de la cosmología moderna, Londres: Imperial
College.
Kraichnan, RH [1955]: 'Derivación relativista especial de la teoría de la gravitación generalmente covariante', Physical Review,
98, págs. 1118–22.
Kuhn, TS [1978]: Teoría del cuerpo negro y la discontinuidad cuántica, 1894-1912, Oxford: Clarendon Press.
Kukla, A. [1998]: Estudios sobre realismo científico, Nueva York: Oxford University Press.
Küng, H. [2007]: El comienzo de todas las cosas: ciencia y religión. Grand Rapids, MI: William B. Eerdmans. Traducido por John
Bowden.
Larmer, R. [2002]: '¿Hay algo de malo en el razonamiento del “Dios de las brechas”?', Revista Internacional de Filosofía de la
Religión, 52, págs. 129–42.
Laudan, L., Donovan, A., Laudan, R., Barker, P., Brown, H., Leplin, J., Thagard, P. y Wykstra, S. [1986]: 'Scientific Change:
Philosophical Models and Historical Research ”, Synthese, 69, págs. 141–223.
Layzer, D. [1954]: "Sobre la importancia de la cosmología newtoniana", The Astronomical Journal, 59, págs. 268–70.
Leith, JH, ed. [1982]: Credos de las iglesias: un lector de doctrina cristiana desde la Biblia hasta el presente, 3ª edición, Louisville, KY:
John Knox.
Levy-Leblond, J.-M. [1990]: "¿Comenzó el Big Bang?", American Journal of Physics, 58, págs. 156–9.
Lindberg, DC y Numbers, RL eds [1986]: Dios y la naturaleza: Ensayos históricos sobre el encuentro entre ciencia y religión,
Berkeley, CA: Universidad de California.
Magnano, G. y Sokołowski, LM [1994]: "Equivalencia física entre las teorías de la gravedad no lineal y un campo escalar
autogravitante relativista general", Physical Review D, 50, págs. 5039-59.
Malament, D. [1977]: 'Observationally Indistinguishable Space-Times', en J. Earman C. Glymour y J. Stachel (eds), Foundations of
Space-Time Theories, Minneapolis, MN: University of Minnesota, págs. 61– 80.
Manson, NA, ed. [2003]: Dios y diseño: el argumento teleológico y la ciencia moderna, Londres: Routledge.
Mars, M. y Zalaletdinov, RM [1997]: 'Promedios del espacio-tiempo en la gravedad macroscópica y las coordenadas que
conservan el volumen', Journal of Mathematical Physics, 38, págs. 4741-57.
Mavrodes, GI [1989]: 'Enthusiasm', Revista Internacional de Filosofía de la Religión, 25, págs. 171–86.
McCabe, G. [2004]: 'La estructura e interpretación de la cosmología: Parte I - Cosmología relativista general', Estudios de historia
y filosofía de la física moderna, 35, págs. 549–95.
McCrea, W H. [1955]: "Sobre la importancia de la cosmología newtoniana", The Astronomical Journal, 60, págs. 271–4.
McMullin, E. [1981a]: 'How Should Cosmology Relate to Theology?', En AR Peacocke (ed.), The Sciences and Theology in the
Twentieth Century, Notre Dame, IN: Universidad de Notre Dame, págs. 17–57 .
McMullin, E. [1981b]: 'Is Philosophy Relevant to Cosmology?', American Philosophical Quarterly, 18, págs. 177–89.
Misner, C. W [1969]: "Cero absoluto del tiempo", Physical Review A, 186, págs. 1328-1333.
Misner, C., Thorne, K. y Wheeler, JA [1973]: Gravitation, Nueva York: Freeman.
Morriston, W [2003]: '¿Debe el tiempo metafísico tener un comienzo?', Faith and Philosophy, 20, págs. 288-306.
Narlikar, JV [1992]: 'Los conceptos de “comienzo” y “creación” en cosmología ”, Filosofía de la ciencia, 59, págs. 361-71.
Ogievetsky, VI y Polubarinov, IV [1965]: 'Interacting Field of Spin 2 and the Einstein Equations', Annals of Physics, 35, pp. 167-
208.
Olson, RG [2004]: Ciencia y religión, 1450-1900: De Copérnico a Darwin, Baltimore, MD: Johns Hopkins University Press.
Papapetrou, A. [1948]: 'Teoría de la gravitación y el espacio plano de Einstein', Actas de la Royal Irish Academy A, 52, págs. 11-
23.
Pitts, JB [2006]: 'Objetos absolutos y contraejemplos: polvo de Jones-Geroch, curvatura constante de Torretti, tetrad-spinor y
densidad escalar', Estudios de Historia y Filosofía de la Física Moderna, 37, págs. 347-71.
Pitts, JB y Schieve, WC [2001]: 'Gravitación ligeramente bimétrica', Relatividad general y gravitación, 33, págs. 1319–50.
Pitts, JB y Schieve, WC [2003]: 'No singularidad de modelos planos de Robertson-Walker en el enfoque relativista especial de las
ecuaciones de Einstein', Fundamentos de la física, 33, págs. 1315–21.
Pitts, JB y Schieve, WC [2007]: 'Gravedad masiva acoplada universalmente', Física teórica y matemática, 151, págs. 700-17.
Pío III [1952]: "La ciencia moderna y la existencia de Dios", La mente católica, 49, págs. 182–92. Discurso a la Pontificia Academia
de las Ciencias, 22 de noviembre de 1951.
Plantinga, A. [2000]: Creencia cristiana garantizada, Nueva York: Oxford University Press.
Polkinghorne, J. [1994]: Ciencia y creencia cristiana, Londres: SPCK.
Psillos, S. [1999]: Realismo científico: cómo la ciencia rastrea la verdad, Londres: Routledge.
Pullin, J. [2003]: 'Canonical Quantization of General Relativity: The Last 18 Years in a Nutshell', en M. Novello (ed.), Proceedings
of the Xth Brazilian School on Cosmology and Gravitation: AIP Conference Proceedings 668, American Instituto de Física, págs.
141–53.
Quinn, PL [1993]: 'Creación, conservación y el Big Bang', en J. Earman AI Janis, GJ Massey y N. Rescher (eds), Problemas
filosóficos de los mundos interno y externo: Ensayos sobre la filosofía de Adolf Grünbaum, Pittsburgh: Universidad de
Pittsburgh / Konstanz: Universitätsverlag Konstanz, págs. 589–612.
Ratzsch, D. [2001]: Naturaleza, diseño y ciencia: el estado del diseño en las ciencias naturales, Albany, NY: State University of New
York.
Redhead, M. [1996]: Revisión del teísmo, el ateísmo y la cosmología del Big Bang por William Lane Craig y Quentin Smith, British
Journal for the Philosophy of Science, 47, págs. 133–6.
Rosen, N. [1940]: 'Relatividad general y espacio plano. I, II ', Physical Review, 57, págs. 147–50, 150–3.
Ross, H. [1991]: The Fingerprint of God, 2ª edición, Orange, CA: Promise.
Ross, H. [2001]: El Creador y el Cosmos: Cómo los mayores descubrimientos científicos del siglo revelan a Dios, 3ª edición, Colorado
Springs: NavPress.
Russell, JB [1991]: Inventing the Flat Earth: Columbus and Modern Historians, Westport, CN: Praeger.
Russell, RJ [1996a]: 'Creación finita sin comienzo', en RJ Russell, N. Murphey y CJ Isham (eds), Cosmología cuántica y las leyes de
la naturaleza: Perspectivas científicas sobre la acción divina, 2a edición, Estado de la Ciudad del Vaticano: Observatorio
Vaticano / Berkeley, CA: Centro de Teología y Ciencias Naturales / Notre Dame, IN: Universidad de Notre Dame, págs. 291–
325.
Russell, RJ [1996b]: 't = 0: Is It Theologically Significant?', En WM Richardson y WJ Wildman (eds.), Religion & Science: History,
Method, Dialogue, Nueva York: Routledge, pp. 201-24 .
Santiago, DI y Silbergleit, AS [2000]: 'Sobre el tensor de energía-momento del campo escalar en las teorías de la gravedad del
tensor-escalar', Relatividad general y gravitación, 32, págs. 565–81.
Saunders, N. [2002]: Acción divina y ciencia moderna, Cambridge: Cambridge University Press.
Schimming, R. y Schmidt, H.-J. [1990]: "Sobre la historia de las teorías métricas de gravitación de cuarto orden", NTM
Schriftenreihe für Geschichte der Naturwissenschaften, Technik und Medizin, 27, págs. 41-8.
Schücking, EL [1967]: 'Cosmología', en J. Ehlers (ed.), Teoría de la relatividad y astrofísica: 1. Relatividad y cosmología,
Conferencias en matemáticas aplicadas, vol. 8, Providence, RI: American Mathematical Society, págs. 218–36.
Sexl, RU [1967]: 'Teorías de la gravitación', Fortschritte der Physik, 15, 269-307.
Sklar, L. [1985]: '¿Tienen derechos las hipótesis no nacidas?', En Filosofía y Física del Espacio-Tiempo, Berkeley, CA: Universidad
de California.
Smith, Q. [1992]: 'Un argumento cosmológico del Big Bang a favor de la inexistencia de Dios', Faith and Philosophy, 9, págs. 217–
37.
Smith, Q. [2000]: "Problemas con el intento de John Earman de reconciliar el teísmo con la relatividad general", Erkenntnis, 52,
págs. 1-27.
Smoller, J. y Temple, B. [2003]: 'Cosmología de ondas de choque dentro de un agujero negro', Actas de la Academia Nacional de
Ciencias de los Estados Unidos de América, 100, págs. 11216–8.
Snoke, D. [2001]: 'A favor del razonamiento del Dios de las brechas', Perspectivas sobre la ciencia y la fe cristiana, 53, págs. 152–
8.
Sober, E. [2003]: 'El argumento del diseño', en NA Manson (ed.), Dios y el diseño: el argumento teleológico y la ciencia moderna,
Londres: Routledge, págs. 27–54.
Sober, E. [2007]: 'What is Wrong with Intelligent Design?', Quarterly Review of Biology, 82, págs. 3–8.
Sotiriou, TP, Faraoni, V y Liberati, S. [2008]: 'Teoría de las teorías de la gravitación: un informe sin progreso', Revista
Internacional de Física Moderna D, 17, págs. 399–423.
Stanford, PK [2001]: "Rechazar el trato del diablo: ¿Qué tipo de subdeterminación deberíamos tomar en serio?", Filosofía de la
ciencia, 68, págs. S1-12. Actas de PSA 2000.
Stanford, PK [2006]: Exceeding Our Grasp: Science, History, and the Problem of Unconceived Alternatives, Nueva York: Oxford
University Press.
Sundermeyer, K. [1982]: Dinámica restringida: con aplicaciones a la teoría de Yang-Mills, relatividad general, espín clásico, modelo
de cuerda dual, notas de clase en física, vol. 169, Berlín: Springer.
Tauber, GE [1967]: "Universos en expansión en coordenadas planas conforme", Journal of Mathematical Physics, 8, págs. 118-23.
Thijssen, JMMH [1998]: 'La eternidad del mundo, vistas medievales de', en E. Craig (ed.), Enciclopedia de filosofía de Routledge.
Londres: Routledge. Consultado el 13 de noviembre de 2004 en <www.rep.routledge.com/article/B039>.
Tod, P. y Lübbe, C. [inédito]: 'An Extension Theorem for Conformal Gauge Singularities', <arxiv.org/abs/0710.5552>.
van Fraassen, B. [1989]: Leyes y simetría, Oxford: Clarendon Press.
van Nieuwenhuizen, P. [1973]: «Sobre lagrangianos tensores libres de fantasmas y gravitación lineal», Física nuclear B, 60, págs.
478-92.
Veltman, M. [1981]: 'Teoría cuántica de la gravitación', en Les Houches XXVIII 1975: Métodos en teoría de campos, Amsterdam:
Holanda Septentrional, págs. 265–327.
Visser, M. [1998]: 'Mass for the Graviton', Relatividad general y gravitación, 30, págs. 1717–28.
Wald, RM [1984]: Relatividad general, Chicago, IL: University of Chicago Press.
Weinberg, S. [1965]: «Fotones y gravitones en la teoría de la perturbación: derivación de las ecuaciones de Maxwell y Einstein»,
Physical Review, 138, págs. B988-1002.
Weinberg, S. [1972]: Gravitación y cosmología, Nueva York: Wiley.
Weinstein, S. [1996]: 'Extraños acoplamientos y estructura espacio-temporal', Filosofía de la ciencia, 63, págs. S63-70. Actas de
las reuniones bienales de 1996 de la Asociación de Filosofía de la Ciencia. Parte I: Documentos aportados.
White, AD [1896]: A History of the Warfare of Science with Theology in Christendom, Buffalo: Prometheus, reimpresión de 1993.
Will, CM [1993]: Teoría y Experimento en Física Gravitacional, edición revisada, Cambridge: Cambridge University Press.
Zalaletdinov, RM [1992]: "Promedio de las ecuaciones de Einstein", Relatividad general y gravitación, 24, págs. 1015–31.
3
Sobre los espaciotiempos no singulares y el comienzo
del universo

William Lane Craig y James D. Sinclair

1.0 Introducción
El argumento más discutido en la teología natural actual es el llamado argumento cosmológico
kalām, que se originó en los intentos de ciertos filósofos antiguos de refutar la doctrina de
Aristóteles sobre la eternidad pasada del universo. 1El argumento adquirió gran importancia en
la teología islámica medieval, de la que deriva su nombre. En su Kitab al-Iqtisad, el teólogo
musulmán medieval al-Ghazali presentó el siguiente silogismo simple en apoyo de la existencia
de un Creador: “Todo ser que comienza tiene una causa para su comienzo; ahora el mundo es un
ser que comienza; por lo tanto, posee una causa para su comienzo ”[al-Ghazali, 1962, págs. 15-
16]. En defensa de la segunda premisa, Ghazali ofreció varios argumentos filosóficos para
mostrar la imposibilidad de una regresión infinita de los fenómenos temporales y, por tanto, de
un pasado infinito. El límite en el que termina el pasado finito, Ghazali lo llama “el Eterno” [al-
Ghazali, 1963, p. 32], que evidentemente considera un estado de atemporalidad. Dada la verdad
de la primera premisa, el pasado finito debe, por tanto, “Detente en un ser eterno del que debería
haberse originado el primer ser temporal” [al-Ghazali 1963, p. 33].
El argumento, entonces, es asombrosamente simple:

1. Todo lo que comienza a existir tiene una causa.


2. El universo comenzó a existir.
3. Por tanto, el universo tiene una causa.

El análisis conceptual de lo que significa ser una causa del universo busca luego explorar la
relevancia de esta conclusión para el teísmo. Lo que hace que el argumento cosmológico kalām
sea científicamente interesante es que los proponentes contemporáneos del argumento han
reclamado apoyo de la cosmogonía astrofísica actual en defensa de (2). Sin embargo, varios
críticos recientes del argumento han negado que la cosmología física contemporánea brinde un
apoyo significativo a (2) porque el origen singular del espacio-tiempo predicho por el modelo
estándar es un artefacto de la Relatividad General (en adelante GTR) que bien puede ser resuelto
por modelos cosmológicos cuánticos.
Por ejemplo, Bradley Monton afirma:
La hipótesis del Big Bang es cierta dada la suposición de que GTR es cierta, pero no sabemos
si la hipótesis del Big Bang es cierta para el universo real. La teoría del Big Bang no tiene en
cuenta la teoría cuántica, y eso nos da razones para no creer en la teoría del Big Bang ... Porque
la física no nos dice qué sucede una vez que rastreamos la historia del universo hacia atrás
en el tiempo hasta estas altas energías, ni siquiera sabemos si hay una gran explosión en
absoluto [Monton, de próxima publicación].

Monton apela específicamente al modelo ekpyrótico cíclico de Steinhardt-Turok como un


ejemplo de un modelo cosmológico que “es compatible con el universo que ha existido desde
siempre” [Monton, de próxima publicación]. De manera similar, Graham Oppy se queja de que
estamos "lejos de tener una buena razón" para suponer que los reemplazos gravitacionales
cuánticos del modelo estándar presentarán un comienzo absoluto del universo físico [Oppy,
2006, p. 146]. Sin duda, la crítica de este tipo más desarrollada viene de J. Brian Pitts en su amplia
crítica de lo que él llama “el argumento de la singularidad a favor del teísmo” [Pitts, 2008, p. 677].
Por lo tanto, su crítica merece un escrutinio cuidadoso.
Es un rasgo curioso de la extensa crítica de Pitts que nunca proporciona una declaración
explícita del argumento de la singularidad objetivo para el teísmo. A primera vista, uno podría
pensar que el argumento cosmológico kalām es simplemente el argumento de la singularidad
para el teísmo. Pero un momento de reflexión muestra que esto no puede ser correcto, ya que, a
lo sumo, podría aducirse evidencia de una singularidad cosmológica inicial en apoyo de la
premisa (2). Es inmediatamente obvio, entonces, que “el argumento de la singularidad para el
teísmo” es un nombre inapropiado, porque el argumento de la singularidad no es un argumento
para el teísmo. Más bien es un argumento a favor de (2), que es una declaración física sencilla,
como la que se discute en cualquier texto sobre astronomía y astrofísica y que no postula ninguna
entidad sobrenatural. Entonces, ¿qué es lo que realmente está en juego? 2El reconocimiento de
este hecho es muy significativo, ya que implica que todas las preocupaciones de Pitts acerca del
razonamiento del "Dios de los huecos" y la impenetrabilidad de la teología natural [Pitts, 2008,
págs. 696-700] son simplemente irrelevantes para el éxito del llamado argumento de la
singularidad para el comienzo del universo y, por lo tanto, puede dejarse de lado. En lo que sigue,
entonces, tendremos muy poco que decir sobre teología. Esto es, pensamos, para mejor, ya que
la cuestión de si la cosmología contemporánea proporciona una buena base para pensar que el
universo comenzó a existir tiene un interés más que sectario.

2.0 El argumento de la singularidad formulado


Nuestra preocupación, entonces, es con algún supuesto argumento de singularidad para el
comienzo del universo. Para discernir las supuestas fallas de ese argumento, necesitamos una
formulación clara del argumento. Este Pitts lamentablemente no proporciona, dejándonos
reconstruirlo lo mejor que podamos. La clave para reconstruir el llamado argumento de la
singularidad parece ser la declaración resumida de Pitts:
Sea tolerante o intolerante con las singularidades, resulta que no hay un primer momento (a
menos que se instale a mano), porque cada momento está precedido por momentos
anteriores. Por lo tanto, en el sentido relevante para que el argumento de Kalam sea válido y
tenga sentido para una colección suficientemente amplia de teorías físicas, no hay un
comienzo implícito en la física, por lo que la premisa 2 podría ser falsa, por lo que la física
puede demostrar. Para que la singularidad del Big Bang proporcione un buen argumento
teísta, la singularidad debe comportarse lo suficientemente bien como para ser una parte real
e inteligible del espacio-tiempo y debe comportarse lo suficientemente mal como para no
tener un pasado. Satisfacer ambas condiciones parece difícil y poco probable de lograr [Pitts,
2008, p. 689].

Este pasaje podría sugerir la siguiente reconstrucción:

4. El universo comenzó a existir si hubo un primer momento de tiempo.


5. Si la singularidad cosmológica inicial era una parte real e inteligible del espacio-tiempo,
entonces hubo un primer momento de tiempo.
6. La singularidad cosmológica inicial era una parte real e inteligible del espacio-tiempo.
7. Por lo tanto, el universo comenzó a existir.

El problema con esta reconstrucción sugerida del argumento, sin embargo, es que el argumento
sería entonces un hombre de paja que no ha sido defendido por nadie y difícilmente requeriría
21 páginas de argumentación sostenida para refutarlo. Las singularidades de los espaciotiempos
relativistas generales no son puntos espaciotemporales sino, a lo sumo, puntos, ya sean reales o
ideales, que se pueden unir al espaciotiempo como puntos limítrofes. Como tales, no son parte
del espacio-tiempo, como afirma (6). De hecho, en el enfoque habitual de las singularidades, ni
siquiera se les concede tanta realidad. Más bien, se dice que un espacio-tiempo es singular si es
esencialmente inextensible y, por lo tanto, geodésicamente incompleto [Earman, 1995, págs. 28-
37]. La pregunta que plantea Pitts es si una singularidad cosmológica inicial, ya sea en el sentido
de un punto límite pasado o de lo incompleto de las semicurvas geodésicas pasadas, da base para
pensar que el universo comenzó a existir. Hacer la pregunta de esta manera vuelve inteligible la
preocupación adicional de Pitts de si alguna teoría aún desconocida podría no resolver las
singularidades del espacio-tiempo clásico, una preocupación que se volvería superflua con
respecto a la reconstrucción propuesta anteriormente, porque incluso si una singularidad
cosmológica inicial implica el comienzo del universo, la pregunta sigue siendo si el espacio-
tiempo es realmente singular.
En consecuencia, podríamos ofrecer la siguiente reconstrucción del supuesto argumento de
singularidad para el comienzo del universo:

8. Si el espacio-tiempo es singular, el universo comenzó a existir.


9. El espacio-tiempo es singular.
10. Por lo tanto, el universo comenzó a existir.

Puede entenderse entonces que Pitts niega (8) sobre la base de que, ya sea que la singularidad
inicial se entienda como un punto límite del pasado o como la incompletitud geodésica del
espacio-tiempo en el pasado, no hay un primer momento de la existencia del universo, que él
considera ser una condición necesaria para el comienzo de la existencia del universo, y socavar
(9) apelando a teorías aún no descubiertas que eliminan la singularidad. Esto nos parece una
reconstrucción comprensiva del argumento de la supuesta singularidad para el comienzo del
universo que también da sentido a la respuesta de dos puntas de Pitts [Pitts, 2008, p. 682].

3,0 El argumento de la singularidad evaluado


Aun así, hay que decir que el argumento de la singularidad para el comienzo del universo sigue
siendo un hombre de paja. Porque la evidencia de que el universo comenzó a existir no depende
de la evidencia de un comienzo singular del espacio-tiempo. En otra parte hemos discutido una
variedad de modelos cosmogónicos no singulares y hemos notado las dificultades para rastrear
plausiblemente un pasado infinito [Copan y Craig, 2004; Craig, 2006; Craig y Sinclair, 2009].
Tendremos más que decir sobre esto en la secuela, cuando examinemos a qué apoyo presta la
cosmología física contemporánea (2).

3.1 Valoración de la premisa (8)


Sin embargo, tomando el argumento en sus propios términos, examinemos primero la objeción
de Pitts a (8). A pesar de su coqueteo con el convencionalismo métrico, Pitts reconoce que
nuestro universo se caracteriza por una métrica temporal objetiva. Un universo de Friedmann-
Robertson-Walker, limitado por una singularidad cosmológica inicial, es métricamente finito en
el pasado. Siguiendo a Smith [1985], podemos decir plausiblemente que el tiempo comienza a
existir si para cualquier intervalo de tiempo finito, distinto de cero designado arbitrariamente,
hay sólo un número finito de intervalos isócronos anteriores a él; o, alternativamente, el tiempo
comienza a existir si para algún intervalo temporal finito distinto de cero no existe un intervalo
isócrono anterior a él. Esa condición se satisface en el espacio-tiempo del modelo estándar.
Entonces, ¿por qué la finitud métrica del pasado no es suficiente para que exista el comienzo del
tiempo? La respuesta de Pitts es que “Dentro del espacio-tiempo cosmológico de Robertson-
Walker para t> 0 (es decir, siempre), uno puede explicar cada momento en términos de uno
anterior. Por lo tanto, no se requiere un comienzo y la premisa 2 podría ser falsa, por lo que la
física puede decir ”[Pitts, 2008, p. 688]. El punto de Pitts no es que cada porción instantánea de
espacio-tiempo pueda explicarse inmanentemente en términos de una porción anterior,
obviando así la necesidad de una causa trascendente del comienzo del universo para existir; pag.
688]. El punto de Pitts no es que cada porción instantánea de espacio-tiempo pueda explicarse
inmanentemente en términos de una porción anterior, obviando así la necesidad de una causa
trascendente del comienzo del universo para existir; pag. 688]. El punto de Pitts no es que cada
porción instantánea de espacio-tiempo pueda explicarse inmanentemente en términos de una
porción anterior, obviando así la necesidad de una causa trascendente del comienzo del universo
para existir;3 más bien, su punto es que dado que t = 0 es a lo sumo un punto límite del espacio-
tiempo, no hay un primer instante de tiempo y, por lo tanto, no hay comienzo de tiempo, incluso
si el tiempo pasado es finito y, por lo tanto, no hay comienzo del universo.
La objeción de Pitts presupone que comenzar a existir implica tener un punto de partida. Pero,
¿por qué deberíamos pensar eso? Pitts ofrece tres razones por las que interpretar el comienzo
de la existencia del universo en términos topológicos en lugar de métricos es teológicamente
ventajoso para la doctrina bíblica de la creación [Pitts, 2008, págs. 680–1]. Pero tal preocupación
es ajena, no solo a la teología natural, sino a la cuestión religiosamente neutral de si el universo
comenzó a existir. Lo que es relevante son las consideraciones filosóficas que tienen relación con
los filósofos y cosmólogos, independientemente de su persuasión religiosa. Lo que es ventajoso
para la doctrina bíblica de la creación no entra ni debe entrar en la cuestión de qué es comenzar
a existir.4 De hecho, dadas las condiciones suficientes intuitivamente plausibles anteriores para
que el tiempo comience a existir, el escenario de Pitts de un pasado métricamente finito que
carece de un primer instante puede tomarse como una buena razón para concluir que comenzar
a existir no implica tener un punto de inicio.5
Además, la vinculación de Pitts nos comprometería con la realidad de los puntos. Pero si el
espacio y el tiempo realmente se componen de una infinidad de puntos real, no numerable, en
lugar de simplemente modelados como tales en GTR, es seguramente una cuestión que debe
resolverse mediante argumentos y pruebas, no simplemente asumidos, como hace Pitts [Pitts,
2008, pag. 680].
Además, el propio argumento del Destructor Cósmico de Pitts [Pitts, 2008, págs. 692-3] parece
socavar su supuesta implicación. Porque si empezar a existir implica tener un punto de inicio,
entonces, pari passu, dejar de existir implica tener un punto de finalización. Dado que una
singularidad de agujero negro (o una singularidad cosmológica terminal) es a lo sumo un punto
límite del espacio-tiempo en lugar de una parte del espacio-tiempo, cualquier objeto que cae en
un agujero negro no tiene un punto final de su existencia. Sin embargo, deja de existir. Robert
Geroch explica:
Recuerde que no hay ningún evento disponible para [un observador que se dirige hacia una
singularidad] sobre la singularidad misma. En particular, no hay posibilidad de una mayor
extensión de la línea del mundo [del observador] después de que golpea la singularidad.
Entonces, ¿qué significa físicamente "la línea del mundo de [un observador] golpea la
singularidad"? Matemáticamente, lo que sucede es que esta línea del mundo simplemente se
detiene. Físicamente, esto significaría que [el observador] es 'extinguido'; después de un
tiempo finito según él mismo, deja de existir en el espacio-tiempo [Geroch, 1978, p. 194].

Esto no es simplemente un brillo retórico por parte de Geroch. De hecho, el observador sería
"extinguido" a pesar de la falta de un punto final genuino para el espacio-tiempo. Entonces, si el
universo deja de existir en el Big Crunch, la paridad requiere que comience a existir en el Big
Bang, QED6
Finalmente, vale la pena señalar que la insistencia de Pitts en que la consideración crucial
sobre si el universo comenzó a existir es la necesidad de un primer instante lo lleva directamente
a las paradojas griegas antiguas de detenerse y comenzar [ver Sorabji, 1983, pp. 403-21].
Pensadores antiguos como Parménides argumentaron que si un objeto O está en reposo en el
tiempo t, es imposible que O comience a moverse, ya que para cualquier tiempo t´> t, si O está en
movimiento en t´, entonces hay un tiempo t <t * <t´ en el que O ya está en movimiento. Por tanto,
nada puede empezar a moverse. Si asumimos la continuidad del tiempo y el espacio, la solución
al acertijo de Parménides es que O puede comenzar a moverse sin que haya un punto de inicio
de su movimiento. La demanda de Pitts de un cierre topológico nos obligaría a la absurda
conclusión de que nada comienza a moverse.
Necesitamos, entonces, alguna razón convincente para pensar que la finitud admitida del
tiempo pasado no es suficiente para que el tiempo haya comenzado a existir, para pensar que un
primer instante de tiempo es también una condición necesaria. Las observaciones relevantes de
Pitts a este respecto surgen en respuesta a las definiciones de Copán y Craig que proporcionan
en preparación para su defensa de la premisa
3 *. La serie temporal de eventos físicos pasados no tuvo comienzo.
Ellos explican
Por "evento físico", nos referimos a cualquier cambio que ocurra dentro del universo espacio-
temporal. Dado que cualquier cambio lleva tiempo, no hay eventos instantáneos. Tampoco
podría haber un evento infinitamente lento, ya que tal 'evento' sería en realidad un estado
inmutable. Por lo tanto, cualquier evento tendrá una duración finita distinta de cero. Para que
todos los eventos tengan la misma duración, estipulamos arbitrariamente algún evento como
nuestro estándar.
Tomando como nuestro punto de partida el presente evento estándar, consideramos
cualquier serie de tales eventos estándar ordenados de acuerdo con la relación anterior a. La
pregunta es si esta serie de hechos tuvo un comienzo o no. Por "comienzo", uno significa un
primer evento estándar. Por tanto, no es relevante si la serie temporal tuvo un punto de inicio
(un primer instante temporal). La pregunta es si hubo en el pasado un evento que ocupaba
un intervalo temporal finito distinto de cero que fue absolutamente primero, no precedido
por ningún intervalo igual [Copan y Craig, 2004, p. 199].
La objeción de Pitts a este Ansatz es sorprendente. El escribe,
La teoría de la gravedad de Bach-Weyl muestra que una teoría física ni siquiera necesita
definir la longitud de una curva. En las teorías del tensor escalar u otras teorías con múltiples
métricas, la edad puede ser radicalmente ambigua. Por lo tanto, solo una noción topológica
de 'comienzo' en términos de un primer momento está disponible si el argumento de Kalam
tiene la intención de producir una verdad necesaria necesariamente no vacía ...
Copan y Craig quizás tomen su argumento de Kalam para expresar una verdad necesaria
que se aplica de manera no vacía a todas las teorías físicas posibles. Sin embargo, su criterio
para un comienzo no tiene sentido para una teoría de Bach-Weyl porque 'igual duración' no
tiene sentido en esa teoría ... Dado que ni la existencia ni la unicidad de una métrica (para
curvas de tipo temporal) se cumplen necesariamente, el movimiento natural es adoptar una
noción de comienzo topológica más que métrica. Por tanto, un primer momento es el punto
que hay que abordar [Pitts, 2008, págs. 677, 682].

La presunción de Pitts parece ser que Copan y Craig toman, no sólo las premisas del argumento
cosmológico kalām, sino más particularmente el criterio ofrecido para que haya un comienzo de
la serie de eventos pasados como verdades metafísicamente necesarias. Dado que existen
mundos posibles caracterizados por el convencionalismo métrico, es decir, mundos en los que
no existe un hecho objetivo, sean o no isócronos los intervalos temporales no anidados, el criterio
propuesto para un comienzo sería inaplicable a tales mundos, porque en tales mundos no hay
ningún hecho sobre si algún otro intervalo temporal es igual a la duración del evento estándar
estipulado arbitrariamente. Pitts reconoce, como se mencionó, que el mundo real se caracteriza
por una métrica objetiva; pero él insiste en que “una doctrina de la creación necesita ser lo
suficientemente rica en modalidades para acomodar la posibilidad de que Dios cree mundos con
leyes físicas sin una estructura métrica única o preferida para autorizar una respuesta de edad
'finita' o 'infinita'” [Pitts, 2008 p. 681].
La presunción de Pitts es incorrecta. El criterio propuesto estaba destinado a aplicarse
únicamente al mundo real. No hay intención ni necesidad de buscar su aplicación a otras palabras
metafísicamente posibles regidas por diferentes leyes de la naturaleza. 7Así, el criterio propuesto
para el inicio de la serie de hechos pasados es adecuado a su propósito. Establece una condición
suficiente para que el tiempo haya comenzado a existir.
En resumen, el intento de Pitts de desacreditar una condición de tiempo suficiente
intuitivamente plausible y el hecho de que el universo haya comenzado a existir en términos de
finitud métrica pasada se basa en una presunción infundada sobre el estado modal de la
condición ofrecida y sustituiría a una condición topológica que, si aceptado, tendría
consecuencias muy inverosímiles. Por tanto, no presenta ninguna objeción seria a (8).

3.2 Evaluación de la premisa (9)


Entonces, ¿qué pasa con (9)? Si (9) es cierto, entonces, como hemos visto anteriormente,
tenemos buenas razones para inferir que (10) es cierto, que el universo comenzó a existir, que
es la segunda premisa del argumento cosmológico kalām. Desafortunadamente, Pitts parece
asumir que el apoyo probatorio para la premisa (2) depende de manera crucial de la fuerza de
su argumento de singularidad, de modo que si la garantía para (9) se socava, también lo es para
(2). Pero esta suposición es errónea. La premisa (2) no presupone ni requiere la verdad de (9) o
la fuerza del argumento de la singularidad. La evidencia de un comienzo no singular sería
suficiente para justificar la creencia en (2).
Por supuesto, si (9) no está justificado, entonces debemos preguntarnos a qué apoyo presta la
cosmología física (2). Pitts está preocupado por el hecho de que
Como se ve todo el tiempo en los artículos sobre la gravedad cuántica, la mayoría de las
personas que trabajan con la gravedad cuántica dan por sentado que la singularidad del Big
Bang es un artefacto de comprensión física incompleta y esperan o esperan que unir la
gravedad con la mecánica cuántica en algún tipo de gravedad cuántica resolverá la
singularidad en una situación bien definida que admite la extrapolación a tiempos aún
anteriores, ad infinitum [Pitts, 2008, p. 688].8

La consideración crucial aquí no será la preocupación de Pitts de que una teoría exitosa de la
gravedad cuántica resolverá la singularidad cosmológica inicial presentada en el modelo
estándar en una situación que está bien definida físicamente, sino más bien si, como él dice, esa
situación " admite la extrapolación a épocas aún anteriores, ad infinitum ". Dado que es esa
consideración, más que la verdad de (9), lo que es crucial para la evidencia de (2), pasemos a un
examen de esa consideración. ¿Los modelos que presentan una era "antes del Big Bang" implican
un pasado sin comienzo?

4.0 Evidencia física para la premisa (2)


Consideraremos ahora algunas cosmogonías contemporáneas.9El material de las secciones 4.2 a
6 no pretende ser un intento inductivo de mostrar que todas las cosmogonías contemporáneas
pueden apoyar (2). Más bien, se pretende apoyar la opinión demostrada en [Craig & Sinclair
2009] de que existen principios generales sobre cosmogonías que producen una taxonomía de
modelos basada en el comportamiento de expansión de los modelos que habla de la cuestión del
origen temporal. Sostendremos que existe un pasado objetivo único genuino (temporalmente
ordenado), con continuidad evolutiva hasta el presente. Esto preserva nuestra verdadera
experiencia del tiempo.10y permite que las teorías de la evolución (incluido Darwin) en otras
partes de la física se entiendan sobre una base realista, en contraposición a algún tipo de ilusión.
Así, por ejemplo, si una teoría particular niega la temporalidad como una característica
'fundamental' del universo, pero conserva la noción como una 'aproximación' cuasi-clásica,
tomaremos la historia cuasi-clásica como real y sugeriremos el formalismo más general. debe
interpretarse instrumentalmente.
Además, como Pitts parece afirmar sin evidencia que una línea de tiempo anterior al Big-Bang
necesariamente sería eterna, nos contentaremos con proporcionar algunos contraejemplos en
lugar de intentar demostrar que todos los modelos anteriores al Big-Bang fallan. para demostrar
la eternidad pasada.

4.1 Modelos, metodología y su uso


En las secciones siguientes a ésta, consideraremos la evidencia a favor de la proposición de que
el universo tiene un origen temporal. Dado que la consideración de tal evidencia domina la
mayor parte de nuestro ensayo, tenemos poco espacio para defender nuestra presuposición
implícita de la realidad del tiempo. Se podría socavar la evidencia de un origen temporal del
universo al negar esa presuposición. Uno podría basar una posición “atemporalista” en la idea
de que una teoría exitosa de la gravedad cuántica dejará de considerar al tiempo como una
característica fundamental de la naturaleza [Kiefer, 2008]. A continuación ofrecemos los
siguientes breves comentarios sobre la posición atemporalista:
1. La posición atemporalista es acríticamente literalista con respecto a la interpretación del
modelo. Nuestro interés radica en cuál modelo cosmogónico se aproxima más a la realidad. La
mera existencia de un formalismo matemático útil no implica que las entidades de esa teoría se
correspondan con la realidad. La utilidad pasada (y presente) de GTR, por ejemplo, nunca
significó que estuviéramos obligados a hacer un compromiso ontológico con su punto de vista
de que la gravedad es simplemente la curvatura de un espacio-tiempo objetivamente real.
Tampoco estamos obligados a creer que el tiempo no existe porque un formalismo "puro" de
Wheeler-DeWitt no lo contiene y el sustituto de WKB se describe como una mera
"aproximación". El enfoque de la gravedad cuántica de Wheeler-DeWitt describe tanto la
desaparición del tiempo absoluto que resulta del intento de cuantificar la gravedad de Einstein
como el tiempo ' s reaparición como una aproximación semiclásica. El hecho de que el tiempo
sea recuperable como una aproximación, sin embargo, no implica que haya una eliminación del
tiempo (Wheeler DeWitt "puro") o que la superposición de todas las métricas posibles requiera
necesariamente un significado indeterminado del tiempo en la realidad. Existen modelos útiles
en diferentes niveles de abstracción de la realidad física. Por lo tanto, nos sentimos
perfectamente cómodos invocando el enfoque de Kiefer (y su colega en algún momento HD Zeh)
en nuestra discusión de los universos cíclicos y una flecha del tiempo invertida (ver sección 4.6)
sobre la base de que uno no necesita un compromiso ontológico con sus afirmaciones metafísicas
más amplias. en cuanto a la eliminación del tiempo. no implica que haya una eliminación del
tiempo (Wheeler DeWitt "puro") o que la superposición de todas las métricas posibles requiera
necesariamente un significado indeterminado del tiempo en la realidad. Existen modelos útiles
en diferentes niveles de abstracción de la realidad física. Por lo tanto, nos sentimos
perfectamente cómodos invocando el enfoque de Kiefer (y su colega en algún momento HD Zeh)
en nuestra discusión de los universos cíclicos y una flecha del tiempo invertida (ver sección 4.6)
sobre la base de que uno no necesita un compromiso ontológico con sus afirmaciones metafísicas
más amplias. en cuanto a la eliminación del tiempo. no implica que haya una eliminación del
tiempo (Wheeler DeWitt "puro") o que la superposición de todas las métricas posibles requiera
necesariamente un significado indeterminado del tiempo en la realidad. Existen modelos útiles
en diferentes niveles de abstracción de la realidad física. Por lo tanto, nos sentimos
perfectamente cómodos invocando el enfoque de Kiefer (y su colega en algún momento HD Zeh)
en nuestra discusión de los universos cíclicos y una flecha invertida del tiempo (ver sección 4.6)
con el argumento de que uno no necesita un compromiso ontológico con sus afirmaciones
metafísicas más amplias. en cuanto a la eliminación del tiempo.
Por lo tanto, la cuestión que nos ocupa no es la cuestión limitada de si existen esquemas de
modelado de gravedad cuántica que son atemporalistas. Más bien, la pregunta es qué determina
nuestros compromisos ontológicos. Aunque la filosofía contemporánea del tiempo ha estado
profundamente imbuida de la epistemología naturalizada de WVO Quine [1969], que rehuye la
llamada "primera filosofía" en favor de tomar las liberaciones de las ciencias naturales como
guías autorizadas de la realidad, tal naturalismo epistemológico es por su propia naturaleza es
simplemente una disposición metodológica, que en sí misma no puede basarse ni científicamente
ni de ninguna otra manera, para restringir las fuentes básicas de evidencia de uno a las ciencias
naturales [Rea, 2002, pp. 63-67; cf. págs. 1-7]. No estando tan dispuesto, No vemos ninguna razón
por la que la física deba subvertir la veridicidad de nuestra experiencia del devenir tenso y
temporal, y mucho menos del tiempo mismo. De hecho, incluso la ilusión del devenir temporal
implica la realidad del devenir temporal en los contenidos de la conciencia. Nos parece extraño
que sea la mecánica cuántica "ordinaria" la que trae a la mesa una visión casi newtoniana del
tiempo absoluto, pero este es el ingrediente que supuestamente estropea la noción de
temporalidad. Es la mecánica cuántica "ordinaria" la que disfruta de la impresionante
verificación experimental. Deberíamos tener cuidado al transferir una legitimidad prestada a
una teoría de la gravedad cuántica que en sí misma carece de consenso. Nos parece extraño que
sea la mecánica cuántica "ordinaria" la que trae a la mesa una visión casi newtoniana del tiempo
absoluto, sin embargo, este es el ingrediente que supuestamente estropea la noción de
temporalidad. Es la mecánica cuántica "ordinaria" la que disfruta de la impresionante
verificación experimental. Deberíamos tener cuidado al transferir una legitimidad prestada a
una teoría de la gravedad cuántica que en sí misma carece de consenso. Nos parece extraño que
sea la mecánica cuántica "ordinaria" la que trae a la mesa una visión casi newtoniana del tiempo
absoluto, pero este es el ingrediente que supuestamente estropea la noción de temporalidad. Es
la mecánica cuántica "ordinaria" la que disfruta de la impresionante verificación experimental.
Deberíamos tener cuidado al transferir una legitimidad prestada a una teoría de la gravedad
cuántica que en sí misma carece de consenso.
Nos parece apropiado considerar todos y cada uno de los esquemas que los cosmólogos traen
a la mesa para arrojar luz sobre la cuestión de qué modelos se aproximan a la realidad física. No
estamos casados con el concepto específico de tiempo métrico que se encuentra en GTR. Los
autores de cosmogonías intentan habitualmente abordar la cuestión de los orígenes en sí misma
o, al menos, las cuestiones relativas a las condiciones iniciales del universo. Muchas cosmogonías
cuánticas incluyen afirmaciones de la eternidad pasada (y por tanto presuponen la realidad del
tiempo). Otros discuten los comienzos cósmicos ex nihilo. Seguramente los cosmólogos que
formulan estas teorías piensan que están haciendo un trabajo relevante para el universo real y
no simplemente ejercicios matemáticos que no tienen base en la realidad. Por tanto, nos parece
un ejercicio rentable e importante abordar estos modelos.

2. Los modelos de gravedad cuántica deben replicar el comportamiento observado que los
modelos más primitivos del universo (léase GTR) buscan modelar. Isaac Asimov, en un artículo
titulado "La relatividad de lo incorrecto" [Asimov, 1989], señaló la falacia de creer que los
modelos "primitivos" actuales carecen de utilidad porque están "equivocados", dado que una
teoría futura siempre está por encima de la horizonte para revertir el actual. Hay grados de
"incorrección", y las teorías que son menos incorrectas que sus predecesoras lo son porque
tienen en cuenta lo que es empíricamente correcto en sus antepasados. Es simplemente un error
pensar que los fenómenos predichos y analizados por GTR (especialmente los fenómenos
observables indirectamente como los agujeros negros) a través de cosas como los teoremas de
singularidad dejan de ser relevantes porque algún día un formalismo matemático diferente
puede llegar a ser de uso general. Puede que no existan singularidades, per se, en un futuro
formalismo de gravedad cuántica, pero los fenómenos que GTR se esfuerza por describir de
manera incompleta deben, no obstante, ser manejados por el formalismo refinado, si ese
formalismo tiene la ambición de describir nuestro universo. Esto se puede ver en el ejemplo
anterior del enfoque de Wheeler-Dewitt descrito por Kiefer. Los universos de Big Bang
Friedmann con una coordenada de tiempo significativa son recuperables en la teoría (como
muestra Kiefer) pero se describen como una aproximación WKB semiclásica que invoca un
mecanismo llamado decoherencia. De hecho, deben ser recuperables porque eso es lo que vemos.
Si el comportamiento similar al de Big Bang Friedmann no fuera recuperable, eso en sí mismo
sería motivo para rechazar la teoría más amplia.

3. La preservación del tiempo como propiedad fundamental del universo es posible dentro de un
enfoque de gravedad cuántica. Como ejemplos, véanse [Mersini-Houghton, 2009], [Smolin,
2009], [Sorkin y Rideout, 2004], [Carroll, 2008] y [Loll, 2008]. Mersini-Houghton defiende un eje
temporal sin flechas pero sin embargo global y sin principio dentro de un multiverso más grande.
Carroll quiere un tiempo global con una flecha que apunte hacia una mayor entropía dado
cualquier punto de partida arbitrario dentro del multiverso. Smolin defiende una visión similar
en su postulación de múltiples universos nacidos en una secuencia temporal a través de
incubadoras de agujeros negros. Su artículo "The Unique Universe" es un intento en toda regla
de refutación de un multiverso atemporal. Sin embargo, su defensa del concepto de tiempo
fundamental no es una defensa del tiempo métrico de GTR. Más bien defiende la temporalidad
dentro del contexto de las teorías de la gravedad cuántica independientes del trasfondo (es decir,
el espacio-tiempo emergente). Un ejemplo de este enfoque es el trabajo de Renate Loll que
discutimos brevemente en la sección 5.0. Otro enfoque que incluye explícitamente la propiedad
del tiempo y al menos la mitad de la doctrina del presentismo (es decir, la tesis de que el futuro
no existe) es la "teoría de conjuntos causales" de Rafael Sorkin, David Rideout y otros teóricos
prominentes, como como Faye Dowker.
En nuestra opinión, estos enfoques tienen una ventaja sobre los enfoques de gravedad cuántica
multiverso atemporal precisamente porque son consistentes con la veridicidad de nuestra
experiencia del tiempo y el tiempo. Para justificar una afirmación tan extraordinaria como la
irrealidad del tiempo, la evolución y la ilusión de nuestra experiencia del mismo, el multiverso
atemporal necesita algo más allá de la demostración como un formalismo de gravedad cuántica
"consistente".
4. La posición atemporalista concuerda con la nuestra con respecto al hecho de que diferentes
universos dentro de un multiverso son ahora inconmensurables con respecto a una medida
temporal. Por último, la posición atemporalista puede llegar a apoyar el hecho de la finitud del
pasado, si su intento de eliminar el tiempo como medida resultara tener éxito sólo en parte.
Supongamos, por ejemplo, que el concepto de "tiempo emergente" resulta ser significativo junto
con la objetividad del tiempo. (Discutimos esto en la sección 4.6.) El impacto en las supuestas
cosmogonías “anteriores al Big Bang” puede ser enorme, si uno ya no puede extender un tiempo
significativo hacia atrás “a través” de la “singularidad” del Big Bang. Si la fase A del universo es
inconmensurable con respecto al tiempo con la fase B del universo, entonces es simplemente
falso sugerir que la fase A precede a la fase B. Si suponemos que el tiempo es un concepto local
significativo dentro de A y B, entonces la implicación es que tanto A como B tienen orígenes
temporales. Esto apoya la finitud del pasado y, por tanto, el comienzo del universo.

4.2 Universo en expansión


Pitts parece pensar que la persona que cree que la cosmogonía física actual brinda un apoyo
significativo a (2) debe ser lo que él llama un "excepcionalista de GTR", es decir, alguien que
tolera singularidades (y, tal vez, toma a GTR como la teoría fundamental de gravedad). Un
excepcionalista de GTR sería una persona que sostiene que nuestro universo obedece al teorema
de la singularidad de Hawking-Penrose [Hawking y Penrose, 1970]. Hawking-Penrose asumió
que la gravedad es siempre atractiva (es decir, su teorema trataba sólo con tipos de materia
"ordinarios"). Sin embargo, hace casi 30 años, la idea de "inflación" se introdujo en la cosmología
como una resolución a varias de las anomalías en la imagen estándar del Big Bang. y una
característica clave de la inflación es que está impulsada por un tipo de energía que viola la
condición energética del teorema de Hawking-Penrose. Por lo tanto, se convirtió en una cuestión
viva en cuanto a si las cosmologías inflacionarias podrían adaptarse a un pasado sin comienzo.
Quizás estemos viviendo en una burbuja de vacío que reside en una estructura mucho más
grande (quizás fractal pasada y futura) de burbujas anidadas.
Desde este punto de vista, un pequeño volumen de "falso vacío" puede descomponerse en el
"verdadero vacío" en el que vivimos. Este proceso, sugerido por primera vez por Sidney Coleman
y Frank De Luccia [Coleman y De Luccia, 1980] identificaría nuestro Big Bang con uno de estos
eventos de “desintegración” de túnel cuántico. Por lo tanto, el Big Bang no representaría un
comienzo absoluto del espacio y el tiempo. Más bien habría un pasado anterior al Big Bang.
Lo que Pitts no menciona, sin embargo, es que los teoremas de la singularidad también han
evolucionado en los 30 años intermedios. Ha habido un animado debate centrado
(principalmente) en torno al papel de las condiciones energéticas en estos teoremas. En 2003,
Arvind Borde, Alan Guth y Alexander Vilenkin publicaron un teorema de singularidad que era
completamente independiente de las condiciones energéticas. Vilenkin explica:
Algo notable de este teorema es su amplia generalidad. No hicimos suposiciones sobre el
contenido material del universo. Ni siquiera asumimos que la gravedad se describe mediante
las ecuaciones de Einstein. Entonces, si la gravedad de Einstein requiere alguna modificación,
nuestra conclusión seguirá siendo válida. La única suposición que hicimos fue que la tasa de
expansión del universo nunca cae por debajo de un valor distinto de cero, sin importar cuán
pequeño sea. Esta suposición ciertamente debería satisfacerse en el falso vacío inflado. La
conclusión es que la inflación pasada-eterna sin un comienzo es imposible [Vilenkin, 2006, p.
175].

En su artículo formal, Borde, Guth y Vilenkin afirman:


Nuestro argumento muestra que las geodésicas nulas y similares al tiempo son, en general,
pasado incompletas en los modelos inflacionarios, se mantengan o no las condiciones
energéticas, siempre que la condición de expansión promedio Hav> 0 se mantenga a lo largo
de estas geodésicas dirigidas al pasado [Borde, Guth y Vilenkin, 2003, pág. 3].

Borde y col. sugieren que las geodésicas temporales y nulas se desplazan al rojo en energía a
medida que se extienden en un espacio en expansión. Mirando hacia atrás en el tiempo, están
desplazados al azul. El desplazamiento hacia el azul se vuelve infinito en una cantidad finita de
tiempo adecuado (o parámetro afín para geodésicas nulas). En GTR, el desplazamiento infinito
hacia el azul sugiere una condición singular.
La conclusión de BGV se aplica más allá de la clase de modelo inflacionario. Cualquier universo
(incluidos los universos modelados por cosmología de dimensiones superiores, cosmología
anterior al Big Bang, etc.) que, en promedio, se expande tiene que conectarse, en un tiempo finito,
a una frontera pasada.11Según Vilenkin, este resultado es independiente de las modificaciones de
las ecuaciones de Einstein (que podrían ser el resultado de correcciones de "baja energía"
provenientes de un enfoque de gravedad cuántica) o las características particulares de la
cosmogonía propuesta. Si el universo (o multiverso) se expande (en promedio), entonces tiene
un comienzo, un período.
Es posible objetar que el teorema BGV es un resultado clásico que carece del rigor de un
enfoque de gravedad cuántica completo. La objeción es que BGV se basa en tensores métricos,
que se podría afirmar que no existirían en una teoría "completa" de la gravedad cuántica.
Como se discutió en la sección 4.1, creemos que la objeción carece de fundamento. Agregamos
que Borde, Guth y Vilenkin no guardan silencio sobre el tema de la gravedad cuántica. Indican
que sus resultados demuestran un límite en el que será necesaria una teoría de la gravedad
cuántica para describir más la física. Por lo tanto, la dinámica clásica gobernada por su teorema
es adecuada para describir el universo en estados de energía "baja", incluida su historia pasada
aproximadamente hasta la época de Planck. Entonces hay un cálculo de la gravedad cuántica:
¿Qué puede haber más allá de este límite? Se han discutido varias posibilidades, una de las
cuales es que el límite de la región de inflado corresponde al comienzo del Universo en un
evento de nucleación cuántica. El límite es entonces una hipersuperficie cerrada similar a un
espacio que se puede determinar a partir del instante apropiado.
Cualesquiera que sean las posibilidades para el límite, está claro que a menos que la
condición de expansión promediada pueda evitarse de alguna manera para todas las
geodésicas dirigidas al pasado, la inflación por sí sola no es suficiente para proporcionar una
descripción completa del Universo, y es necesaria alguna nueva física para poder determinar
las condiciones correctas en el límite. Este es el principal resultado de nuestro artículo
[Borde, Guth y Vilenkin, 2003, p. 4].

Como se mencionó brevemente anteriormente, una cosmogonía basada en la integral de la


trayectoria de Feynman, como el enfoque de 'sin fronteras' de Hartle-Hawking [Hawking &
Hartle 1983], o el enfoque de 'tunelización desde la nada' de Vilenkin [Vilenkin 1982] puede
interpretarse como una creación-ex -nihilo12 eso explicaría el límite sugerido por el teorema de
BGV, así como también apoyaría la segunda premisa de kalām.
Discutimos este cálculo cuántico en la sección 5 de nuestro artículo. Entonces, o el límite
representa un evento de nucleación cuántica o bien (dentro del contexto de la objeción original
de Pitts) nos quedamos con las opciones discutidas en las secciones 4.3–4.6 de este documento.
Una posible objeción adicional al teorema de BGV podría basarse en la sugerencia de Pitts
[Pitts 2009, p. 681] que el enfoque de Bach-Weyl para GTR no asigna longitudes a las curvas.
Demostrar una geodésica pasada inextensible (es decir, una de longitud finita) es precisamente
la forma en que BGV pretende mostrar que su límite existe. ¿El formalismo de Bach-Weyl nos da,
entonces, motivos para dudar de la existencia de escalas objetivas?

Nos preguntamos si se debe tomar a Bach-Weyl como un enfoque realista del modelado. Bien
puede entenderse mejor instrumentalmente.13Observamos que algunos teóricos parecen
preferir un uso más modesto de la invariancia conforme. La Cosmogonía Conformal Cíclica de
Roger Penrose (ver sección 4.5), por ejemplo, usa exactamente el formalismo de Bach-Weyl para
modelar el límite entre oscilaciones consecutivas. Pero Bach-Weyl requiere que todo el
contenido del universo sea conforme invariante. Las partículas sin masa como el fotón y el
gravitón cumplen este criterio. En Bach-Weyl uno divide una métrica en una parte libre de escala
y otra parte que mide el espacio y los intervalos de tiempo. Pero las partículas sin masa (solo) no
experimentan el paso del tiempo. Entonces, si el universo contuviera solo partículas sin masa, se
podría argumentar (como hace Pitts) que se podría eliminar la parte de la métrica que representa
intervalos. Pero donde existe masa, no existe invariancia conforme. Entonces, para todas las fases
del universo donde existe masa (que en el universo real es prácticamente todas las épocas
posteriores al Big Bang), se necesita la métrica completa. Penrose divide así su modelo en dos
épocas: una consistente con la invariancia conforme y otra sin ella.
De manera similar, Gerard't Hooft, un defensor del enfoque de Bach-Weyl, describe otras
partes necesarias de una cosmogonía que no son invariantes en la escala y, por lo tanto, son
problemáticas para una metodología de Bach-Weyl “pura”. En un artículo que defiende la
existencia del espacio-tiempo (como una característica objetiva de la naturaleza) a expensas de
las teorías del "tiempo emergente", afirma:
Describir la materia en una métrica ĝµυ seguirá siendo posible siempre que nos limitemos a
las teorías de campo invariantes conforme, lo que quizás no sea una restricción tan mala al
describir la física en la escala de Planck. Por supuesto, eso nos deja la pregunta de dónde
provienen los términos de masa de la Naturaleza, pero un problema aún más urgente es
encontrar las ecuaciones para el campo gravitacional en sí mismo f, considerando el hecho
de que la constante GN de Newton no es invariante de escala en absoluto. La acción de
Einstein-Hilbert no es invariante de escala. Aquí, no podemos usar la curvatura de Riemann
o sus componentes de Ricci, pero el componente de Weyl es independiente de ω, por lo que
de alguna manera debe usarse. ['t Hooft 2009, pág. 8, énfasis añadido]

't Hooft cree en última instancia que las escalas se introducen en la naturaleza a través de los
procesos fundamentales de transferencia de información. Resume su artículo argumentando: "La
densidad de este flujo de información bien puede definir la longitud de Planck a nivel local, y con
eso todas las escalas en la naturaleza". Por lo tanto, apoya la idea de que las escalas (intervalos
de tiempo y espacio) son características objetivamente reales de la naturaleza.
Por tanto, nos parece que el mero hecho del enfoque de Bach-Weyl (que es todo lo que ofrece
Pitts) prueba poco. Puede describir mundos posibles que son totalmente invariantes de
conformidad, pero estamos interesados en un modelo que pueda representar el universo lleno
de materia que vemos a nuestro alrededor.
Entonces, ¿cuál ha sido la recepción del teorema BGV por parte de la comunidad física? Esto,
así como sus implicaciones, es en gran parte indiscutible. 14En cambio, se ha producido una nueva
ronda de construcción de modelos basada en posibles excepciones a este teorema. Se presentan
cuatro alternativas:

1) Un universo que se contrae infinitamente "rebota" en una fase de expansión (expansión


promedio <0; ejemplo: cosmogonía de De Sitter)
2) Universo asintóticamente estático (expansión media = 0; ejemplo: clase de modelo
emergente)
3) Universo eternamente cíclico (expansión media = 0; ejemplo: cosmogonía cíclica
conforme de Penrose)
4) Inversión de la flecha del tiempo (ejemplo: modelo Aguirre-Gratton)

Dejando de lado (4) por el momento, consideremos universos que, en promedio, no se expanden
a lo largo de sus historias pasadas.

4.3 Universo que se contrae infinitamente


¿Es una contracción infinita anterior al Big Bang (seguida de un rebote en una condición casi
singular en nuestra expansión actual) como se prevé en (1) una alternativa prometedora?
Sugerimos que no. George Ellis comenta sobre los problemas que atormentan tal enfoque:
Los problemas están relacionados: primero, las condiciones iniciales deben establecerse de
una manera extremadamente especial al comienzo de la fase de colapso para que sea un
universo de Robertson-Walker colapsando; y estas condiciones deben establecerse de
manera acausal (en el pasado infinito). Es posible, pero se está produciendo una gran
cantidad de ajustes inexplicables: ¿cómo sabe la materia en lugares ampliamente separados
y desconectados causalmente al comienzo del universo cómo correlacionar sus movimientos
(y densidades) para que se unan correctamente en una forma espacialmente homogénea en
el futuro?
En segundo lugar, si se hace bien, la fase de colapso es inestable, con perturbaciones
aumentando rápidamente, por lo que solo una fase de colapso muy ajustada permanece cerca
de Robertson-Walker incluso si comenzó así, y podrá dar la vuelta como un en su totalidad
(en general, muchos agujeros negros se formarán localmente y colapsarán en una
singularidad).
Entonces, sí, es posible, pero ¿quién enfocó tan bien el colapso que gire bien?
(comunicación personal, 25 de enero de 2006)

En primer lugar, entonces, estos modelos se encuentran con el importante problema del ajuste
fino de una causa. Uno afirma no solo la contingencia bruta, sino también una forma muy curiosa
de la misma. Ante el aparente ajuste fino, los físicos suelen preferir ofrecer algún tipo de
explicación. Por ejemplo, los cosmólogos están buscando ávidamente una explicación para el
aparente ajuste fino de los parámetros del modelo estándar (como las constantes de
acoplamiento de fuerzas) en la forma de un multiverso o una teoría del todo superdeterminista.
O uno piensa en la resolución inflacionaria de Guth del problema del horizonte (equilibrio
termodinámico pasado). Si vamos a renunciar a la explicación, ¿qué hay de malo en dejar la
cosmología como estaba antes de 1980, es decir, el modelo estándar del Big Bang caliente (con
el desglose asociado de la física en la singularidad)? 15
El segundo problema es que el colapso se vuelve caótico a medida que se acerca a la
singularidad. Esto producirá una condición de inicio previa a la expansión que se sabe que es
dramáticamente diferente de nuestro Big Bang real. Este fenómeno se conoce como “caos BKL”
en honor a sus descubridores [Belinsky, Khalatnikov y Lifshitz, 1970]. El mismo problema
aparecerá para todos los intentos de una línea de tiempo pasado-eterno que busquen introducir
una fase anterior al Big Bang que “rebota” en la expansión presente. De hecho, la implicación real
de BKL bien puede ser que es físicamente imposible "rebotar" a través de una "singularidad". dieciséis
Entonces, la opción (1) no es prometedora.

4.4 Universo asintóticamente estático


Un espacio asintóticamente estático, como se prevé en la opción (2), es uno en el que la tasa de
expansión promedio del universo a lo largo de su historia es igual a cero, ya que la tasa de
expansión del universo "en" el infinito pasado es cero (por lo tanto, "infinito ”Domina cualquier
fase de expansión finita, no importa cuánto tiempo). Por lo tanto, el universo, quizás en el pasado
asintótico, está en un estado estático (ni expandiéndose ni contrayéndose). Esta característica
del modelo le permite escapar del teorema de singularidad BGV. Considere, por ejemplo, la clase
de modelo "Emergente" basada en GTR de George Ellis et al. [Ellis, Murugan y Tsagas 2004], [Ellis
y Maartens 2004]. Cuenta con dos etapas; un estado estático de Einstein (ESS) y una fase
inflacionaria que conduce a nuestro universo presente, dinámico y en expansión.
El propio universo estático de Einstein se consideró originalmente como un pasado eterno.
Pero hay problemas obvios con este modelo. La razón por la que el propio Einstein la abandonó
fue su característica de equilibrio inestable. Aunque, en la GTR no cuántica pura, uno puede
considerar un estado estático con líneas de mundo que se remontan al tiempo infinito negativo,
en realidad sabemos que la gravedad es una fuerza cuántica. Como señala Vilenkin, “Las
pequeñas fluctuaciones en el tamaño del universo son inevitables según la teoría cuántica y, por
lo tanto, el universo de Einstein no puede permanecer en equilibrio durante un tiempo infinito”
[Vilenkin, 2006, p. 209]. Por otro lado, se puede demostrar que el universo observable actual no
se encuentra en un estado estático. Por lo tanto, sería necesario que haya al menos dos etapas en
un modelo de este tipo, una EEE primordial seguida de una fase de expansión. Una fluctuación
cuántica forzaría una transición de ESS a un universo en expansión. Pero este mismo mecanismo
implica que el estado inicial no es eterno pasado, ya que tal fluctuación ocurrirá inevitablemente
dentro de un tiempo finito.17
Para preservar la eternidad pasada, se podría afirmar que el estado estático es sólo un "punto
ideal" abordado asintóticamente en el infinito pasado. Sin embargo, algunos filósofos han
expresado reservas sobre la naturaleza artificial del infinito pasado que aparece en tal
interpretación. Las flechas cosmológicas (y termodinámicas) del tiempo son tan débiles que son
indistinguibles de un "estado atemporal". Por ejemplo, Rüdiger Vaas, al caracterizar los modelos
Emergentes como "soft-bang / pseudo-comienzo" en la naturaleza, ve el enfoque asintótico hacia
ESS como un artefacto matemático [Vaas, 2004, p. 18].
Otro problema con estos modelos es el ajuste fino implícito del estado inicial. Una forma de ver
esto es imaginar comenzar en el presente y extrapolar la historia pasada del universo. ¿La
evolución resultante, con alta probabilidad, producirá un estado ESS? No, tal resultado es
improbable. Ellis es sensible al problema del ajuste fino, pero cree que vale la pena seguir su
enfoque en ausencia de una resolución gravitacional cuántica [Ellis y Maartens, 2004, p. 228].
Después de su trabajo inicial en modelos emergentes, que se basaron únicamente en GTR, Ellis
junto con sus colegas integraron un enfoque de gravedad cuántica en sus modelos. El colega de
Ellis, David Mulryne, explica: “La importancia del [estado de equilibrio descrito por la gravedad
cuántica] es que, en contraste con la solución [ESS] presente en GTR, las pequeñas
perturbaciones no dan como resultado una divergencia exponencial del universo estático, pero,
en cambio, conducen a oscilaciones al respecto ”[Mulryne et al., 2005, p. 6]. El ESS ahora se ve
como una solución de "baja energía" de gravedad cuántica de bucles (LQG) para hacer que el
estado de Einstein sea estable frente a perturbaciones de tamaño limitado. El teórico de LQG
Martin Bojowald explica cómo Mulryne et al. use el mecanismo de perturbación para hacer que
una oscilación inicialmente estable escape a la inflación total:
Las soluciones estáticas no evolucionan y, por lo tanto, son claramente inadecuadas como
modelo para el Universo. Pero al introducir una perturbación en una solución estática, se
puede cambiar ligeramente y así comenzar una historia más interesante.
Desafortunadamente, la solución clásica [ESS] es inestable: cualquier perturbación crece
rápidamente, dejando atrás poco del estado inicial. La idea de Mulryne y sus colegas es que
los efectos cuánticos podrían proporcionar todos los ingredientes necesarios donde las
soluciones clásicas no lo hacen. En el marco de la gravedad cuántica de bucles, la repulsión
también implica soluciones estáticas de pequeño tamaño, pero estas, a diferencia del caso
clásico, son estables. Según el modelo de los autores, perturbar tal estado conduce a
pequeños ciclos de intercambio de expansión y contracción. Durante este proceso, la materia
evolucionará lentamente, y los ciclos cambiarán gradualmente su comportamiento. Por sí
mismo, esta recurrencia perpetua y cambio incremental parece carecer de la chispa necesaria
para un evento tan trascendental como el nacimiento del Universo. Y de hecho, Mulryne y sus
colegas identifican un ingrediente teórico final que enciende esta chispa: mediada por efectos
repulsivos, la energía potencial se empuja gradualmente hacia la materia durante su lenta
evolución. En el momento en que la energía potencial comienza a dominar la energía cinética,
el ciclo mundano se rompe por una repentina y dramática explosión inflacionaria: el Universo
emergente [Bojowald 2005, págs. 920-1; nuestro énfasis]. Mulryne y sus colegas identifican
un ingrediente teórico final que enciende esta chispa: mediada por efectos repulsivos, la
energía potencial se empuja gradualmente hacia la materia durante su lenta evolución. En el
momento en que la energía potencial comienza a dominar la energía cinética, el ciclo
mundano se rompe por una repentina y dramática explosión inflacionaria: el Universo
emergente [Bojowald 2005, págs. 920-1; nuestro énfasis]. Mulryne y sus colegas identifican
un ingrediente teórico final que enciende esta chispa: mediada por efectos repulsivos, la
energía potencial se empuja gradualmente hacia la materia durante su lenta evolución. En el
momento en que la energía potencial comienza a dominar la energía cinética, el ciclo
mundano se rompe por una repentina y dramática explosión inflacionaria: el Universo
emergente [Bojowald 2005, págs. 920-1; nuestro énfasis].

¿Debería juzgarse infinito el pasado con tal enfoque? Hay una afirmación de sus autores sobre
una posible eternidad pasada: “El universo sufre una serie de oscilaciones no singulares en una
fase (posiblemente) pasada-eterna con el campo evolucionando monótonamente a lo largo del
potencial” [Mulryne et al. 2005, pág. 6].
Similar a los modelos Emergentes anteriores de Ellis et al., Que propusieron un punto ESS ideal
"alcanzado" en el pasado infinito, el modelo de Mulryne et al. propone que cualquier punto que
esté cerca del punto de equilibrio estable podría servir como un estado "inicial" para el modelo.
El tamaño del universo, entonces, oscila alrededor de este estado inicial, manteniendo siempre
un valor positivo distinto de cero. Esta oscilación tiene una amplitud que está asociada con un
tamaño máximo del universo (por oscilación) que llamaremos amax i (ver [Bojowald y Tavakol
2008a, figura 2] y [Mulryne et al. 2005, figura 7]). En ausencia de la propiedad de auto-
interacción del campo escalar φ, se dice que esta condición es perpetua. Pero la energía potencial
en el sistema debe crecer, obligando a amax a crecer con cada ciclo subsiguiente. Se dice que esto
introduce una flecha cosmológica del tiempo, que se basa en el aumento evolutivo de amax.
Consideraremos que la ecuación amax (t) es fundamental; el potencial V (φ) y el campo escalar
φ (t) se someten a ingeniería inversa para producirlo; ver [Ellis, Murugan y Tsagas 2004, texto
de la sección II y figura 1], [Mulryne et al. 2005, figura 5].
En el límite t → -∞, se desea que el cambio en ax (llamé mosle ∆a evolución) entre ciclos
asíntotas a cero. Nótese que el intervalo de tiempo entre un ciclo con amplitud máxima amax i +
∆a (con ∆a arbitrariamente pequeño) y el presente es finito; esto se muestra en el análisis
numérico en [Mulryne et al. 2005]. Entonces, si el proceso inicial para alcanzar amax i + ∆a tiene
una línea de tiempo finita, la línea de tiempo completa hasta el presente es finita.
Ahora, considere una fluctuación cuántica del factor de escala, ∆ una fluctuación. Este es un
mecanismo instantáneo separado por el cual el universo puede alcanzar un tamaño mayor. Para
el universo en amax [Bojowald y Tavakol 2008a, figura 2 y ecuaciones 32 y 33], y en el límite
asintótico pasado de un estado cuántico no comprimido,18la fluctuación es aproximadamente
proporcional a amax. Entonces, mirando al pasado infinito, ∆una fluctuación será >> ∆ una
evolución.
Esto sugiere dos cosas. Primero, cuando uno mira hacia el pasado, el tamaño (típico) de las
fluctuaciones del factor de escala eventualmente excede y domina el aumento evolutivo (en
amax) entre ciclos. Como podría describirlo Vaas, no existe una flecha cosmológica del tiempo
en esta región. En segundo lugar, no parece razonable afirmar que el universo necesitará una
cantidad infinita de tiempo para crecer de un axi a una amplitud de amax i + ∆a (donde ∆a puede
ser arbitrariamente pequeño). La probabilidad debe ser la unidad de que alcance ese objetivo
mediante una transición instantánea y discreta en un tiempo finito, en oposición al crecimiento
evolutivo continuo durante un tiempo infinito.
Además, dado que la fase inicial de este modelo presenta un universo oscilante, también
encuentra una objeción de entropía a la eternidad pasada (ver sección 4.5). Parece, entonces, que
la naturaleza eterna pasada de este modelo es un artefacto matemático. No es necesario rechazar
el modelo; uno simplemente nota que debe haber un origen temporal de algún tipo en el pasado
finito.
En resumen, aquí hay un contraejemplo de la noción de Pitts de que un pasado que carece de
una singularidad debe ser necesariamente eterno.19 Los modelos emergentes que presentan
(solo) un ESS basado en GTR son metaestables.20Una mejora del modelo emergente resuelve esta
inestabilidad proporcionando modificaciones basadas en cuántica a la ecuación de Friedmann.
Como dicen los autores, esto proporciona una mejora "parcial" de la objeción de metaestabilidad
y la objeción de ajuste fino [Mulryne et al., 2005, resumen]. Pero la naturaleza de las
fluctuaciones cuánticas exige que no se pueda tener una línea de tiempo infinita durante la cual
se produzca una evolución continua y arbitrariamente pequeña en el factor de escala. Nos parece
que esta objeción se aplicaría, en general, a construcciones asintóticamente estáticas. 21
Hasta ahora, entonces, sugerimos que existen buenos argumentos para creer que los modelos
de universo contemporáneos anteriores al Big Bang que se contraen, son estáticos o se expanden
(en promedio) implican un comienzo o son insostenibles. Los modelos en expansión obedecen a
un teorema de singularidad recién descubierto (BGV) y probablemente tengan un comienzo de
naturaleza cuántica. Los modelos de contratación presentados en la alternativa (1) parecen no
ser prometedores y no agregan nada al modelo estándar de Big Bang desde el punto de vista de
la explicación. Los modelos estáticos presentados en la alternativa (2) implican un comienzo,
pero no necesariamente describen cómo llegó a existir ese estado.

4.5 Universo eternamente cíclico


Entonces, ¿qué pasa con los modelos cíclicos, como se concibió en la opción (3) anterior? Según
estos modelos, el universo pasa por un ciclo en el que crece desde un tamaño cero (o casi cero)
hasta un máximo y luego se contrae de nuevo a su condición inicial. El universo en sí es periódico,
en el sentido de que pasa por muchos de esos ciclos, quizás un número infinito. La expansión
promedio del universo sería cero en un modelo cíclico "puro", ya que ciclo a ciclo, el universo
siempre experimenta cantidades exactamente iguales de expansión y contracción. Por tanto, un
modelo cíclico evade el teorema de BGV.
Los modelos cíclicos se enfrentan a un conocido problema termodinámico. Como señala
Vilenkin, "Un universo verdaderamente cíclico tiene un problema con el aumento de la entropía:
ya debería haber alcanzado el equilibrio termodinámico" [com. Pers. comm., 19 de enero de
2008]. Nuestra observación del universo actual indica que no estamos en una condición de
equilibrio termodinámico, algo bueno para nosotros, ya que la vida requiere condiciones de no
equilibrio para existir. Al mirar hacia el pasado, también se cree que el tamaño de cada ciclo
disminuye (debido al efecto de la radiación sobre la entropía; ver [Barrow y Dabrowski, 1995]).
Eventualmente, se podría alcanzar una "entropía de Planck" (la moneda mínima de intercambio
de entropía), lo que excluiría la existencia de ciclos aún anteriores. También puede ocurrir un
problema similar al encontrado para una cosmogonía asintóticamente estática. Si uno está
intentando una ontología realista, la evolución hacia atrás de un modelo cíclico debe detenerse
una vez que las fluctuaciones cuánticas en volumen sean del mismo tamaño que el valor esperado
de volumen. Se puede continuar con la búsqueda del problema (el trasfondo clásico desaparece)
en un enfoque cuántico completo (comunicación personal con Martin Bojowald, 15-04-2010). Si
esto significa que el tiempo "desaparece" o que la flecha del tiempo se invierte, las implicaciones
se discuten en la sección 4.6.
Los cosmólogos Thomas Banks y Willy Fischler sostienen que un espacio de contratación lleno
de campos cuánticos tendrá una propiedad "ergódica" a medida que el espacio se contraiga. Sus
campos se excitan mucho a medida que uno se acerca al final de la contracción, y estos campos
producirán fluctuaciones caóticas. La materia creada espontáneamente con una ecuación de
estado diferente dominará la densidad de energía. Eso y la falta de homogeneidad de las
fluctuaciones evitarán el ciclismo. Banks y Fischler incluso sugieren que los campos producirán
espontáneamente un "fluido" denso de agujeros negros que conducirán a una condición que
denominan "Black Crunch" [Banks y Fischler, 2002] para estados arbitrarios que se acercan a la
contracción total.22
Martin Bojowald y colaboradores [Bojowald, Maartens y Singh, 2004], [Bojowald 2006],
[Bojowald y Tavakol 2008a, 2008b] han realizado una cantidad significativa de trabajo en la
construcción de modelos cíclicos contemporáneos para abordar estas dificultades. El enfoque
LQG parece resolver admirablemente la singularidad en sus pruebas iniciales contra modelos
simples (homogéneos) [Ashtekar, Pawlowski y Singh 2006], [Bojowald 2007], aunque no está
claro si este enfoque resuelve todos los problemas planteados por los oponentes. como Banks y
Fischler.23
En 2006, Bojowald sugirió la posibilidad de que la fase de colapso de cada oscilación redujera
la entropía (ver [Craig y Sinclair 2009, p. 172]). Quizás el universo no gane de forma acumulativa
ciclo a ciclo de entropía. Pero si es así, esto podría conducir a un problema diferente en el sentido
de que es posible interpretar un colapso reductor de entropía en términos de una flecha de
tiempo invertida; por tanto, el "colapso" es en realidad otro universo en expansión.
Retomaremos esta cuestión en la sección 4.6.
En 2008, Martin Bojowald y Reza Tavakol consideraron la sugerencia opuesta; la entropía se
gana monótonamente de un ciclo a otro. La compresión cuántica del par de variables conjugadas
V (volumen) y P (momento) del universo se identificó como un contribuyente de entropía sin
paralelo clásico. Curiosamente, el modelo de gravedad cuántica ahora muestra el mismo
comportamiento con respecto a la ganancia de entropía que [Barrow y Dabrowski, 1995] señalan
para los modelos clásicos en su artículo:
Una pregunta interesante es si en un modelo cíclico uno espera genéricamente tener un
número finito o infinito de ciclos pasados. El problema con el caso finito es que no resuelve
la cuestión del origen. En los escenarios emergentes, así como en algunos otros modelos
similares, se supone que el universo ha pasado por un número infinito de ciclos pasados para
eliminar la cuestión del origen. En ese caso, cualquier ciclo dado tendría un número infinito
de precursores y, por lo tanto, genéricamente tenemos que esperar que el estado actual sea
exprimido ... La pregunta entonces es cómo se determina el exprimido en un ciclo genérico.
Si cada ciclo produce la misma cantidad de compresión, un ciclo genérico tendría estados
infinitamente comprimidos, que no podrían ser semiclásicos ... Para ciclos de crecimiento,
como en el escenario emergente, el cambio en la compresión es inicialmente pequeño y se
acerca a cero para los ciclos en el pasado infinitamente distante. Dependiendo del escenario
preciso, la suma de todas las contribuciones exprimidas puede converger, de modo que
resulte un valor finito para un ciclo genérico. [Bojowald y Tavakol 2008a, p. 8, nuestro
énfasis]

De igual manera Aguirre comenta:


Para que un observador a lo largo de esa línea de mundo perciba una flecha del tiempo (AOT),
debe ver la generación de entropía neta local. Para el pasado, parece la destrucción de la
entropía. En una vecindad finita, hay entropía finita, por lo que yendo lo suficientemente lejos
'al pasado' la entropía debe (a) asíntota a una constante, (b) comenzar a aumentar
nuevamente, o (c) volverse mal definida como una singularidad es encontrado. [Aguirre
2007, pág. 30]
Entonces, evitar una inversión de la AOT requiere entropía para asíntota a una constante en el
pasado infinito. En un modelo cuántico, la compresión de estados será un factor para lograr esto.
En su artículo, Bojowald y Tavakol sugieren tanto que un estado especial "no comprimido"
representa la asíntota y que es problemático afirmar que tal estado existió. Bojowald [pers. com.
15 de abril de 2010] nos ha indicado que hubo más problemas desde que se descubrió con sus
supuestos y los de Tavakol sobre la monotonicidad de las variables. Entonces, al momento de
escribir este artículo, el problema de estructurar la entropía para que sea infinitamente
subdivisible permanece.
Volviendo a la discusión general; supongamos que la entropía total se puede mantener
constante con ciclos acumulativos y que las fases de contracción no se reinterpretan como si
tuvieran una flecha de tiempo invertida. Queda el problema de la energía oscura, que puede tener
el potencial de detener el ciclo e inducir una expansión abierta. El efecto actual de la energía
oscura observado empíricamente, por ejemplo, parece adecuado para producir una expansión
acelerada y sin límites. Este resultado sería definitivo si la energía oscura tiene la forma de una
constante cosmológica (es decir, si su valor es independiente del espacio y el tiempo; ver [Barrow
y Dabrowski, 1995]). De hecho, la expansión acelerada y sin límites parece ser el destino del
universo actual [Overbye, 2006]. Si se niega una ganancia de entropía (ciclo a ciclo), entonces la
amplitud de la oscilación (factor de escala máximo experimentado por el universo) es constante.
Pero entonces uno nunca podría tener más de un "ciclo", porque la constante cosmológica
conduciría a una expansión abierta la primera vez. Por tanto, la singularidad cosmológica inicial
(nuestro Big Bang) representaría un comienzo absoluto.
Hay algunos modelos cíclicos genuinamente exóticos que pretenden escapar de estos
problemas (ver [Craig y Sinclair, 2009] para un análisis de varios modelos cíclicos actuales en las
discusiones cosmológicas contemporáneas). Un intento fascinante de contrarrestar los
problemas de entropía y energía oscura mencionados anteriormente es la Cosmogonía
Conformal Cíclica de Roger Penrose [Penrose, 2006]. Penrose sugiere una solución al problema
de la entropía diciendo que la “singularidad” inicial es lo mismo que la expansión abierta de tipo
De Sitter que nuestro universo parece estar a punto de experimentar. Su equivalencia
matemática se demuestra mediante una transformación conforme apropiada de un estado a otro.
Penrose explica cómo debemos pensar sobre esta situación:
Físicamente, podemos pensar que nuevamente en un futuro muy remoto, el universo 'olvida'
el tiempo en el sentido de que no hay forma de construir un reloj con material simplemente
invariante conforme. Esto está relacionado con el hecho de que las partículas sin masa, en la
teoría de la relatividad, no experimentan ningún paso del tiempo ..... Con invariancia
conforme tanto en el futuro remoto como en el origen del Big-Bang, podemos intentar
argumentar que los dos Las situaciones son físicamente idénticas, por lo que el futuro remoto
de una fase del universo se convierte en el Big Bang de la siguiente [Penrose, 2006, p. 2761].

Penrose admite que su punto de vista es heterodoxo en el sentido de que, para que se obtenga
este escenario previsto, todos los fermiones masivos y las partículas masivas cargadas deben
desaparecer a la radiación, incluidos, por ejemplo, los electrones libres. Admite que
(actualmente) no hay justificación para plantear esto.
La Cosmogonía Conformal Cíclica se basa en la Hipótesis de la Curvatura de Weyl (WCH) y la
implementación de Paul Tod de esta idea dentro de GTR [Tod, 2003]. WCH se define de la
siguiente manera:
La curvatura de Weyl es el tipo de curvatura cuyo efecto sobre la materia es de naturaleza
distorsionante o de marea, en lugar del reductor de volumen de las fuentes materiales ... La
conjetura física a la que me refiero como hipótesis de la curvatura de Weyl afirma que (en
algunos casos apropiados sentido) la curvatura de Weyl está restringida a cero (o al menos
muy pequeña) en las singularidades iniciales, en el universo físico real [Penrose 2005, págs.
765, 768].

Penrose describe la técnica matemática necesaria para unir una singularidad a una expansión de
De Sitter máximamente extendida:

La formulación de Tod de WCH es la hipótesis de que podemos unir un límite de


hipersuperficie (similar a un espacio pasado) al espacio-tiempo en el que la geometría
conforme se puede extender matemáticamente sin problemas a través de él, hasta el lado
pasado de este límite. Esto equivale a 'estirar' la métrica por un factor conforme Ω que se
vuelve infinito en la singularidad del Big Bang, de modo que obtenemos una métrica suave
ĝab que en realidad se extiende a través de este límite. Hasta ahora, consideramos el "espacio-
tiempo" conforme antes del Big Bang como una ficción matemática, introducida únicamente
con el fin de formular WCH de una manera matemáticamente ordenada. Sin embargo, mi
propuesta 'indignante' ... es tomar esta ficción matemática en serio como algo físicamente
real [Penrose 2006, p. 2761].

Una falla potencial de este enfoque es la supuesta correspondencia entre la curvatura de Weyl y
la entropía. La correspondencia parece lo suficientemente clara cuando se considera la
estructura de la singularidad inicial del Big Bang, dado su pequeño estado de entropía que se
desvanece. Pero mientras que el estado final del universo similar a De Sitter también minimiza
la curvatura de Weyl, su entropía se maximiza. Como un agujero negro que obedece a la ley de
entropía de Hawking-Bekenstein, un espacio de De Sitter tiene un horizonte cosmológico con
entropía proporcional a su área. Generalmente se cree que este estado representa la máxima
entropía que puede caber dentro del horizonte.
Penrose ha optado recientemente por considerar la entropía del horizonte cosmológico como
falsa e invocar la pérdida no unitaria de información en los agujeros negros para igualar la
entropía (extremadamente pequeña) en el límite [Penrose 2009, p. 15]. Penrose atribuye la gran
entropía en los últimos tiempos del universo (pero antes de la desintegración significativa de la
población de agujeros negros del universo) a los grados de libertad internos de los agujeros
negros. Luego sugiere que en CCC la entropía del universo se "renormaliza", de modo que
podamos descontar la contribución de entropía del horizonte cuando todos los agujeros negros
se hayan evaporado.
Por otro lado, parece, a pesar de Penrose, que la entropía del horizonte cosmológico debe tener
un significado físico, ya que la entropía del sistema similar a De Sitter fuera de un agujero negro
debe ser mayor que la del propio agujero negro. Porque si no fuera así, la física de la
desintegración del agujero negro (de la que depende el escenario de Penrose) no funcionaría
correctamente. La desintegración del agujero negro es en realidad un sistema dinámico que es
la suma de la energía perdida por la radiación de Hawking más la energía ganada por la absorción
de materia local creada por las fluctuaciones térmicas debidas a la temperatura de De Sitter
Gibbons-Hawking. El mero hecho de estas fluctuaciones térmicas sugiere que la entropía del
horizonte cosmológico es una manifestación física real en contraposición a un truco contable.
Como experimento mental, uno puede imaginar lo que sucede a medida que se agrega más y
más materia externa (además de la agregada por las fluctuaciones térmicas del entorno externo)
a un agujero negro. ¿Existe un tamaño máximo? A medida que el agujero negro se agranda, su
temperatura desciende, acercándose a la del fondo cósmico. De hecho, en cierto punto, el agujero
negro se vuelve físicamente indistinguible de un horizonte cósmico y puede identificarse como
tal. En ningún momento se vuelve irreal. Por lo tanto, parece injustificado abrazar la última
posición de Penrose (2009), y muy pocos físicos han sido persuadidos por la marca no unitaria
de física cuántica de Penrose.
En resumen, mientras que la curvatura de Weyl es la misma entre los dos estados que Penrose
desea decir que son idénticos, la entropía no lo es. Nos parece, entonces, que los dos estados no
pueden ser idénticos. Por lo tanto, cuestionamos la viabilidad de CCC.
Parece, entonces, que los modelos cíclicos no evitan la conclusión de que el tiempo tuvo un
comienzo. Las objeciones termodinámicas a los modelos cíclicos, cuyas anticipaciones "clásicas"
se vieron en los primeros trabajos de Richard Tolman en la década de 1930 [Tolman, 1934],
todavía parecen encontrar apoyo. La entropía debería aumentar de ciclo a ciclo, lo que implica
que (1) ahora deberíamos estar en una “muerte por calor” termodinámica (que no lo estamos) y
(2) el tamaño máximo (factor de escala) del universo debería crecer con cada ciclo. Este
comportamiento "clásico" a gran escala probablemente termina cuando (mirando hacia el
pasado) el tamaño del ciclo se reduce a la física de Planck. Si se niega la ganancia de entropía,
entonces la observación empírica de una constante cosmológica de tamaño suficiente para
conducir a una expansión abierta en lugar de una contracción futura (este parece ser el destino
de nuestro universo) también implica que no puede haber habido un ciclo anterior. Si nuestro
futuro incluye un regreso a una condición singular, entonces, como afirma Banks (recordando
nuestra discusión anterior sobre el caos de BKL), “Parece tonto imaginar que, incluso si [una
condición singular futura para el universo] es seguida por una re-expansión, que uno comenzaría
esa expansión con un estado inicial de baja entropía, o que uno tenía algún control sobre el estado
inicial ”[pers. com. 17 de octubre de 2008]. incluso si [una condición singular futura para el
universo] es seguida por una re-expansión, que uno comenzaría esa expansión con un estado
inicial de baja entropía, o que uno tuviera algún control sobre el estado inicial en absoluto ”[pers.
com. 17 de octubre de 2008]. incluso si [una condición singular futura para el universo] es
seguida por una re-expansión, que uno comenzaría esa expansión con un estado inicial de baja
entropía, o que uno tuviera algún control sobre el estado inicial en absoluto ”[pers. com. 17 de
octubre de 2008].

4.6 Flecha del tiempo inverso


Existe un debate de larga data en los círculos cosmológicos sobre cómo interpretar las fases del
universo que reducirían la entropía. No hay necesidad (en GTR) de que las flechas cosmológica
y termodinámica del tiempo se alineen entre sí, aunque parecen hacerlo en la era actual de
nuestro universo. Este debate tiene consecuencias para la discusión de origen cósmico. Por
ejemplo, en los modelos inflacionarios, el teorema BGV parece excluir un pasado sin comienzo.
Pero supongamos que se toma un modelo que presenta una contracción, un rebote a través de
un estado casi singular y luego una expansión. Dicho modelo se enfrenta a objeciones de ajuste
como las que se analizan en la sección 4.1. Sin embargo, es posible (re) considerar la fase de
contracción como si tuviera una flecha invertida del tiempo. El límite que anteriormente
representaba el "rebote" ahora bisecará dos simétricos,
En tal punto de vista, el espacio-tiempo es extensible más allá del límite para un observador,
mirando hacia atrás en el tiempo, desde cualquier lado. ¿Implica esto una eternidad pasada? Los
cosmólogos Anthony Aguirre y Steve Gratton creen que sí. Han empleado el concepto para crear
un “modelo de inflación de estado estacionario eterno” [Aguirre y Gratton 2002]. Para visualizar
su idea, comience con la foliación estándar del espacio de Sitter como algo parecido a un reloj de
arena. El ancho del vidrio representa el factor de escala del universo. La altura vertical
(apuntando hacia arriba) es el tiempo. Por lo tanto, el espacio se reduce a un radio mínimo y
luego rebota en una expansión. En este entendimiento, no es posible que uno tenga una "inflación
eterna pasada". Borde, Guth y Vilenkin explican:

La razón intuitiva por la que la inflación de De Sitter no puede ser eterna es que, en el espacio
completo de De Sitter, la expansión exponencial está precedida por una contracción
exponencial. Esta fase de contracción no forma parte de los modelos inflacionarios estándar
y no parece ser coherente con la física de la inflación. Si las regiones termalizadas fueran
capaces de formarse hasta el infinito pasado en el espacio-tiempo en contracción, todo el
universo se habría termalizado antes de que pudiera comenzar la expansión inflacionaria
[Borde, Guth y Vilenkin, 2003, p. 1].

Para obtener un resultado diferente, Aguirre y Gratton optan por interpretar el espacio de Sitter
de acuerdo con un procedimiento sugerido por primera vez por Erwin Schrödinger en 1956.
Utilizando el “espacio elíptico de Sitter”, reasignan el reloj de arena dividiéndolo en dos a lo largo
de una línea desde la parte superior. izquierda a la parte inferior derecha. Para todos los efectos,
estos son dos universos separados. Maulik Parikh explica cómo se ve esto para los observadores
antípodas en lados opuestos de la división:
El mapa antípoda, XI → −XI, [donde 'I' es un ı́ndice dimensional] cambia el signo de la
coordenada temporal del espacio de inserción, y también el de la dirección del tiempo en el
espacio de De Sitter. El espacio cociente resultante, dS / Z2, no es, en consecuencia, orientable
en el tiempo: aunque uno puede distinguir localmente el pasado y el futuro, no existe una
dirección global del tiempo. Este hecho claramente cambia muchas nociones estándar sobre
el espacio y el tiempo a las que estamos acostumbrados. Por ejemplo, es imposible elegir una
superficie de Cauchy para el espacio elíptico de Sitter que divide el espacio-tiempo en una
región futura y una pasada [Parikh et al., 2002, p. 6, énfasis añadido].

Aguirre y Gratton explican la relación entre las dos regiones desconectadas:


En esencia, esta construcción divide el espacio-tiempo completo de De Sitter en un conjunto
autoconsistente de dos universos no comunicantes [estado estacionario]. Un observador en
la región I no ve nada en su cono de luz pasado de un observador en la región II porque ese
otro observador no puede enviar señales a su pasado, y viceversa. Visto de esta manera, la
condición de límite que prohíbe a las partículas físicas seguir a las geodésicas a través [del
límite] - en un universo no es de ninguna manera extraña o irrazonable, ya que se sigue
directamente de la prohibición de violaciones de causalidad en el otro universo. (De manera
similar, se podría dividir el espacio-tiempo de De Sitter por cualquier límite B no temporal a
partir del cual fluye el tiempo).
… .. Sin la identificación, la variedad espacio-tiempo es orientable en el tiempo en el
sentido matemático de que es posible dividir continuamente vectores no espaciales en dos
clases que pueden etiquetarse como "futuro" y "pasado". En nuestra construcción, estas
etiquetas solo corresponderán a la [flecha del tiempo] física en una de las dos regiones. Con
la identificación, el espacio-tiempo sigue siendo una variedad, pero no es matemáticamente
orientable en el tiempo. Sin embargo, la [flecha del tiempo] física todavía está bien definida y
ningún observador físico la verá al revés [Aguirre y Gratton, 2002, p. 3, énfasis añadido].

Como puede verse, ninguna región del espacio reasignado se encuentra en una relación anterior
a la otra. No existe una definición global de tiempo. Como señala Parikh anteriormente, es
imposible determinar una región pasada y futura (al considerar el reloj de arena completo). Un
asunto de cierta importancia es que no hay comunicación; no hay causalidad por definición de
una región a otra. Por lo tanto, se puede decir que no existe un pasado eterno que se haya
convertido en nuestro presente. De modo que el uso de Aguirre y Gratton del término "pasado
eterno" parece ser idiosincrásico en el sentido de que interpretan la capacidad de uno para
dibujar geodésicas "completas" (que significa "de un extremo del espacio-tiempo al otro",
aunque ningún observador o cadena causal pudo atravesarlos) de un extremo a otro en un
gráfico para ser una condición suficiente de "eterno".
Aguirre y Gratton concluyen: “Sospechamos que una construcción como la que aquí se propone
puede ser necesaria en cualquier modelo razonable de un universo eterno que evite el comienzo
del tiempo” [Aguirre y Gratton, 2002, p. 6]. Sugerimos, por el contrario, que si tienen razón,
entonces se ha demostrado el comienzo de los tiempos. En lugar de un universo eterno pasado,
uno tiene un multiverso finito pasado. Este modelo es un ejemplo perfectamente viable de un
modelo cosmológico que evita los teoremas de singularidad pero todavía "comienza a existir", a
pesar de una extensibilidad técnica pasada a través de la frontera.
Podemos reanudar aquí nuestra discusión de modelos cíclicos en la sección 4.5. Martin
Bojowald ha argumentado recientemente que los eventos de rebote de un modelo cíclico en
realidad representan un escenario similar al “doble Big Bang” de Aguirre-Gratton descrito
anteriormente. Las mediciones de un estado del universo "después" de un rebote no se pueden
utilizar de manera realista para derivar el conocimiento del estado del universo "antes" del
rebote. Por tanto, el modelo contiene el "olvido cósmico" como una característica destacada. De
manera similar, un observador justo “antes” de un rebote encontraría que los intentos de
predecir el futuro posterior al rebote también sufren de olvidos cósmicos. Bojowald interpreta
la situación de la siguiente manera:
El tipo de olvido cósmico realizado en este modelo proporciona una orientación del tiempo,
diciéndonos no solo qué propiedades antes del big bang pueden olvidarse, sino también qué
dirección es "antes del big bang". Un observador después del rebote sería incapaz de
reconstruir el estado completo antes del rebote, pero podría predecir fácilmente el desarrollo
futuro hacia un volumen mayor. Esta flecha concuerda con la noción estándar.
Ahora, preguntando cómo un observador antes del Big Bang experimentaría la misma
situación, la respuesta también es clara: tal observador sería incapaz de determinar el estado
preciso en valores más grandes de φ [que es un campo de materia utilizado en el papel de un
reloj ] más allá del rebote, pero podría extrapolar fácilmente el estado a valores más
pequeños de φ [la dirección que se aleja del 'rebote']. Se puede predecir el estado con valores
más pequeños de φ, mientras que el estado con valores grandes de φ se olvida una vez que
se penetra el rebote. Dado que uno no puede olvidar el futuro, a ese observador se le debe
atribuir una flecha de tiempo invertida, apuntando hacia φ más pequeño. En el rebote,
emergerían dos flechas apuntando en direcciones opuestas en lo que respecta a φ. En este
sentido, el modelo se parece a [Aguirre-Gratton y sugerencias similares de otros dos equipos
de modelado utilizando métodos diferentes]… ..
Tomar los modelos más simples de la cosmología cuántica de bucles al pie de la letra a
menudo se ve como una sugerencia de que la transición del Big Bang debe verse como un
rebote suave, como un elemento más no solo en una larga historia del universo en sí, sino
también en una larga historia de rebotes. modelos cosmológicos. Sin embargo, algunas
indicaciones sugieren lo contrario. El escenario floreciente de la cosmología cuántica de
bucles bien puede ser el siguiente: un universo a cuya prehistoria invertida en el tiempo no
podemos acceder, pero que captamos en la forma de condiciones iniciales que proporciona
para nuestra parte accesible; un pseudo-comienzo; un universo huérfano, mostrado el
trasero por lo que lo precedió (y posiblemente lo creó) [Bojowald 2009, p. 15 (énfasis
agregado).

Recuerde que habíamos discutido anteriormente el desglose de modelos que presentan un


trasfondo clásico más fluctuaciones cuánticas. Una resolución hipotética es pasar a un modelo
de gravedad cuántica completo. ¿Produciría esto una eternidad pasada? Bojowald sugiere que
produce una flecha de tiempo invertida al otro lado del límite. Pero, como los momentos de un
lado de la frontera no son en ningún sentido anteriores a los momentos del otro lado, no habría
pasado infinito.
HD Zeh, en el mismo volumen en el que aparece el ensayo de Bojowald, da una justificación
independiente para aceptar la interpretación del límite como un origen en oposición a un
“rebote”. La función de onda de Wheeler-DeWitt (WDW) (en la que se basa la gravedad cuántica
de bucle) sería simétrica en ambos lados de un "rebote". Esto sugiere que lo que uno realmente
tiene es un "doble Big Bang" proveniente del mismo evento de creación. Zeh también sugiere que
la aproximación semiclásica que define el tiempo en un enfoque WDW no puede, con validez,
extenderse "a través" de un rebote. Por último, el estado inicial de baja entropía es común para
todas las ramas de la función de onda.
De acuerdo con la cosmología cuántica de bucles, la ecuación de Wheeler-DeWitt (en esta
teoría reemplazada por una ecuación en diferencia con respecto al [factor de escala] a) puede
continuarse a través de a = 0 hasta valores negativos de a. De esta manera, el espacio de
configuración de las tres geometrías se duplica dejando que la medida de volumen asuma
valores negativos (girando el espacio "de adentro hacia afuera" mientras pasa por a = 0). Sin
embargo, dado que el hamiltoniano no depende del signo recién inventado de a, también se
debe esperar que la función de onda de Wheeler-DeWitt sea simétrica bajo esta
transformación de paridad. Entonces, su continuación tendría que interpretarse como una
superposición adicional de otros universos en expansión física. Dado que los tiempos WKB,
que representan el tiempo clásico, no pueden continuar hasta a = 0, la interpretación de los
valores negativos de a como representativos de tiempos anteriores al Big Bang es muy
cuestionable. La flecha fundamental, incluida su consecuencia de la decoherencia fuera de la
validez de una aproximación WKB, debe depender de alguna condición "inicial" de baja
entropía en a para todos los demás grados de libertad ("espaciales") que se producen como
argumentos físicos de Wheeler-DeWitt función de onda. Sería difícil entender cómo el estado
de baja entropía en a = 0 podría haber sido "precedido" por una entropía aún menor en a <0
para evitar una inversión de la flecha termodinámica en la imagen clásica de un universo
oscilante. [Zeh 2009, pág. 11-12, énfasis en el original] debe depender de alguna condición
"inicial" de baja entropía en a para todos los demás grados de libertad ("espaciales") que
ocurren como argumentos físicos de la función de onda de Wheeler-DeWitt. Sería difícil
entender cómo el estado de baja entropía en a = 0 podría haber sido "precedido" por una
entropía aún menor en a <0 para evitar una inversión de la flecha termodinámica en la
imagen clásica de un universo oscilante. [Zeh 2009, pág. 11-12, énfasis en el original] debe
depender de alguna condición "inicial" de baja entropía en a para todos los demás grados de
libertad ("espaciales") que ocurren como argumentos físicos de la función de onda de
Wheeler-DeWitt. Sería difícil entender cómo el estado de baja entropía en a = 0 podría haber
sido "precedido" por una entropía aún menor en a <0 para evitar una inversión de la flecha
termodinámica en la imagen clásica de un universo oscilante. [Zeh 2009, pág. 11-12, énfasis
en el original]

Desde este punto de vista, un enfoque cuántico de bucle predice un origen a partir del cual surge
un multiverso. La continuación a través del límite de "rebote" en realidad representa otros
universos en expansión física. Zeh y Claus Kiefer llegan a una conclusión similar argumentando
directamente a partir de la ecuación de Wheeler-DeWitt dentro del formalismo de la
geometrodinámica cuántica.
Uno podría preguntarse qué sucede en el caso de los modelos que describen clásicamente
cosmologías rebotantes: el Universo pasaría entonces por muchos, quizás infinitos, ciclos de
expansión y colapso. ¿Qué pasaría con la entropía en estos casos? Si la entropía estuviera
realmente correlacionada con el factor de escala, como sugiere el escenario discutido
anteriormente, la flecha del tiempo no continuaría a través de un punto de inflexión. Por
tanto, los modelos de rebote no tendrían sentido en cosmología cuántica; uno solo tendría
ramas de la función de onda en las que la flecha apuntaría de un universo pequeño a grande
y donde el tiempo terminaría al acercarse a un punto de inflexión clásico [Kiefer 2009, p. 9].
Las diferentes ramas cuasiclásicas de la función de onda que están conectadas por
"dispersión cuántica" en el punto de inflexión deben interpretarse como que todas representan
diferentes universos en expansión. , que desaparecen en el punto de inflexión por medio de
una interferencia destructiva (similar a su aparición como ramas separadas de Everett de un
estado inicial simétrico en el Big Bang) [Zeh y Kiefer, 1994, p. 4152, énfasis añadido].

Aquí, la física de Wheeler-DeWitt (con una condición de frontera de una función de onda que
desaparece) parece predecir la creación ex nihilo de un multiverso de Everett en lugar de un
colapso.
Recordando el modelo de Penrose, supongamos que concedemos su inversión en entropía
cuando uno mira hacia el futuro lejano del universo. También se puede interpretar que su
modelo tiene una flecha invertida del tiempo cuando se mira al "pasado" de una singularidad del
Big Bang, para obedecer una segunda ley de la termodinámica. Como tal, mostraría precisamente
el comportamiento citado anteriormente por los enfoques Aguirre-Gratton, Bojowald y Zeh-
Kiefer. Físicamente, la pregunta es si, en nuestro universo, se alinean varias flechas del tiempo
(termodinámica, cosmológica, electromagnética, psicológica). Filosóficamente, la cuestión es si
existe un tiempo metafísico subyacente que los tiempos físicos se manifiestan de diversas
formas.24 La extensibilidad, según este entendimiento, sería un artefacto técnico más que una
indicación de la eternidad pasada.
Situar el comienzo del tiempo clásico en un límite del pasado puede tener una implicación
dramática señalada por primera vez por el filósofo Quentin Smith. Los comentarios de Smith
estaban dirigidos a la interpretación de Hawking del tiempo imaginario que aparece en la
cosmogonía de la gravedad cuántica de Hartle-Hawking. Hawking estaba intentando postular
una fase de tiempo "imaginaria" para el universo que pasó a una fase de tiempo "normal"
posterior. Smith dice:
… .. tal interpretación es implícitamente lógicamente contradictoria [al presentar un eje de
'tiempo' que comienza como una dimensión espacial, pero luego se transforma en sus
propiedades familiares]. El problema aparece en la afirmación de que el espacio
tetradimensional se une al espacio-tiempo real (Lorentziano) 'una vez' (es decir, después)
los efectos de difuminado cuántico desaparecen: 'Entonces surge la pregunta sobre la
geometría del espacio tetradimensional que de alguna manera tiene que unirse suavemente
al espacio-tiempo más familiar una vez que los efectos de difuminado disminuyan ''. Si el
espacio de cuatro dimensiones no posee un valor de tiempo real, ¿cómo puede estar en
relación con el espacio-tiempo de cuatro dimensiones de ser anterior a él? Si el espacio de
cuatro dimensiones no está en tiempo real (Lorentziano), entonces no es realmente antes,
después de, o simultánea con la variedad de espacio-tiempo de cuatro dimensiones. En
consecuencia, es falso que la 4-esfera se una al espacio-tiempo familiar una vez (es decir,
después en tiempo real) que los efectos cuánticos se disipen [Smith, 1993, p. 318].

Smith más tarde demostró [Smith, 1997; 2000] que estas dos (en realidad tres; hay una región
de transición) "etapas" del modelo HH podrían coexistir coherentemente en el mismo modelo
sólo si se encontraban en un contexto "topológico" más primitivo. relación, 25en lugar de
temporal. Por lo tanto, si dos etapas de una cosmogonía no estuvieran en el mismo eje de tiempo,
entonces sería falso atribuirles una relación anterior o posterior a, aunque existiera la
extensibilidad entre las fases relevantes del universo. Recuerde, por ejemplo, que Penrose niega
un valor en tiempo real a su límite como una necesidad física. Cuando Penrose dice, "el futuro
remoto de una fase del universo se convierte en el Big Bang de la siguiente", su afirmación es
posiblemente incoherente en el contexto de su modelo.
Nos parece que la percepción de Smith se aplica en general a los modelos cosmológicos, ya
sean modelos relativistas generales clásicos (que por tanto incluyen singularidades) o modelos
de gravedad cuántica (que incluyen “regiones cuánticas fuertes”). La "primera" fase (que,
alternativamente, podría ser un límite de "transición" entre diferentes espaciotiempos clásicos
o semiclásicos) por definición no posee un valor de tiempo. Como señala Smith, debido a que una
fase del modelo que carece de un valor en tiempo real no es anterior, simultánea o posterior a
cualquier otro estado del universo (con respecto a una fase que sí tiene valores en tiempo real),
no es correcto decir que el universo evolucionó de algún estado "en" el límite a algún estado con
un valor en tiempo real.
Los propios teóricos cuánticos de bucles utilizan un lenguaje muy similar. 26Desde el punto de
vista de Smith (de manera similar, Ashtekar et al.), Parece correcto ver esta era como una
variedad primitiva con relaciones topológicas solo entre los "ciclos". Los ciclos de la era "más
temprana" parecen ser un conjunto de espaciotiempos desconectados que carecen de un orden
temporal. Uno podría igual de bien navaja27estos fuera. Uno se queda con un espacio-tiempo con
una línea de tiempo pasada finita y sin primer momento, que se convierte en un universo
macroscópico similar al nuestro.
Por tanto, parece que las «singularidades» se resuelven o no. Si es así, uno tiene un modelo
anterior al Big Bang y enfrenta problemas como una flecha del tiempo que desaparece, una flecha
del tiempo invertida y / o problemas de entropía. Si no (lo que significa que el tiempo se
'disuelve'), entonces no hay fases 'previas al Big Bang', ya que esas fases son inconmensurables
con respecto a nuestro universo similar a FRW.
Se recuerda la insistencia de Pitts en un primer momento como condición necesaria del
comienzo de los tiempos [Pitts, 2008, p. 677]. Precisamente la situación contraria puede darse,
genéricamente, en modelos de los tipos discutidos, a pesar de la extensibilidad técnica de las
geodésicas a través de la frontera. Sugerimos que esta situación representa una creación ex
nihilo tan seguramente como la singularidad del Big Bang en la cosmología estándar representa
en sí misma un comienzo absoluto.28
En resumen, entonces, nos parece que se puede argumentar fuertemente a favor de un
comienzo del universo con respecto a las cosmogonías anteriores al Big Bang (solo algunas de
las cuales involucran modelos no singulares), por lo que (9) es prescindible por lo que en lo que
respecta a la premisa (2) del argumento cosmológico kalām, independientemente de cuán crítico
pueda ser para el argumento de la singularidad imaginada de Pitts.

5.0 El comienzo del universo


Pero, ¿cuál es, podemos preguntarnos, la naturaleza del comienzo del universo si no es una
singularidad de tipo GTR? El marco más ampliamente discutido para abordar este problema es
el modelo de "túneles desde la nada" de Vilenkin o el modelo "sin límites" de Hartle-Hawking.29
Vilenkin observa,
Mucha gente sospechaba que para comprender lo que realmente sucedió al principio,
deberíamos tratar el universo de forma mecánica cuántica y describirlo mediante una
función de onda en lugar de un espacio-tiempo clásico. Este enfoque cuántico de la
cosmología fue iniciado por DeWitt y Misner, y después de un comienzo algo lento recibió un
amplio reconocimiento en las últimas dos décadas. La imagen que ha surgido de esta línea de
desarrollo es que un pequeño universo cerrado puede nuclearse espontáneamente de la
nada, donde por "nada" me refiero a un estado sin espacio y tiempo clásicos. La función de
onda cosmológica se puede utilizar para calcular la distribución de probabilidad para las
configuraciones iniciales de los universos nucleantes. Una vez que el universo se nuclea, se
espera que pase por un período de inflación, impulsado por la energía de un falso vacío. La
energía del vacío finalmente se termaliza, la inflación termina y, a partir de ese momento, el
universo sigue el escenario cosmológico caliente estándar [Vilenkin, 2002, p. 2; nuestro
énfasis].

Hartle y Hawking también afirman que su modelo cosmogónico se puede interpretar de tal
manera que, según esa interpretación, el universo nació de la "nada":
Se puede interpretar que la integral funcional de todas las cuatro geometrías compactas
limitadas por una geometría tres dada da la amplitud para que esa geometría tres surja de
una geometría cero tres; es decir, un solo punto. En otras palabras, el estado fundamental es
la probabilidad de que el Universo aparezca de la nada [Hartle y Hawking, 1983, p. 2961].

Según estos modelos, el universo claramente tiene un comienzo; pero ¿qué significa "nuclearse
de la nada"? Nos parece que hay cuatro formas posibles de interpretar esta noción:

1. La topología nula "inicial"30representa la nada literal. Uno podría imaginar que "nada", tal
como lo empleó Hartle-Hawking, tiene exactamente el significado relevante para el
argumento cosmológico kalām, a saber, la afirmación positiva del no ser. Si esto es lo que
se quiere decir aquí, entonces los modelos de este tipo presentan una creatio ex nihilo
inequívoca. Se mantiene la segunda premisa del argumento cosmológico kalām, y el
debate se desplaza hacia la primera premisa.
2. La topología nula "inicial" debe interpretarse de forma puramente instrumental. El propio
Hawking parece dar una buena base para tratar a Hartle y su propuesta como un enfoque
FAPP (es decir, "para todos los propósitos prácticos") solamente. El formalismo HH
considera una superposición de todas las geometrías cuánticas posibles, con nuestro
universo emergiendo como el más probable, y utiliza el enfoque de "suma sobre
historias" de Richard Feynman a la mecánica cuántica para predecir los observables del
universo. Este formalismo trata el tiempo, en la era de la gravedad cuántica, como una
cuarta dimensión espacial. Pero en su colaboración con Roger Penrose, La naturaleza del
espacio y el tiempo, Hawking emplea el mismo enfoque matemático (continuación
analítica) para describir la producción de pares de pares de electrones / positrones en un
campo eléctrico fuerte [Hawking y Penrose, 1996, p. 54]. Esta es una técnica matemática
estándar que a veces se usa cuando las funciones analíticas complejas se comportan
mejor en un determinado dominio que sus contrapartes reales. Sin embargo, no implica
un compromiso ontológico con la descripción alternativa. Nos parece que dada la
ininteligibilidad de la región del “tiempo imaginario” en estos modelos, es más razonable
tratar este régimen como una ficción útil. Por tanto, el modelo sólo sirve para reforzar la
segunda premisa del argumento cosmológico kalām.
3. La topología nula "inicial" es literalmente algo. Los intentos de tomar la interpretación del
tiempo imaginario de manera realista pueden tropezar con problemas similares a los que
señaló Smith [Smith 1993, 1997]. De hecho, un trabajo más reciente que utiliza
simulaciones por computadora de la evolución del espacio-tiempo sugiere que el espacio-
tiempo clásico no puede haber surgido de un espacio 4 euclidiano como el que se
visualiza en el modelo HH. Renate Loll, Jan Ambjorn y Jerzy Jurkiewicz explican:

En nuestra búsqueda de lagunas y cabos sueltos en el enfoque euclidiano, finalmente


llegamos a la idea crucial, el único ingrediente absolutamente necesario para hacer que la
mezcla salga bien: el universo debe codificar lo que los físicos llaman causalidad. La
causalidad significa que el espacio-tiempo vacío tiene una estructura que nos permite
distinguir sin ambigüedades entre causa y efecto. Es una parte integral de las teorías
clásicas de especial y GTR.
La gravedad cuántica euclidiana no se basa en una noción de causalidad. El término
'euclidiano' indica que el espacio y el tiempo se tratan por igual. Los universos que entran
en la superposición euclidiana tienen cuatro direcciones espaciales en lugar de la habitual
del tiempo y tres del espacio. Debido a que los universos euclidianos no tienen una noción
distinta de tiempo, no tienen una estructura para poner los eventos en un orden específico;
las personas que viven en estos universos no tendrían las palabras "causa" o "efecto" en
su vocabulario. Hawking y otros que adoptaron este enfoque han dicho que `` el tiempo es
imaginario '', tanto en un sentido matemático como en uno coloquial, y su esperanza era
que la causalidad emergiera como una propiedad a gran escala a partir de fluctuaciones
cuánticas microscópicas que individualmente no llevan la impronta de una causalidad.
estructura. Pero las simulaciones por computadora frustraron esa esperanza [Lolle,
Ambjorn, y Jurkiewicz, 2008, pág. 3].
En su enfoque de Triangulaciones Dinámicas Causales, se demuestra que la causalidad es una
característica fundamental necesaria para una cosmogonía que produce nuestro universo
observable. Lee Smolin explica la implicación:

Algunas de las ideas más creídas sobre la gravedad cuántica son, de hecho, erróneas. Por
ejemplo, Stephen Hawking y otros solían argumentar que la estructura causal no era
esencial y que los cálculos se podían hacer en gravedad cuántica ignorando las diferencias
entre el tiempo y el espacio (diferencias que existen incluso en la teoría de la relatividad)
y tratando el tiempo como si fuera otro. dimensión del espacio [tiempo imaginario]… .. Los
resultados de Ambjorn y Lolle muestran que esta idea es incorrecta.
… .. En particular, se demostró… .. que si no se pone ninguna restricción con respecto a la
causalidad, no surge la geometría clásica del espacio-tiempo… ..
Una de las reglas que imponen Loll y Ambjorn es que cada espacio-tiempo cuántico debe
verse como una secuencia de posibles espacios que se suceden, como los tics de un reloj
universal. La coordenada de tiempo, se argumenta, es arbitraria, como en GTR, pero el
hecho de que la historia del mundo pueda verse como una sucesión de geometrías que se
suceden no lo es [Smolin 2006, pp. 242–43].
Curiosamente, la trayectoria de la investigación de la gravedad cuántica tiende a corregir el
enfoque del "tiempo imaginario" y, al hacerlo, a afirmar la importancia de las relaciones
consistentes antes / después de y la causalidad fundamental.

4. La topología nula "inicial" está mal concebida. J. Richard Gott y Li Xin Li han criticado el
enfoque creatio ex nihilo de Vilenkin (y Hartle-Hawking) por dos motivos. Primero, las
transiciones en QM son siempre entre estados clásicos permitidos. Pero el enfoque de
Vilenkin y Hartle-Hawking tiene una transición de una región clásicamente prohibida a
una región clásicamente permitida. En segundo lugar, los enfoques de Vilenkin y Hartle-
Hawking deberían contener campos de energía realistas (algo más cercano a lo que
realmente vemos en la naturaleza). Si lo hicieran, entonces el principio de incertidumbre
de Heisenberg requeriría que el estado inicial de sus modelos tuviera una energía finita y
distinta de cero. Si ese es el caso, entonces los modelos cuánticos semiclásicos como los
de Vilenkin y Hartle-Hawking realmente comienzan en un estado metaestable
clásicamente permitido, en lugar de "nada". Gott y Li elaboran:

El problema con este modelo [Vilenkin y Hartle-Hawking] es que ignora la 'energía de


punto cero'. Si hay un campo escalar conforme ϕ, entonces los niveles de 'energía'
deberían ser En = n + 1/2. Incluso para n = 0 hay una 'energía de punto cero'. El potencial
hace que el sistema se comporte como un oscilador armónico en el pozo de potencial cerca
de a = 0. Un oscilador armónico no puede sentarse en el fondo del pozo de potencial; el
principio de incertidumbre no lo permitiría. Debe haber algo de energía de punto cero y la
partícula debe tener cierto impulso, ya que oscila dentro del pozo de potencial cuando se
incluye el campo ϕ. Por lo tanto, cuando se considera la 'energía puntual cero', vemos que
el estado inicial no es un punto, sino un pequeño universo del Big Bang oscilante (0 <a
<a1), que oscila entre big bangs y big crunches (aunque las singularidades en los big bangs
y big crunches pueden estar manchadas por efectos cuánticos). Este es el estado clásico
inicial a partir del cual se produce el túnel. Es metaestable, por lo que este universo
oscilante no podría haber existido para siempre: después de una vida media finita, es
probable que decaiga. Alcanza el radio máximo a1, y luego hace un túnel a un estado clásico
de De Sitter en el radio mínimo a2 donde a2 <a0 [Gott y Li, 1998, p. 38, énfasis nuestro].
a0 [Gott y Li, 1998, p. 38, énfasis nuestro]. a0 [Gott y Li, 1998, p. 38, énfasis nuestro].

Por lo tanto, parece que tenemos el mismo tipo de situación que encontramos con respecto al
modelo Emergente con su ESS metaestable asociada. El universo no puede ser más allá de la
eternidad porque el estado metaestable inicial sólo puede haber tenido una vida finita. La
interpretación de Gott-Li parece ser una opción razonable para una interpretación realista de
estos modelos.31Emplea interpretaciones conocidas y significativas de los fenómenos físicos de
la teoría cuántica "clásica" y las extiende a los modelos de gravedad cuántica. Se evitan los
problemas asociados con la novedad de afirmar una condición de energía cero para el estado
inicial (negada por el principio de incertidumbre de Heisenberg), la novedad de afirmar una
transición cuántica de un estado prohibido a uno clásicamente permitido (la teoría cuántica
normal incluye solo transiciones sobre o a través de regiones prohibidas de un estado permitido
a otro), y es consistente con campos de energía más realistas. Esta alternativa, por supuesto,
también es consistente con la segunda premisa del argumento cosmológico kalām.

6.0 Observaciones finales


En resumen, no hemos visto ninguna buena razón para negar que los espaciotiempos que
presentan una singularidad cosmológica inicial tengan un comienzo; pero aún más
fundamentalmente hemos visto que la afirmación de que el universo comenzó a existir no
depende de la naturaleza singular del espacio-tiempo. Además, nuestro estudio del pensamiento
cosmológico contemporáneo revela evidencia significativa de que los modelos no singulares
pueden ser en sí mismos incompatibles con un pasado infinito y, por lo tanto, los enfoques
gravitacionales cuánticos libres de singularidad pueden respaldar bastante la segunda premisa
del argumento cosmológico kalām. Entonces, cuando Pitts se preocupa, “no es inverosímil que
algunos apologistas teístas que manejan la singularidad se sientan tentados a resistir el progreso
científico en la forma de una nueva teoría cuántica de la gravedad para mantener una estrategia
apologética en la que han invertido” [Pitts, 2008, pág. 19], uno no puede evitar preguntarse quién
es el objeto de una acusación tan poco caritativa. Porque hemos visto que la segunda premisa del
argumento cosmológico kalām goza de un apoyo empírico considerable incluso si el espacio-
tiempo no es singular.

Expresiones de gratitud
Agradecemos a Martin Bojowald, Thomas Banks, George Ellis, Alexander Vilenkin, Donald Page,
Quentin Smith, Timothy McGrew, Rüdiger Vaas y Christian Böhmer por sus útiles discusiones y
comentarios.

Notas
1. Escribiendo en Cambridge Companion to Atheism, Quentin Smith informa, “un recuento de los artículos en las revistas de
filosofía muestra que se han publicado más artículos sobre… .. el argumento de Kalām que los que se han publicado sobre la
formulación contemporánea de cualquier otro filósofo de un argumento a favor de La existencia de Dios ”[Smith, 2007, p.
183]. Para la historia del argumento, ver Craig [1980]; para literatura y una defensa reciente del argumento, ver Craig y
Sinclair [2009].
2. En algunos lugares, Pitts reconoce esto: “La verdad de la segunda premisa [del argumento cosmológico kalām], o más bien,
la fuente de justificación para la segunda premisa, si es cierta, es la pregunta clave” [Pitts, 2008, p. 687; cf. pag. 676].
3. Entonces, argumentar (evitando la falacia de la composición) sería desafiar la verdad, no de (2), sino de (1), del argumento
cosmológico kalām. A veces, Pitts combina lo que en realidad son desafíos a (1) con objeciones putativas a (2). Por ejemplo,
su mención del tetradimensionalismo como una interpretación del espacio-tiempo “autoexplicativo” [Pitts, 2008, p. 688] es
un ejemplo de ello. Una vez más, el argumento del Destructor Cósmico de Pitts es realmente una objeción a (1): si la llegada a
la existencia del universo debe tener una causa, entonces también debe tener su cese de ser.
4. De paso, uno no puede evitar preguntarse cómo la imposición de restricciones topológicas a la doctrina de la creación en el
tiempo, como haría Pitts, es modalmente enriquecedora, como él afirma, ya que entonces hay mundos posibles (como,
aparentemente, el mundo real) en que el universo carece de un primer momento y, por lo tanto, no se puede decir, según
Pitts, que haya sido creado en el tiempo por Dios.
5. Es digno de mención que Earman, cuya objeción se hace eco de Pitts, al final no niega la aceptabilidad de nuestra explicación
de "comienza a existir", sino que simplemente advierte que en tal premisa de lectura (1) "no es una" verdad metafísica "obvia;
" en particular (1) no se sigue del principio de que todo evento tiene una causa, que se satisface en la cosmología relativista
general [Earman, 1995, p. 208].
6. NB, tanto el argumento de Pitts como nuestra respuesta se limitan a un universo falso donde GTR es la teoría fundamental
de la gravedad.
7. También notamos que no hay una buena razón para pensar que el convencionalismo métrico se mantenga en el mundo real.
Como se ha argumentado en otra parte [Craig, 2001, cap. 2], el convencionalismo métrico es una tesis inverosímil para la que
no existen buenos argumentos.
8. Al menos vale la pena señalar que Pitts, no contento con la promesa de la cosmología cuántica actual, llega a defender los
derechos de los no nacidos y, de hecho, las hipótesis no concebidas como base para el escepticismo sobre (9):

El conjunto relevante de competidores para GTR incluye el conjunto de teorías que concuerdan con GTR en todos los
experimentos hasta la fecha, ya sea que ya se hayan entretenido en la Tierra o no. Este conjunto podría ser infinito, bien
podría ser grande, probablemente contiene varios miembros y es casi seguro que tenga al menos un miembro, una
teoría cuántica de la gravedad. Lo más probable es que el conjunto tenga al menos un miembro que resuelva las
singularidades de GTR. Por lo tanto, en el régimen de campo fuerte no está del todo claro por qué uno debe tomarse en
serio a GTR [Pitts, 2008, p. 696].
La sentencia final de Pitts es non sequitur. Como ha señalado Timothy McGrew en una conversación personal, para montar un
desafío significativo a GTR no es suficiente mostrar que es probable que exista una teoría desconocida de la gravedad cuántica
que comparte la adecuación empírica de GTR hasta la fecha y resuelve las singularidades de GTR. Pitts también necesita
demostrar que esta teoría competidora desconocida tiene, en comparación con GTR, una probabilidad previa no despreciable.
Porque puede haber otros factores primordiales que sean relevantes para su probabilidad, por ejemplo, su falta de
simplicidad o elegancia. Dado que estas teorías no son concebidas, es difícil ver cómo Pitts puede saber tal cosa. En todo caso,
como comentamos en el texto, la cuestión importante no es si esa teoría desconocida resuelve las singularidades de GTR, sino
si el universo físico descrito por la teoría es infinitamente extrapolable al pasado. Lo que uno quiere de Pitts es alguna
evidencia o argumento de que existe una teoría desconocida de la gravedad cuántica que cumple con todos los desiderata.

9. Nuestra intención es proporcionar una actualización complementaria a la discusión en [Craig & Sinclair 2009]. Así, por
ejemplo, el material del ensayo original tenía un contenido significativo sobre cosmogonías basadas en cuerdas que no se
repetirá aquí.
10. También nos permite considerar los registros del pasado, como nuestros propios recuerdos, como reliquias de una realidad
verdadera, en contraposición a una ilusión. Sostendremos que la luz de las estrellas que aparece en nuestros telescopios en
el presente en realidad provino de una estrella distante en un pasado real. Las llamadas interpretaciones 'de arriba hacia
abajo' del enfoque integral de la trayectoria de Feynman para la gravedad cuántica [Hawking, 2003], o 'historias
decoherentes' (ver [Hartle 1998] y [Dowker & Kent, 1996], son ejemplos de enfoques de gravedad cuántica que negaría la
realidad objetiva de un pasado único que evolucionó hacia el presente. Esto no significa, necesariamente, que estos enfoques
deban ser rechazados. Más bien, rechazamos la interpretación del formalismo. Hawking, en la referencia anterior, dice acerca
de su propia teoría que "Uno puede interpretar esto en la imagen de abajo hacia arriba como la creación espontánea de un
universo inflado de la nada". Desde este punto de vista, tenemos precisamente la creación ex nihilo que presta evidencia
hacia la segunda premisa de kalām.
11. Esta implicación fue afirmada por Vilenkin en una comunicación personal el 4 de marzo de 2004. Nótese que esta conclusión
se aplicaría a la conocida cosmogonía Ekpyrotic de Paul Steinhardt y Neil Turok mencionada por Monton. Su modelo tiene
un límite pasado genuino y por lo tanto concuerda con la segunda premisa del argumento cosmológico kalām. Consulte [Craig
y Sinclair, 2009] para obtener una explicación más detallada.
12. Véase también la colección de artículos de Brett McInnis [McInnis, 2007a], [McInnis, 2007b], [McInnis, 2008]. McInnis
proporciona un argumento alternativo de por qué la inflación debe tener un origen último. Sugiere que en la teoría de cuerdas
(por razones puramente geométricas), la flecha del tiempo solo puede originarse en un evento de creación topológica "de la
nada", como en la propuesta de Vilenkin (ver la sección 5 de nuestro artículo). Los universos burbuja subsiguientes, ya sean
espaciales-tiempos incrustados o distintos desconectados (ver [Carroll y Chen 2004]), tendrán una flecha del tiempo solo si
la heredan de su madre. Por lo tanto, dada nuestra flecha observada del tiempo, sabemos que tenemos una "madre" última
que nació a través de la creación ex nihilo.
13. Para ilustrar, uno de los autores participó una vez en un ejercicio similar mientras trabajaba en la industria de Defensa. El
autor señaló que un modelo particular de combate aire-aire incluía explícitamente vuelos de misiles contra objetivos aéreos.
Se construyó un modelo mucho más elegante (y eficiente) derivando un conjunto de ecuaciones mediante las cuales los
intervalos de tiempo y distancia podían eliminarse del formalismo. El combate podría describirse mediante una secuencia
de impacto de salvas de misiles que no hace referencia a los intervalos de tiempo o espacio entre las llegadas de las salvas.
Ahora bien, ¿el mero hecho de la existencia de este modelo (y su superioridad en términos de simplicidad, alcance explicativo,
etc.) implicaría que los intervalos de tiempo y espacio no existen? Esta sería una conclusión ridícula, como lo demostraría
cualquier experiencia como aviador de combate. La superioridad aérea se mantiene al tener el misil de alcance superior (un
intervalo de distancia) o el vuelo más corto (intervalo de tiempo) de modo que el misil llegue primero. Son precisamente los
intervalos los que producen el orden de impacto de las salvas y, por tanto, la superioridad aérea. La vida y la muerte
individuales, incluso el surgimiento y la caída de los imperios, se basan en esta conclusión. Uno recuerda el consejo de
Einstein de que deberíamos hacer nuestros modelos lo más simples posible, pero no demasiado simples.
14. Ver [Aguirre 2007] para un intento detallado de eludir BGV a favor de una cosmogonía no singular invertida en el tiempo o
"emergente". Estas sugerencias de Aguirre se consideran en las secciones 4.4 y 4.6.
15. Véase, por ejemplo, [Earman y Mosterin, 1999] para un argumento relacionado.
dieciséis. Véase también [Damour y Henneaux, 2000] cuyos resultados actualizan BKL para considerar cosmologías de cuerdas
cuánticas: “… .. nuestros hallazgos sugieren que la inhomogeneidad espacial aumenta continuamente hacia una singularidad,
ya que todos los parches cuasi-uniformes del espacio se dividen en los más pequeños por la evolución oscilatoria caótica. En
otras palabras, la estructura del espacio-tiempo tiende a desarrollar una especie de 'turbulencia' ”.
17. Ellis sí indica que un pasado finito es una forma posible aceptable para un modelo emergente [Ellis y Maartens, 2004, sección
V, p. 5].
18. El estado cuántico no debe exprimirse infinitamente para que sea semiclásico (ver sección 4.5); el punto de equilibrio central
sólo existe si se cumple el supuesto semiclásico.
19. Ver [Craig & Sinclair 2009] para una discusión extensa de otra cosmogonía asintóticamente estática, el modelo de inflación
pre-Big Bang basado en cuerdas de Maurizio Gasperini & Gabrielle Veneziano. Véase [Kaloper et al. 1998] por una crítica
similar basada en la fluctuación del campo dilatón.
20. Ver también [Tavakol y Carneiro, 2009]. El argumento es que el pasado es infinito. Pero un método sugerido para dejar la
EEE estabilizada para permitir una expansión inflacionaria invoca un túnel cuántico desde un mínimo local en potencial (EEE
estabilizada) a un mínimo global (inflación abierta). Pero este mínimo local es un estado metaestable con una vida útil finita.
Por tanto, el modelo no es más allá del infinito.
21. Ejemplos en la literatura reciente de cosmogonías no singulares asintóticamente estáticas incluyen, por ejemplo, [Falciano
y Pinto-Neto, 2009], [Seahra y Böhmer, 2009] y [Barrow y Tsagas, 2009]. El primero compara las predicciones de tales
modelos con las perturbaciones escalares cuánticas observadas en la radiación de fondo cósmico a través de la sonda de
anisotropía de microondas Wilkinson y arroja dudas sobre su viabilidad última. El segundo y el tercero investigan la
viabilidad de un modelo de ESS eterno pasado. El artículo de Seahra y Böhmer muestra que un ESS es inestable a algún tipo
de perturbación para las teorías genéricas de la gravedad cuántica y la ecuación de estado genérica (es decir, el tipo de
materia / energía que reside en el universo) para las teorías de la gravedad f (R). El artículo de Barrow y Tsagas explota una
región de estabilidad para ESS para universos de materia "fantasma" o "fantasma". Ver [Craig y Sinclair,
22. Banks se queja,

“Tengo un problema con TODAS las cosmologías cíclicas ... La fase de colapso de estos modelos siempre tiene un
hamiltoniano dependiente del tiempo para las fluctuaciones del campo cuántico alrededor del fondo clásico. Además,
los trasfondos clásicos se están volviendo singulares. Esto significa que las teorías de campo se excitarán a estados de
energía cada vez más altos (defina la energía de alguna manera adiabática durante la era en la que la cosmología todavía
varía bastante lentamente, y use esto para clasificar los estados, aunque no se conserve). Los estados de alta energía en
la teoría de campos tienen la propiedad ergódica: se termalizan rápidamente, en el sentido de que el sistema explora
todos sus estados. Willy Fischler y yo propusimos que en esta situación tenderías de nuevo a maximizar la entropía. A
esto lo llamamos Black Crunch y sugerimos que la ecuación del estado de la materia volvería a tender hacia p = r. Parece
tonto imaginar que, incluso si esto es seguido por una re-expansión, que uno comenzaría esa expansión con un estado
inicial de baja entropía, o que uno tuviera algún control sobre el estado inicial ”(com. Pers., 12 de octubre de 2008) .Una
advertencia importante es que nunca se ha logrado una descripción general de la entropía en presencia de la gravedad
(ya sea en GTR o en la gravedad cuántica aún no descubierta). Pero hay algunos casos especiales que la mayoría de los
cosmólogos consideran confiables [ver Carroll, 2007, diapositivas 11 y 12], como la entropía de un gas térmico, agujeros
negros y horizontes cósmicos (este último relacionado con una constante cosmológica positiva ). Se cree que estos tres
casos representan los contribuyentes de entropía dominantes al universo durante tres eras diferentes: el universo
temprano (gas térmico), el presente (agujeros negros) y el futuro lejano (un horizonte cósmico "puro" parecido a De
Sitter). . Si estos casos especiales son precisos, demuestran que la entropía aumenta a medida que el universo envejece,
proporcionando así alguna prueba de una segunda ley generalizada de la termodinámica.
23. Véase también [Coule 2008], donde se sugiere que la máxima entropía está limitada por el límite holográfico (entropía del
horizonte cósmico para un universo de De Sitter), y que la entropía de un rebote viola esta restricción.
24. Un filósofo que simpatice con una teoría del tiempo tensa tendría un fundamento adicional para creer que tales modelos
realmente representan un multiverso que se propaga desde un origen común. Habría una razón por la cual las flechas
cosmológica, termodinámica, electromagnética y psicológica del tiempo se alinearían todas; son manifestaciones físicas del
mismo devenir temporal subyacente del tiempo metafísico.
25. Tenga en cuenta que Smith y Pitts están interesados en diferentes características topológicas del espacio-tiempo. La
preocupación de Pitts es si el universo tiene un primer momento. La preocupación de Smith es si la topología de una variedad
espaciotemporal (p. Ej., Hoja ininterrumpida, toro, figura en ocho, etc.) es más fundamental que sus aspectos métricos.
26. “… .. la cuestión de si el universo tuvo un comienzo en un tiempo finito ahora está 'trascendida'. Al principio, la respuesta
parece ser "no" en el sentido de que la evolución cuántica no se detiene en el Big Bang. Sin embargo, dado que la geometría
del espacio-tiempo se 'disuelve' cerca del big-bang, ya no existe una noción de tiempo, o de 'antes' o 'después' en el sentido
familiar. Por lo tanto, estrictamente, la pregunta ya no tiene sentido. El paradigma ha cambiado y las preguntas significativas
ahora deben formularse de manera diferente, sin utilizar nociones ligadas a los espacios-tiempos clásicos ”[Ashtekar,
Bojowald y Lewandowski, 2003, pág. 263, énfasis nuestro].
27. "¿Y por qué no aplicaríamos la navaja de Occam a la prehistoria?" (Bojowald 2009, pág.16)
28. Una creación ex nihilo tiene más sentido que postular la emergencia del tiempo "desde" un estado cuántico puro. Agustín
parece haber tenido una idea similar hace 1600 años:
“Podemos decir correctamente: 'Hubo un tiempo en que Roma no existía: hubo un tiempo en que Jerusalén, o Abraham,
o el hombre, o algo de este tipo no existió'. De hecho, podemos decir: 'Hubo un tiempo en que el mundo no existía', si
es cierto que el mundo no fue creado al principio de los tiempos, sino algún tiempo después. Pero decir, 'Hubo un tiempo
en que el tiempo no existía', es tan absurdo como decir, 'Hubo un hombre cuando no existía ningún hombre', o, 'Este
mundo existió cuando el mundo no existía' ”[Agustín, 1984, Ciudad de Dios, Libro XII, cap. 16].
29. Consulte también [Mcinnis 2007a, 2007b, 2008] para obtener un modelo basado en cadenas de este tipo.
30. “La creación de un universo a partir de la nada ... es una transición del sector topológico nulo que no contiene universos en
absoluto al sector con un universo de topología S3” [Vilenkin 1994, p. 23].
31. En [Craig y Sinclair, 2009], perfilamos el propio intento de Gott y Li de resolver el problema de los orígenes de la cosmología
basándose en el postulado de curvas cerradas en forma de tiempo (una máquina del tiempo). Desafortunadamente, pueden
evitar la conjetura de protección cronológica de Stephen Hawking sólo afirmando un vacío cósmico "inicial" que mide cero
con respecto a todas las configuraciones posibles. En otras palabras, su modelo está infinitamente ajustado.

Referencias
Aguirre, Anthony y Steve Gratton. (2002): “Inflación eterna en estado estable”, Physical Review D65 (2002) 083507,
preimpresión:http://arxiv.org/abs/astro-ph/0111191v2.
Aguirre, Anthony (2007): “Inflación eterna, pasado y futuro”, en Beyond the Big Bang Ed. R. Vaas, Heidelberg: Springer Verlag,
preimpresión:http://arxiv.org/abs/0712.0571
Al-Ghazali (1962). Kitab al-Iqtisad fi'l-Iqtiqad. Ankara: Prensa de la Universidad de Ankara.
Al-Ghazali (1963). Tahafut al-Falasifah. Trans. SA Kamali. Lahore: Congreso Filosófico de Pakistán.
Ashtekar, A, Bojowald, M y Lewandowski, J (2003): “Estructura matemática de la cosmología cuántica de bucles”, en
Adv.Theor.Math.Phys. 7 233–268, preimpresión:http://arxiv.org/abs/gr-qc/0304074
Ashtekar, Abhay, Pawlowski, Tomasz y Singh, Parampreet (2006), "Naturaleza cuántica del Big Bang", en Phys. Rev. D 74,
084003, Preimpresión:http://arxiv.org/abs/gr-qc/0602086v2
Asimov, Isaac (1989): “The Relativity of Wrong”, en The Skeptical Inquirer, volumen 14 No. 1, otoño de 1989, disponible en la
web en: http://chem.tufts.edu/AnswersInScience/RelativityofWrong.htm
Agustín. (1984) Ciudad de Dios, Londres, Penguin Books.
Banks, T. y Fischler, W. (2002): "Black Crunch", preimpresión: http://arxiv.org/abs/hep-th/0212113v1
Barrow, J. y Dabrowski, M. (1995): “Universos oscilantes”, Avisos mensuales de la Royal Astronomical Society 275, 850–62.
Barrow, J. y Tsagas, C. (2009) “On the Stability of Static Ghost Cosmologies”, consultado en la web en:
http://arxiv.org/abs/0904.1340v1 (21 de mayo de 2009).
Belinsky, VA, Khalatnikov, IM y Lifshitz, EM (1970): “Enfoque oscilatorio de un punto singular en la cosmología relativista”,
Advances in Physics 19, 525–73.
Bojowald, M., Maartens, R. y Singh, P. (2004): "La gravedad cuántica de bucles y el universo cíclico", Phys.Rev. D70 (2004)
083517, preimpresión:http://arxiv.org/abs/hep-th/0407115
Bojowald, M., Date, G. y Hossain, G. (2004), “El modelo Bianchi IX en Cosmología Cuántica de Bucles”, en Clase. Quant. Grav. 21,
3541, preimpresión:http://arxiv.org/abs/gr-qc/0404039
Bojowald, M. (2005): “Preguntas originales”, Nature 436, 920–1.
Bojowald, M. (2006): “Escenarios del universo a partir de la gravedad cuántica de bucles”, en Annalen Phys. 15: 326–341,
preimpresión:http://arxiv.org/abs/astro-ph/0511557v1
Bojowald, M. (2007): “Teoría efectiva a gran escala para los rebotes cosmológicos”, en Phys Rev D 74, 081301, preimpresión:
http://arxiv.org/abs/gr-qc/0608100v2
Bojowald, M. y Tavakol, R. (2008a): “Recollapsing de cosmologías cuánticas y la cuestión de la entropía”, en Phys. Rev. D 78,
023515, Preimpresión:http://arxiv.org/abs/0803.4484v1
Bojowald, M. y Tavakol, R. (2008b): “Cosmología cuántica de bucles: teorías efectivas y universos oscilantes” en Beyond the Big
Bang. Ed. R. Vaas, Heidelberg: Springer Verlag, Preprint:http://arxiv.org/abs/0802.4274v1
Bojowald, M. (2009): “Una flecha momentánea del tiempo”, en La flecha del tiempo, Ed. L. Mersini-Houghton, Heidelberg:
Springer Verlag.
Borde, A., Guth, A. y Vilenkin, A. (2003): "Los espaciotiempos inflacionarios no son pasados completos", Physical Review Letters
90, 151301, preimpresión: http://arxiv.org/abs/gr-qc/0110012.
Carroll, Sean (2008): “What if Time Really Exists?”, Concurso de ensayos de FXQI sobre la naturaleza del tiempo, disponible en la
web en: http://www.fqxi.org/community/forum/topic/318
Carroll, Sean et al (2007) "Por qué el pasado es diferente del futuro: el origen del universo y la flecha del tiempo", disponible en la
web en: http://preposterousuniverse.com/talks/time-colloq-07/
Carrol, Sean y Chen, Jennifer (2004): "La inflación espontánea y el origen de la flecha del tiempo", preimpresión:
http://arxiv.org/abs/hep-th/0410270v1
Coleman, S. y De Luccia, F. (1980): "Efectos gravitacionales sobre y del decaimiento del vacío", Physical Review D21, 3305.
Copan, P. y Craig, Wm. L. (2004): Creación de la nada. Grand Rapids, Michigan: Baker.
Coule, DH (2008), "La holografía restringe el rebote cuántico", preimpresión: http://arxiv.org/abs/0802.1867
Craig, Wm. L. (2006): "Naturalismo y cosmología". En Filosofía analítica sin naturalismo. Ed. A. Corradini, S. Galvan y EJ Lowe,
págs. 97-133. Estudios de Routledge en Filosofía Contemporánea. Nueva York: Routledge.
Craig, Wm. L. (1980). El argumento cosmológico de Platón a Leibniz. Londres: Macmillan & Co.
Craig, Wm. L. (2001): El tiempo y la metafísica de la relatividad. Serie de estudios filosóficos 84. Dordrecht: Kluwer Academic
Publishers.
Craig, Wm. L. y Sinclair, Jas. (2009): "El argumento cosmológico de Kalām". En Blackwell Companion to Natural Theology, págs.
101–201. Ed. Wm. L. Craig y JP Moreland. Oxford: Blackwell.
Damour, T. y Henneaux, M. (2000): “Caos en la cosmología de supercuerdas”, Physical Review Letters 85, 920-3, preimpresión:
http://aps.arxiv.org/abs/hep-th/0003139.
Dowker, F. y Kent, A. (1996): "Sobre el enfoque de historias consistentes en la mecánica cuántica", J.Statist.Phys. 82 (1996) 1575–
1646, preimpresión:http://arxiv.org/abs/gr-qc/9412067v2
Earman, J. (1995): Golpes, crujidos, gemidos y chillidos: singularidades y causalidades en los espaciotiempos relativistas. Nueva
York: Oxford University Press.
Earman, J. y Mosterin, J. (1999): “Una mirada crítica a la cosmología inflacionaria”, Filosofía de la ciencia 66, 1-49.
Ellis, GFR, Murugan, Jeff y Tsagas, Christos (2004): "The Emergent Universe: An Explicit Construction", In Class.Quant.Grav.21:
233-250, preimpresión: http://arxiv.org/abs/gr-qc/0307112
Ellis, GFR y Maartens, R. (2004) "El universo emergente: cosmología inflacionaria sin singularidad", Gravedad clásica y cuántica
21, 223, preimpresión: http://arxiv.org/abs/gr-qc/0211082.
Falciano, FT y Pinto-Neto, N. (2009): “Perturbaciones escalares en cosmología cuántica de campo escalar”, Physical Review D79:
023507, 2009, preimpresión: http://arxiv.org/abs/0810.3542
Geroch, R. (1978): GR From A to B, Chicago & London, University of Chicago Press.
Gott, JR III y Li, LX. (1998): "¿Puede el universo crearse a sí mismo?" Revisión física D 58: 2, 023501–1.
Hartle, J. (1998): "Pastas cuánticas y la utilidad de la historia", Phys.Scripta T76 (1998) 67, preimpresión:
http://arxiv.org/abs/gr-qc/9712001v1
Hawking, S. (2003): “Cosmology from the Top Down”: Charla presentada en Davis Inflation Meeting, 2003, preimpresión:
http://arxiv.org/abs/astro-ph/0305562
Hawking, S. y Hartle, J. (1983) "La función de onda del universo", Physical Review D 28: 12, 2960–75.
Hawking, S. y Penrose, R. (1970) "Las singularidades del colapso gravitacional y la cosmología", Actas de la Royal Society of
London A 314, 529-48.
Hawking, S. y Penrose, R. (1996) La naturaleza del espacio y el tiempo. Princeton, Nueva Jersey: Princeton University Press.
Jurkiewicz, J., Loll, L. & Ambjorn, J. (2008): “Using Causality to Solve the Puzzle of Quantum Spacetime”, Scientific American, julio,
que se encuentra en la web en: http://www.scientificamerican.com/article.cfm?id=the-self-organizing-quantum-universe.
Kaloper, N., Linde, A. & Bousso, R. (1998) “Pre-Big-Bang Requires the Universe to be Exponentially Large From the Very
Beginning,” Physical Review D, Volume 59, 043508, accessed online at hep-th/9801073.
Kiefer, C. y Zeh, HD (1995): “Flecha del tiempo en un universo cuántico recolpándose”,
Phys.Rev. D51 4145–4153, preimpresión: http://arxiv.org/abs/gr-qc/9402036v2
Kiefer, Claus (2008): "Does Time Exist in Quantum Gravity?", Concurso de ensayos FXQI sobre la naturaleza del tiempo,
disponible en la web: www.fqxi.org/data/essay-contest-files/Kiefer_fqx.pdf
Kiefer, Claus (2009): “¿Puede entenderse la flecha del tiempo desde la cosmología cuántica?”, En The Arrow of Time, Ed. L.
Mersini-Houghton, Heidelberg: Springer Verlag, preimpresión:http://arxiv.org/abs/0910.5836v1
Loll, R. (2007): “The Emergence of Spacetime, or, Quantum Gravity en su escritorio”, en Classical Quantum Gravity Volumen 25,
número 11 114006, disponible en la web en: http://arxiv.org/abs/0711.0273v2
Mersini-Houghton, Laura (2009): “Notes on Time's Enigma”, conferencia FXQI a tiempo, Azores, 2009, disponible en la web en:
http://arxiv.org/abs/0909.2330v1
McInnis, Brett (2007a): “Flecha del tiempo en la teoría de cuerdas”, en Nucl.Phys. B782: 1–25,
preimpresión:http://arxiv.org/abs/hep-th/0611088v3
McInnis, Brett (2007b): “La flecha del tiempo en el paisaje”, A aparecer en R. Vaas (ed.): Más allá del Big Bang. Springer:
Heidelberg 2010, preimpresión:http://arxiv.org/abs/0711.1656v2
McInnis, Brett (2008): "Condiciones iniciales para universos burbuja", en Phys.Rev.D77: 123530, preimpresión:
http://arxiv.org/abs/0705.4141v5
Monton, Bradley (de próxima publicación). "Prolegómenos a cualquier metafísica futura basada en la física". Estudios de Oxford
en Filosofía de la Religión 3.
Mulryne, David, Reza Tavakol, James E. Lidsey y George FR Ellis (2005): “An Emergent Universe From a Loop”, Physical Review D
71, 123512 (2005), preimpresión: http://arxiv.org/abs/astro-ph/0502589v1
Oppy, G. (2006): Discutiendo sobre dioses. Cambridge: Cambridge University Press.
Overbye, D. (2006): "Se informó de una 'energía oscura' de 9 mil millones de años". The New York Times, 15 de enero de 2008.
Parikh, M., Ivo Savonije y Erik Verlinde. (2003): "Elliptic de Sitter Space", Physical Review D67 (2003) 064005,
preimpresión:http://arxiv.org/abs/hep-th/0209120v2.
Penrose, Roger (2005): The Road to Reality, Nueva York: Alfred A. Knopf.
Penrose, R. (2006): “Antes del Big Bang: una nueva perspectiva escandalosa y sus implicaciones para la física de partículas”,
Actas de la Conferencia europea sobre aceleradores de partículas (EPAC) 2006. Edimburgo, Escocia, págs. la web en:
http://accelconf.web.cern.ch/AccelConf/e06/PAPERS/THESPA01.PDF.
Penrose, R. (2009): “Agujeros negros, teoría cuántica y cosmología”, en J. Phys .: Conf. Ser. 174 01 2001, disponible en la web
en:http://iopscience.iop.org/1742–6596/174/1/012001/pdf/1742–6596_174_1_012001.pdf
Pitts, JB (2008): "Por qué la singularidad del Big Bang no ayuda al argumento cosmológico de Kalām a favor del teísmo". Revista
británica de filosofía de la ciencia: 59, 675–708.
Quine, WV (1969): "Epistemología naturalizada". En Relatividad ontológica y otros ensayos, págs. 69–90. Nueva York: Columbia
University Press.
Rea, Michael C. (2002): Mundo sin diseño: las consecuencias ontológicas del naturalismo. Oxford: Clarendon Press.
Seahra, Sanjeev S. y Böhmer, CG (2009): “Los universos estáticos de Einstein son inestables en modelos genéricos f (R)”, Physical
Review D 79: 064009,2009, preimpresión: http://arxiv.org/abs/0901.0892
Smith, Q. (1985): "On the Beginning of Time". Noûs 19, págs. 579–84.
Smith, Q. (1993): "La función de onda de un universo sin Dios". En Theism, Atheism and Big Bang Cosmology, pág. 301–37. Ed.
Quentin Smith y William Lane Craig. Oxford: Clarendon Press
Smith, Q. (1997): "La interpretación ontológica de la función de onda del universo". The Monist, vol. 80, núm. 1, págs. 160–185.
Smith, Q. (2000): "La teoría del origen del agujero negro del universo: fronteras de la cosmología física especulativa actual".
Encontrado en la web
en:http://www.faculty.umb.edu/gary_zabel/Courses/Parallel%20Universes/Texts/the_black_hole_origin_theory_of_the_unive
rse_frontiers_of_s.htm
Smith, Q. (2007): "Kalam Cosmological Arguments for Atheism". En The Cambridge Companion to Atheism, págs. 182–98. Ed. M.
Martin. Compañeros de Cambridge a la filosofía. Prensa de la Universidad de Cambridge.
Sorabji, R. (1983): Tiempo, creación y el continuo. Ithaca, Nueva York: Cornell University Press.
Sorkin, RD & Rideout, DP (1999): “Dinámica clásica de crecimiento secuencial para conjuntos causales”, en Physical Review D,
Volumen 61, 024002, disponible en la web en: http://arxiv.org/abs/gr-qc/9904062v3
Smolin, L. (2006): El problema con la física. Nueva York, NY: Houghton Mifflin.
Smolin, Lee (2009): "The unique universe", en PhysicsWorld, junio de 2009, disponible en la web en:
http://physicsworld.com/cws/article/print/39306
Tavakol, R. y Carneiro S. (2009): “Estabilidad del universo estático de Einstein en presencia de energía del vacío”, En Physical
Review D 80, 043528, preimpresión: http://arxiv.org/abs/0907.4795v2
't Hooft, Gerard (2009): "Gravedad cuántica sin singularidades del espacio-tiempo ni horizontes", presentado en la Eric
Summerschool of Subnuclear Physics, disponible en la web en: http://arxiv.org/abs/0909.3426
Tod, KP (2003): Clase. Gravedad cuántica 20, 521-534.
Tolman, RC (1934): Relatividad, termodinámica y cosmología. Oxford: Clarendon Press.
Vaas, R. (2004): “Tiempo antes del tiempo: clasificaciones de universos en la cosmología contemporánea y cómo evitar la
antinomia del comienzo y la eternidad del mundo”. En W. Löffler y P. Weingartner (eds.), Knowledge and Belief. Artículos del
26º Simposio Internacional de Wittgenstein, 351-3. Kirchberg am Wechsel: Sociedad austriaca Ludwig Wittgenstein,
preimpresión:http://arXiv.org/abs/physics/0408111.
Veneziano G. y Gasperini, M. (2002): "El escenario anterior al Big Bang en la cosmología de cuerdas", Physics Reports 373, 1,
preprint: http://arxiv.org/abs/hep-th/0207130.
Vilenkin, A. (1982): “Creación de universos a partir de la nada”, Phys. Letón. 117B, 25-28
Vilenkin, A. (1994): "Aproximaciones a la cosmología cuántica", Physical Review D 50, 2581–94, preimpresión:
http://lanl.arxiv.org/abs/gr-qc/9403010v1.
Vilenkin, A. (2002): "Cosmología cuántica e inflación eterna". En The Future of Theoretical Physics and Cosmology, Proceedings
of the Conference in Honor of Stephen Hawking's 60th birthday, preprint:http://arxiv.org/abs/gr-qc/0204061
Vilenkin, A. (2006): Muchos mundos en uno. Nueva York: Hill & Wang.
Zeh, HD (2009): “Preguntas abiertas sobre la flecha del tiempo”, en The Arrow of Time, Ed. L. Mersini-Houghton, Heidelberg:
Springer Verlag, preimpresiónhttp://arxiv.org/abs/0908.
4
El comienzo del universo

Alexander Vilenkin

Vivimos después de una gran explosión, el big bang, que ocurrió hace 13.700 millones de años.
En el momento del Big Bang, el universo estaba lleno de una bola de fuego, una densa mezcla de
partículas energéticas y radiación. Durante casi un siglo, los físicos han estado estudiando cómo
la bola de fuego se expandió y enfrió, cómo las partículas se combinaron para formar átomos y
cómo las galaxias y las estrellas fueron unidas gradualmente por la gravedad. Esta historia ahora
se comprende con gran detalle cuantitativo y está respaldada por abundantes datos de
observación.1
Sin embargo, la pregunta sigue siendo si el Big Bang fue realmente el comienzo del universo.
¿Un comienzo en qué? ¿Causado por qué? ¿Causado por qué? ¿Y determinado por qué o quién?
Estas preguntas han llevado a los físicos a hacer todo lo posible por evitar un comienzo cósmico.
En este ensayo, repaso dónde nos encontramos ahora.

El teorema de la singularidad de Penrose


El problema nos ha estado mirando a la cara desde los primeros días de la cosmología científica.
En la década de 1920, el matemático ruso Alexander Friedmann proporcionó una descripción
matemática de un universo en expansión al resolver las ecuaciones de la relatividad general de
Albert Einstein. Friedmann asumió, en aras de la simplicidad, que la distribución de la materia
en el universo era perfectamente uniforme. Sus soluciones tenían una característica
desconcertante: a medida que se sigue la evolución del universo hacia atrás en el tiempo, la
densidad de la materia y la curvatura del espacio-tiempo crecen sin límites, volviéndose infinitas
hace un tiempo finito.2El momento de densidad infinita es una singularidad cosmológica. En ese
punto, las expresiones matemáticas que aparecen en las ecuaciones de la relatividad general
quedan mal definidas y la evolución no puede continuar. Esto parecería sugerir que el universo
tuvo un comienzo, pero no uno describible por las leyes de la física.
Los físicos esperaban inicialmente que la singularidad pudiera ser un artefacto de la suposición
simplificadora de uniformidad perfecta de Friedmann, y que desaparecería en soluciones más
realistas de las ecuaciones de Einstein. Roger Penrose cerró esta laguna a mediados de la década
de 1960 mostrando que, bajo un supuesto muy general, la singularidad era inevitable. 3 Bajo la
condición de convergencia nula, la gravedad siempre fuerza a los rayos de luz a converger. 4Esto
implica que la densidad de materia o energía medida por cualquier observador no puede ser
negativa. La conclusión es válida para todas las formas familiares de materia clásica.
La prueba de Penrose depende del concepto de una geodésica incompleta. En la relatividad
general, las trayectorias de la materia están representadas por líneas rectas en el espacio-tiempo
o geodésicas. Si el espacio-tiempo está libre de singularidades, todas las geodésicas deberían
tener una extensión infinita. Un encuentro geodésico con una singularidad no puede extenderse
más. Tales geodésicas están incompletas. Penrose mostró que un espacio-tiempo que satisfaga
la condición de convergencia nula (y algunas suposiciones leves adicionales) debe contener
geodésicas incompletas. Una singularidad parece inevitable.
El argumento de Penrose no fue del todo convincente. Aunque la condición de convergencia
nula la satisface la materia clásica, las fluctuaciones cuánticas pueden crear regiones de densidad
de energía negativa.5En las condiciones extremas cercanas al Big Bang, las fluctuaciones
cuánticas son de gran importancia. El argumento de Penrose ya no se aplica.
Aquí es donde estaban las cosas hasta principios de la década de 1980, cuando Alan Guth
introdujo la idea de inflación cósmica.6

Inflación eterna
La inflación es un período de expansión súper rápida y acelerada en la historia temprana del
universo. En una fracción de segundo, una pequeña región subatómica explota a dimensiones
mayores que todo el universo actualmente observable. La expansión es impulsada por un falso
vacío.
Por lo general, se piensa en un vacío como un espacio vacío, pero según la física de partículas
moderna, lo que está vacío no es nada. El vacío es un objeto físico, dotado de densidad de energía
y presión. Puede ser en varios estados diferentes o vacua. Las propiedades y tipos de partículas
elementales difieren de un vacío a otro.
La fuerza gravitacional inducida por un falso vacío es inusual porque es repulsiva. Cuanto
mayor sea la energía del vacío, más fuerte será la repulsión. Este tipo de vacío es inestable. Se
descompone en un vacío de baja energía y el exceso de energía produce una bola de fuego de
partículas y radiación. Los falsos vacíos no se inventaron con el propósito de inflar. Su existencia
se deriva de la física de partículas y la relatividad general.
La teoría de la inflación asume que en algún momento temprano de su historia el universo
ocupó un falso vacío de alta energía. Las fuerzas gravitacionales repulsivas provocaron una
expansión exponencial y ultrarrápida del universo. Hay un tiempo característico en el que el
tamaño del universo se duplica. Dependiendo del modelo, los tiempos de duplicación pueden ser
tan cortos como 10-37 segundos. En aproximadamente 330 veces, el universo crece en un factor
de 10100. No importa su tamaño inicial, el universo se vuelve enorme muy rápidamente. Debido
a que el falso vacío es inestable, eventualmente decae, produciendo una bola de fuego que marca
el final de la inflación. La bola de fuego continúa expandiéndose por inercia y evoluciona a lo
largo de las líneas de la cosmología estándar del Big Bang.
La inflación explicó algunas características del universo que de otro modo serían
desconcertantes, cuestiones que la cosmología del Big Bang se vio obligada a asumir. Explicó la
expansión del universo, su alta temperatura y su homogeneidad observada. La teoría
inflacionaria predijo que la geometría euclidiana describe el universo en las escalas más grandes.
También predijo un espectro casi independiente de escala de perturbaciones de pequeña
densidad causadas por fluctuaciones cuánticas durante la inflación. Estas predicciones se han
confirmado.
La teoría de la inflación ha llevado a una revisión de nuestra visión del universo. La inflación
no acaba en todas partes a la vez. Las regiones donde el falso vacío decae un poco más tarde son
recompensadas por una mayor expansión inflacionaria, por lo que las regiones de falso vacío
tienden a multiplicarse más rápido de lo que decaen. En nuestro vecindario cósmico, la inflación
terminó hace 13,7 mil millones de años; en partes remotas del universo todavía continúa.
Regiones como la nuestra se forman constantemente. Este proceso interminable se llama
inflación eterna. La inflación eterna es genérica; y predicho por la mayoría de los modelos.
La caída de vacío falsa depende del modelo. En este ensayo, me centro en modelos en los que
ocurre a través de la nucleación de burbujas. La descomposición por vacío es similar a la
ebullición del agua. Las regiones de baja energía aparecen como burbujas microscópicas e
inmediatamente comienzan a crecer a un ritmo que se acerca rápidamente a la velocidad de la
luz. Las burbujas se separan luego por la expansión inflacionaria, dejando espacio para más
burbujas. Vivimos en una de estas burbujas, pero solo podemos observar una pequeña parte de
ella. No importa qué tan rápido viajemos, no podemos alcanzar el límite en expansión de nuestro
universo.
El nuestro es un universo autónomo.
La inflación eterna plantea una posibilidad intrigante. Si la inflación continúa y continúa en el
futuro, ¿podría haber continuado también en el pasado? 7 Un universo sin principio haría
innecesario preguntar cómo empezó.
Como suele ocurrir en la física, una fuerza irresistible está ahora a punto de encontrar una
obstrucción inamovible.

El teorema de Borde-Guth-Vilenkin
La obstrucción se puede encontrar en el teorema de Borde-Guth-Vilenkin (BGV).8Hablando
libremente, nuestro teorema establece que si el universo, en promedio, se está expandiendo,
entonces su historia no puede continuar indefinidamente en el pasado. Más precisamente, si la
tasa de expansión promedio es positiva a lo largo de una línea de mundo dada, o geodésica,
entonces esta geodésica debe terminar después de una cantidad de tiempo finita. Diferentes
geodésicas, diferentes tiempos. El punto importante es que la historia pasada del universo no
puede estar completa. En el Apéndice se proporciona un resumen de la prueba.
El teorema BGV permite algunos períodos de contracción, pero en promedio gana la expansión.
El volumen del universo aumenta con el tiempo. La inflación no puede ser eterna y debe tener
algún tipo de comienzo.
El teorema de BGV es generalizado. No hace suposiciones sobre la gravedad o la materia. La
gravedad puede ser atractiva o repulsiva, los rayos de luz pueden converger o divergir, e incluso
la relatividad general puede caer en desuso: el teorema aún se mantendría.
Varios físicos han construido modelos de un universo eterno en el que el teorema BGV ya no
es pertinente. George Ellis y sus colaboradores han sugerido que un universo cerrado y finito, en
el que el espacio se cierra sobre sí mismo como la superficie de una esfera, podría haber existido
para siempre en un estado estático y luego estallar en expansión inflacionaria. 9Promediada
durante un tiempo infinito, la tasa de expansión sería cero y el teorema de BGV no se aplicaría.
Ellis construyó un modelo clásico de un universo cerrado estable y proporcionó un mecanismo
que desencadenó el inicio de la expansión. Ellis no afirmó que su modelo fuera realista; fue
pensado como una prueba de concepto, mostrando que un universo eterno es posible. No tan. Un
universo estático es inestable con respecto al colapso cuántico. 10Puede ser estable según las leyes
de la física clásica, pero en la física cuántica un universo estático puede hacer una transición
repentina a un estado de tamaño que desaparece y densidad infinita. No importa cuán pequeña
sea la probabilidad de colapso, el universo no podría haber existido durante una cantidad infinita
de tiempo antes del inicio de la inflación.
Hay otra forma en que el universo podría ser eterno en el pasado. Podría haber pasado por una
sucesión infinita de expansiones y contracciones. Esta noción fue brevemente popular en la
década de 1930, pero luego fue abandonada debido a su aparente conflicto con la segunda ley de
la termodinámica. La segunda ley requiere que la entropía aumente en cada ciclo de evolución
cósmica. Si el universo ya hubiera completado un número infinito de ciclos, habría alcanzado un
estado de equilibrio térmico y, por lo tanto, un estado de máxima entropía. Toda la energía del
movimiento ordenado se habría convertido en calor, prevaleciendo una temperatura uniforme
en todo momento.
No nos encontramos en tal estado.
La idea de un universo cíclico fue revivida recientemente por Paul Steinhardt y Neil
Turok.11Sugirieron que en cada ciclo la expansión es mayor que la contracción, por lo que el
volumen del universo aumenta. La entropía del universo que podemos observar ahora podría
ser la misma que la entropía de alguna región similar en un ciclo anterior; sin embargo, la
entropía total del universo habría aumentado porque el volumen del universo es ahora mayor
que antes. A medida que pasa el tiempo, tanto la entropía como el volumen total crecen sin
límites y nunca se alcanza el estado de máxima entropía. No hay una entropía máxima. 12
El problema con este escenario es que, en promedio, el volumen del universo aún crece y, por
lo tanto, se puede aplicar el teorema BGV. Esto lleva inmediatamente a la conclusión de que un
universo cíclico no puede ser eterno en el pasado.

Prueba de dios
Los teólogos han acogido con satisfacción cualquier evidencia del comienzo del universo como
evidencia de la existencia de Dios. "En cuanto a la primera causa del universo", escribió el
astrofísico británico Edward Milne, "esto queda para que el lector la inserte, pero nuestra imagen
está incompleta sin Él".13Algunos científicos temían que un comienzo cósmico no pudiera
describirse en términos científicos. "Negar la duración infinita del tiempo", afirmó Walter Nernst,
"sería traicionar los fundamentos mismos de la ciencia". 14
Richard Dawkins, Lawrence Krauss y Victor Stenger han argumentado que la ciencia moderna
no deja lugar para la existencia de Dios. Se ha organizado una serie de debates ciencia-religión,
con ateos como Dawkins, Daniel Dennett y Krauss debatiendo con teístas como William Lane
Craig.15 Ambos lados han apelado al teorema de BGV, ambos lados apelando a mí —¡de todas las
personas! - para una mejor comprensión.

El argumento cosmológico de la existencia de Dios consta de dos partes. El primero es sencillo:

• todo lo que comienza a existir tiene una causa;


• el universo comenzó a existir;
• por lo tanto, el universo tiene una causa.dieciséis

La segunda parte afirma que la causa debe ser Dios.


Ahora me gustaría discrepar con la primera parte del argumento. La física moderna puede
describir el surgimiento del universo como un proceso físico que no requiere una causa.
Nada se puede crear de la nada, dice Lucrecio, aunque solo sea porque la conservación de la
energía hace que sea imposible crear nada de la nada. Para cualquier sistema aislado, la energía
es proporcional a la masa y debe ser positiva. Cualquier estado inicial, antes de la creación del
sistema, debe tener la misma energía que el estado posterior a su creación.
Hay una laguna en este razonamiento. La energía del campo gravitacional es negativa;17Es
concebible que esta energía negativa pueda compensar la energía positiva de la materia,
haciendo que la energía total del cosmos sea igual a cero. De hecho, esto es precisamente lo que
ocurre en un universo cerrado, en el que el espacio se cierra sobre sí mismo, como la superficie
de una esfera. De las leyes de la relatividad general se sigue que la energía total de tal universo
es necesariamente igual a cero. Otra cantidad conservada es la carga eléctrica, y una vez más
resulta que la carga total debe desaparecer en un universo cerrado.
Ilustraré estas afirmaciones para el caso de una carga eléctrica, utilizando una analogía
bidimensional. Imagine un universo cerrado bidimensional, que podemos representar como la
superficie de un globo. Supongamos que colocamos una carga positiva en el polo norte de este
universo. Luego, las líneas del campo eléctrico que emana de la carga envolverán la esfera y
convergerán en el polo sur. Esto significa que debería estar presente una carga negativa de igual
magnitud. Por lo tanto, no podemos agregar una carga positiva a un universo cerrado sin agregar
una carga negativa igual al mismo tiempo. Por tanto, la carga total de un universo cerrado debe
ser igual a cero.
Si todos los números conservados de un universo cerrado son iguales a cero, entonces no hay
nada que impida que tal universo se cree espontáneamente de la nada. Y de acuerdo con la
mecánica cuántica, cualquier proceso que no esté estrictamente prohibido por las leyes de
conservación ocurrirá con cierta probabilidad.18
Un universo recién nacido puede tener una variedad de formas y tamaños diferentes y puede
llenarse con diferentes tipos de materia. Como es habitual en la teoría cuántica, no podemos decir
cuál de estas posibilidades se realiza realmente, pero podemos calcular sus probabilidades. Esto
sugiere que podría haber una multitud de otros universos.
La creación cuántica es similar al túnel cuántico a través de barreras de energía en la mecánica
cuántica. Se puede dar una elegante descripción matemática de este proceso en términos de
rotación de Wick. El tiempo se expresa utilizando números imaginarios, introducidos solo por
conveniencia computacional. La distinción entre las dimensiones del tiempo y el espacio
desaparece. Esta descripción es muy útil, ya que proporciona una forma conveniente de
determinar las probabilidades de tunelización. Los universos más probables son los que tienen
el tamaño inicial más pequeño y la energía de vacío más alta. Una vez que se forma un universo,
inmediatamente comienza a expandirse debido a la alta energía del vacío.
Esto proporciona un comienzo para la historia de la inflación eterna.
Uno podría imaginar que los universos cerrados están saliendo de la nada como burbujas en
una copa de champán, pero esta analogía no sería del todo precisa. Las burbujas emergen en
forma líquida, pero en el caso de los universos, no hay espacio del que puedan estallar. Un
universo cerrado nucleado es todo el espacio que existe, además de los espacios desconectados
de otros universos cerrados. Más allá de él, no hay espacio ni tiempo.
¿Qué hace que el universo salga de la nada? No se necesita ninguna causa. Si tiene un átomo
radiactivo, se desintegrará, y la mecánica cuántica da la probabilidad de desintegración en un
intervalo de tiempo dado, digamos, un minuto. No hay ninguna razón por la cual el átomo decayó
en este momento en particular y no en otro. El proceso es completamente aleatorio. No se
necesita ninguna causa para la creación cuántica del universo.
La teoría de la creación cuántica no es más que una hipótesis especulativa. No está claro cómo,
o si, se puede probar mediante observación. No obstante, es el primer intento de formular el
problema del origen cósmico y abordarlo de manera cuantitativa. 19

Un misterio irresoluble
La respuesta a la pregunta: "¿Tuvo el universo un comienzo?" es, "Probablemente lo hizo". No
tenemos modelos viables de un universo eterno. El teorema BGV nos da razones para creer que
tales modelos simplemente no se pueden construir.
Cuando los físicos o teólogos me preguntan sobre el teorema BGV, estoy feliz de complacerlo.
Pero mi propia opinión es que el teorema no nos dice nada sobre la existencia de Dios. Queda un
profundo misterio. Las leyes de la física que describen la creación cuántica del universo también
describen su evolución. Esto parece sugerir que tienen alguna existencia independiente.
Qué significa exactamente esto, no lo sabemos.
¿Y por qué estas leyes son las que tenemos? ¿Por qué no otras leyes?
No tenemos forma de comenzar a abordar este misterio.

Apéndice: Detalles matemáticos


En este apéndice, describo una demostración del teorema de BGV.
Comience con un universo homogéneo, isotrópico y espacialmente plano con la métrica:

La tasa de expansión del Hubble es , donde el punto denota una derivada


con respecto al tiempo t. Podemos imaginar que el universo está lleno de partículas que se
mueven a lo largo de las geodésicas temporales. Considere un observador
inercial, cuya línea de mundo es parametrizado por el tiempo adecuado t. Para un
observador de masa m, el momento 4 es así que eso dónde
denota la energía, yp, la magnitud del momento tridimensional. De la ecuación

geodésica de movimiento se sigue que así que eso dónde designa

el impulso en algún momento de referencia


Por lo tanto:

dónde es un momento inicial.


Tenga en cuenta que:

dónde es el factor de Lorentz, y es la velocidad del observador


relativa a las partículas comovivas.

Para cualquier observador que no se comporte, y .


La tasa de expansión promediada sobre la línea mundial del observador es:
Asumiendo que

y usando la primera ecuación, se sigue que

Esto implica que cualquier geodésica temporal dirigida por el pasado que no se comporte
satisfaga la condición debe tener una longitud adecuada finita y, por lo tanto, debe ser
un pasado incompleto.
No se puede apelar a la homogeneidad y la isotropía en un espacio-tiempo arbitrario. Imagine
que el universo está lleno de una congruencia de geodésicas comovivas, que representan
partículas de prueba y considere un observador geodésico no comovivo descrito por una línea
de mundo. 20 Dejar y designar las 4 velocidades de las partículas de
prueba y el observador.
Entonces el factor de Lorentz del observador relativo a las partículas es

Para caracterizar la tasa de expansión en el espacio-tiempo general, basta con centrarse en las
geodésicas de partículas de prueba que cruzan la línea del mundo del observador.
Considere dos geodésicas de este tipo que se encuentran con el observador en los momentos t
y .
Definir el parámetro
dónde es la velocidad relativa de las partículas en la dirección de movimiento del
observador, y es la separación de la partícula. Ambas cantidades se calculan en el marco
de reposo de una de las partículas.
Para un universo homogéneo e isotrópico, esta definición se reduce al parámetro de Hubble.
El parámetro de expansión se puede expresar como una derivada total,

La integral de H a lo largo de la línea del mundo del observador sigue estando dada por la
diferencia de en sus puntos finales. Las conclusiones sobre los universos homogéneos e
isotrópicos se trasladan inmediatamente a los universos genéricos.
Queda el observador nulo descrito por una geodésica nula. El papel del tiempo adecuado t lo
desempeña entonces un parámetro afín. BGV mostró que, con una normalización adecuada de t,
la tasa de expansión está dada por

con , yg definido por

Claramente, , y el argumento continúa como antes.


Ahora es posible una formulación rigurosa del teorema BGV. Sea l una geodésica temporal o
nula extendida al máximo al pasado, y sea C una congruencia geodésica temporal definida a lo
largo de l.
Si la tasa de expansión de C promediada a lo largo de l es positiva, entonces l. debe ser pasado
incompleto.

Notas
1. Véase, por ejemplo, Viatcheslav Mukhanov, Physical Foundations of Cosmology (Cambridge: University Press Cambridge,
2005).
2. En la relatividad general, el espacio y el tiempo están unificados en una sola entidad de cuatro dimensiones, llamada espacio-
tiempo.
3. Roger Penrose, “Colapso gravitacional y singularidades del espacio-tiempo”, Physical Review Letters 14, no. 57 (1965): 57–
59.
4. Matemáticamente, la condición de convergencia nula requiere que el tensor de curvatura de Ricci se satisfaga para todos los
vectores nulos. (Un vector nulo es un vector de norma cero,.)
5. Lawrence Ford, "Densidades de energía negativa en la teoría cuántica de campos", Revista Internacional de Física Moderna
A A25, no. 2355 (2010).
6. Para una revisión de la inflación cósmica, ver Alan Guth, The Inflationary Universe (Nueva York: Basic Books, 1998);
Alexander Vilenkin, Many Worlds in One (Nueva York: Hill y Wang, 2006).
7. Esto no está excluido por el teorema de la singularidad de Penrose, ya que la condición de convergencia nula que Penrose
usó en la demostración generalmente es violada por fluctuaciones cuánticas en un falso vacío.
8. Arvind Borde, Alan Guth y Alexander Vilenkin, “Los espaciotiempos inflacionarios son incompletos en direcciones pasadas”,
Physical Review Letters 90 (2003): 1–4.
9. George Ellis, Jeff Murugan y Christos Tsagas, "El universo emergente: una construcción explícita", Gravedad clásica y cuántica
21 (2004): 233–50.
10. Audrey Mithani y Alexander Vilenkin, "Inestabilidad de un universo emergente", Revista de cosmología y física de
astropartículas 1405 (2014).
11. Paul Steinhardt y Neil Turok, "Un modelo cíclico del universo", Science 296 (2002): 1.436–39.
12. Para una distribución uniforme (en promedio) de materia, la entropía es proporcional al volumen; si el volumen crece sin
límites, la entropía también es ilimitada.
13. Edward Milne, Cosmología moderna y la idea cristiana de Dios (Oxford: Clarendon Press, 1952).
14. Como se cita en Carl Friedrich von Weizsäcker, The Relevance of Science: Creation and Cosmology (Nueva York: Harper,
1964).
15. “Daniel Dennett sobre William Lane Craig”, YouTube (12 de agosto de 2009); “William Lane Craig sobre Daniel Dennett”,
YouTube (14 de diciembre de 2012); “Dawkins Vs Creationist”, YouTube (15 de enero de 2014).
dieciséis. William Craig, "Críticas teístas del ateísmo", en The Cambridge Companion to Atheism, ed. Michael Martin (Cambridge:
Cambridge University Press, 2007), págs. 69–85.
17. Esto se puede ilustrar con el siguiente ejemplo newtoniano. Considere un sistema de dos masas que interactúan
gravitacionalmente. La energía total del sistema es la suma de las energías cinéticas de su movimiento y la energía
gravitacional. (No tengo en cuenta la energía en reposo de las masas, que permanece constante para un movimiento mucho
más lento que la velocidad de la luz). Suponga que las masas comienzan en reposo a una gran distancia entre sí. Tanto la
energía cinética como la gravitacional son entonces iguales a cero, por lo que la energía total es cero. A medida que las masas
se aceleran entre sí bajo la acción de la gravedad, su energía cinética crece y, según la ley de conservación de la energía,
también crece la energía gravitacional, pero con signo opuesto.
18. La idea de la creación cuántica de universos a partir de la nada fue sugerida en mi artículo de 1982, y más tarde, en una
forma algo diferente, por James Hartle y Stephen Hawking, y también por Andrei Linde. Véase Alexander Vilenkin, “Creación
de universos a partir de la nada”, Physics Letters B 117 (1982): 25-28; James Hartle y Stephen Hawking, "Función de onda
del universo", Physical Review D 28, no. 12 (1983): 2960–75; Andrei Linde, “Creación cuántica del universo inflacionario”,
Lettere al Nuovo Cimento 39, no. 17 (1984): 401–5.
19. David Albert, "On the Origin of Everything", New York Times, 23 de marzo de 2012.
20. De hecho, la congruencia geodésica debe definirse solo a lo largo de la línea del mundo del observador.
5
Un universo moribundo: el destino a largo plazo y la
evolución de los objetos astrofísicos

Fred C. Adams y Gregory Laughlin

I. Introducción
El futuro a largo plazo del universo y su contenido es un tema de profunda importancia científica
y filosófica. Con nuestro conocimiento actual de la física y la astrofísica, muchas de las preguntas
sobre el destino final del universo ahora pueden abordarse cuantitativamente. Nuestro objetivo
es resumir y continuar el desarrollo de una teoría cuantitativa del futuro.
Las investigaciones del universo primitivo a energías accesibles e inaccesibles se han
convertido en un lugar común, y se ha logrado un gran progreso dentro de esta disciplina (ver,
por ejemplo, Weinberg, 1972, 1977; Kolb & Turner, 1990; Linde, 1990; Peebles, 1993;
Zuckerman y Malkan, 1996). Por otro lado, relativamente poco trabajo se ha centrado en el
futuro del universo. Los detalles del ardiente desenlace que le espera a un universo cerrado han
sido esbozados por Rees (1969), mientras que una descripción general del escenario
aparentemente más probable en el que el universo es abierto o plano y, por lo tanto, se expande
para siempre, se estableció en el artículo seminal Time Without End (Dyson, 1979). El desarrollo
de un universo abierto también fue considerado en detalle por el Islam (1977, 1979). El espíritu
del trabajo de Rees, Islam y Dyson inspiró varios estudios de seguimiento (ver también Rees,
1981). La próxima evolución de las estrellas de muy baja masa ha sido discutida en términos
generales por Salpeter (1982). Se estudiaron los efectos de la aniquilación de la materia en el
universo tardío (Page y McKee, 1981ab), y se han explorado algunos aspectos de la
desintegración de protones (Dicus et al., 1982; Turner, 1983). Finalmente, se ha propuesto la
posibilidad de que los dominios inflacionarios se reproduzcan a sí mismos (Linde, 1988). Sin
embargo, en general, el futuro del universo no se ha investigado exhaustivamente con cálculos
rigurosos. Se ha propuesto la posibilidad de que los dominios inflacionarios se reproduzcan a sí
mismos (Linde, 1988). En general, sin embargo, el futuro del universo no se ha investigado
exhaustivamente con cálculos rigurosos. Se ha propuesto la posibilidad de que los dominios
inflacionarios se reproduzcan a sí mismos (Linde, 1988). En general, sin embargo, el futuro del
universo no se ha investigado exhaustivamente con cálculos rigurosos.
Debido a que el futuro del universo tiene un gran interés intrínseco, varios libros populares
recientes han abordado el tema (por ejemplo, Davies, 1994; Dyson, 1988; Barrow y Tipler, 1986;
Poundstone, 1985). Los autores también se han enfrentado a las intrigantes perspectivas de la
continuación de la vida, tanto humana como de otro tipo, en un futuro lejano (p. Ej., Dyson, 1979;
Frautschi, 1982; Barrow & Tipler, 1986; Linde, 1988, 1989; Tipler, 1992; Gott, 1993 ; Ellis y
Coule, 1994). Nuestro objetivo, sin embargo, es proceder de la manera más cuantitativa posible.
Aplicamos principios físicos conocidos para investigar el futuro del universo en escalas
planetarias, estelares, galácticas y cósmicas. El tema de la vida, por atractivo que sea, no se
considera aquí.
En la cosmología estándar del Big Bang, las épocas evolutivas generalmente se expresan en
términos de corrimiento al rojo. Sin embargo, al considerar el futuro lejano, el tiempo en sí
mismo suele ser la medida evolutiva más relevante. El inmenso rango dinámico de escalas de
tiempo τ involucradas en el sujeto sugiere una conveniente unidad logarítmica de tiempo η,
definida por

(1,1)
Nos referimos a un valor entero particular de η como una "década cosmológica". Por ejemplo, la
edad actual del universo corresponde a η ≈ 10.
El artículo de fe inherente a nuestra discusión es que las leyes de la física son constantes en el
tiempo, al menos en el rango de escalas de tiempo 10 <η <100 bajo consideración. No hay
garantía general de que se mantenga esta suposición. Sin embargo, la cosmología moderna
sugiere que las leyes físicas se han mantenido constantes desde la época de Planck hasta el
presente, es decir, durante décadas cosmológicas que abarcan el rango −50 ≤ η ≤ 10, y hay pocas
razones para esperar que no continúen haciéndolo. También asumimos implícitamente que se
conoce toda la física relevante (con plena conciencia del hecho de que nuestra versión del futuro
estará sujeta a revisión a medida que mejore la comprensión física).
Este artículo está organizado en un orden cronológico aproximado, pasando de eventos en un
futuro relativamente cercano a eventos en el futuro lejano. En la sección §II, discutimos los
procesos físicos que afectan la evolución estelar convencional; estos procesos tendrán lugar en
el rango de tiempo 10 <η <15. En §III, discutimos eventos que conducen a la interrupción y
muerte de la galaxia; estos procesos se desarrollan en un rango de tiempo 15 <η <25. Avanzando
en el tiempo, en §IV, discutimos el destino de los objetos estelares frente a procesos a muy largo
plazo, incluida la desintegración de protones (30 <η <40), y radiación de Hawking (60 <η <100).
En §V, ampliamos nuestro alcance y nos centramos en la evolución a largo plazo del universo en
su conjunto. Concluimos, en §VI, con una descripción general de nuestros resultados. Dado que
la escatología física sigue siendo embrionaria,

II El fin de la evolución estelar convencional


En la época actual, las estrellas son la piedra angular de la astrofísica. Las estrellas median la
aparición y evolución de las galaxias, las estrellas son responsables de la evolución de la
composición química de la materia y las estrellas nos proporcionan gran parte de la información
que tenemos sobre el estado actual del universo.
Durante los próximos miles de veces del Hubble, las estrellas en evolución convencional
seguirán desempeñando el papel central. Por lo tanto, consideramos los aspectos venideros de
nuestra época actual, que denominamos Era Stelliferous. En particular, el hecho de que la
mayoría de las estrellas apenas hayan comenzado a evolucionar motiva una extensión de los
cálculos estándar de evolución estelar de estrellas de muy baja masa a escalas de tiempo mucho
más largas que la edad actual del universo. También discutimos la formación continua de
estrellas dentro de la galaxia y la distribución de masa final de los remanentes estelares.

Una vida de estrellas de la secuencia principal


Las estrellas de baja masa son, con mucho, el lugar más común (por ejemplo, Henry, Kirkpatrick
y Simons, 1994) y viven durante mucho tiempo. Para una aproximación de trabajo, la vida útil
de la secuencia principal (núcleo-hidrógeno-combustión) de una estrella depende de su masa a
través de la relación

(2.1a)
donde el índice α ≈ 3 - 4 para estrellas de baja masa. En términos de décadas cosmológicas η,
obtenemos

(2.1b)
Así, por ejemplo, η * ≈ 13 para una estrella pequeña con M * = 0,1 Me. De hecho, en la actualidad,
solo las estrellas con masas M *> 0.8Me han tenido tiempo de experimentar una evolución
significativa posterior a la secuencia principal. Por lo tanto, una gran fracción,

(2,2)
de todas las estrellas que se han formado todavía tienen que experimentar una evolución
significativa (aquí, dN / dm es la distribución de masa - ver §II.E). Efectivamente, todavía estamos
en medio de las fases iniciales transitorias de la época estelífera.
Se ha prestado muy poca atención al desarrollo posterior a la secuencia principal de estrellas
que son lo suficientemente pequeñas como para sobrevivir a la edad actual del universo. Un
ensayo de Salpeter (1982) contiene una discusión cualitativa sobre la evolución de las estrellas
M (especialmente con respecto a la producción de 3He) pero las secuencias evolutivas estelares
detalladas no se han presentado en la literatura. Sin embargo, existe una colección considerable
de artículos que discuten las propiedades de pre-secuencia principal y secuencia principal de
estrellas de muy baja masa (por ejemplo, Kumar, 1963; Copeland, Jensen y Jorgensen, 1970;
Grossman y Graboske, 1971; D 'Antona y Mazzitelli, 1985; Dorman, Nelson y Chau, 1989). La
mejor familia completa de modelos que abarca las enanas M y las enanas marrones es
probablemente la de Burrows et al. (1993). Esos autores dedican atención a las fases de
enfriamiento formativo, así como a la masa exacta de la estrella de masa mínima (que para su
entrada física ocurre en M * = 0.0767 M e). No se consideró la evolución más allá de los 20 mil
millones de años (ver también Burrows y Liebert, 1993).
Recientemente se ha abordado la escasez de información sobre el destino de las enanas M
(Laughlin, Bodenheimer y Adams, 1996). Hemos realizado una serie detallada de cálculos de
evolución estelar que siguen la pre-secuencia principal hasta la evolución post-secuencia
principal de enanas M tardías, produciendo la siguiente imagen de lo que les espera a las estrellas
de baja masa.
Las estrellas recién formadas que contienen menos masa que M * ~ 0.25M e son
completamente convectivas en la mayor parte de su estructura. La capacidad de estas estrellas
para mezclar completamente sus contenidos tiene varias consecuencias importantes. En primer
lugar, estas estrellas M tardías mantienen el acceso a toda su reserva inicial de hidrógeno, lo que
prolonga en gran medida su vida útil en comparación con las estrellas más pesadas como el sol,
que ven su suministro de combustible restringido por núcleos radiativos estratificados. En
segundo lugar, como lo reconoció Salpeter (1982), la convección total impide la acumulación de
gradientes de composición que son en última instancia responsables (en parte) del ascenso de
una estrella por la rama de la gigante roja. Las estrellas de menor masa queman todo su
hidrógeno en helio en una escala de tiempo η = 13, y luego se desvanecen silenciosamente de la
prominencia como enanas blancas de helio. Este escenario evolutivo general se detalla en la
Figura 5.
Figura 5.1El diagrama de Hertzsprung-Russell para estrellas de baja masa para escalas de tiempo mucho más largas que la edad
actual del universo. Las curvas etiquetadas muestran las pistas evolutivas de estrellas de masas variables, desde 0,08 M◉ a 0,25
M◉, así como la pista de la enana marrón para un objeto subestelar con masa M * = 0,06 M◉. La figura insertada muestra las vidas
de la secuencia principal en función de la masa estelar.

Al emerger de su núcleo de nube madre, la estrella de menor masa capaz de quemar hidrógeno
(M * ≈ 0.08M e) desciende por la trayectoria convectiva de Hayashi y llega a la secuencia principal
con una luminosidad L * ~ 10−4 L e. La fase de la secuencia principal se caracteriza por un
aumento gradual y prolongado tanto de la luminosidad como de la temperatura superficial
efectiva a medida que se consume hidrógeno. Debido a la temperatura predominante
relativamente baja en el núcleo estelar (T c ≈ 4 × 106 K), la cadena de reacción nuclear protón-
protón se desacopla del equilibrio estadístico y la concentración de 3He aumenta de manera
constante hasta η = 12,6, momento en el que una Se ha alcanzado la fracción de masa máxima del
16% de 3He. A medida que se agota el suministro inicial de hidrógeno, la estrella se calienta y se
contrae, quema el 3He, aumenta su luminosidad en un factor de 10 y más que duplica su
temperatura efectiva. Después de ~ 11 billones de años, cuando la estrella se ha convertido en
un 90% de 4He en masa, finalmente se desarrolla un núcleo radiativo. La escala de tiempo
evolutivo comienza a acelerarse y el hidrógeno se agota con relativa rapidez en el centro de la
estrella. Cuando la combustión nuclear dentro de la modesta fuente de capa resultante ya no
puede proporcionar los requisitos de energía de montaje de la estrella, la estrella comienza a
contraerse y enfriarse y finalmente se convierte en una enana blanca de helio. Las estrellas con
masas de hasta ~ 0,20 M e siguen esencialmente este mismo escenario evolutivo. A medida que
aumenta la masa estelar, los núcleos radiativos se desarrollan antes y las estrellas realizan
excursiones hacia el azul cada vez más dramáticas en el diagrama HR. y el hidrógeno se agota
con relativa rapidez en el centro de la estrella. Cuando la combustión nuclear dentro de la
modesta fuente de capa resultante ya no puede proporcionar los requisitos de energía de
montaje de la estrella, la estrella comienza a contraerse y enfriarse y finalmente se convierte en
una enana blanca de helio. Las estrellas con masas de hasta ~ 0,20 M e siguen esencialmente este
mismo escenario evolutivo. A medida que aumenta la masa estelar, los núcleos radiativos se
desarrollan antes y las estrellas realizan excursiones hacia el azul cada vez más dramáticas en el
diagrama HR. y el hidrógeno se agota relativamente rápido en el centro de la estrella. Cuando la
combustión nuclear dentro de la modesta fuente de capa resultante ya no puede proporcionar
los requisitos de energía creciente de la estrella, la estrella comienza a contraerse y enfriarse y
finalmente se convierte en una enana blanca de helio. Las estrellas con masas de hasta ~ 0,20 M
e siguen esencialmente este mismo escenario evolutivo. A medida que aumenta la masa estelar,
los núcleos radiativos se desarrollan antes y las estrellas realizan excursiones hacia el azul cada
vez más dramáticas en el diagrama HR.
Una estrella con una masa ligeramente mayor, M * = 0.23 M e, experimenta el inicio de un
núcleo radiativo cuando la fracción de masa de hidrógeno cae por debajo del 50%. Los gradientes
de composición que siguen son suficientes para conducir brevemente a la estrella a una
temperatura efectiva más baja a medida que aumenta la luminosidad. En este sentido, las
estrellas con masa M * = 0.23M e representan los objetos de menor masa que pueden convertirse
en “Gigantes Rojas” convencionales. Sin embargo, en estas masas bajas, la fase gigante completa
no se completa. Las estrellas con masa inicial M * <0.5 M e no podrán generar las altas
temperaturas centrales (Tc ~ 108 K) requeridas para el destello de helio; estas estrellas abortan
su ascenso por la rama gigante al virar hacia la izquierda en el diagrama HR de la manera
sugerida por la Figura 5.1.
Los aumentos constantes de luminosidad experimentados por el envejecimiento de las enanas
M tendrán un efecto considerable en la relación masa / luz de la galaxia. Por ejemplo, a medida
que evoluciona una estrella de 0,2 M e, hay una época relativamente fugaz (en η ≈ 12) durante la
cual la estrella tiene aproximadamente el mismo radio y luminosidad que el sol actual. Dado que
las enanas M constituyen la fracción principal de todas las estrellas, la luminosidad total de la
galaxia seguirá siendo respetablemente grande, L gal ~ 1010 L e, en esta fecha futura. Esta
luminosidad es aproximadamente comparable a la luminosidad característica L * = 3,4 × 1010 L
e mostrada por las galaxias actuales (Mihalas y Binney, 1981).

B Próximos efectos de metalicidad


Los cálculos evolutivos anteriores asumieron un conjunto de abundancia solar. En el futuro, la
metalicidad de la galaxia aumentará constantemente a medida que las estrellas continúen
procesando hidrógeno y helio en elementos pesados. Por tanto, es útil determinar los efectos de
estos aumentos de metalicidad.

1 Vidas estelares vs metalicidad


Primero, es posible construir una relación de escala simple que aclare cómo la vida útil estelar τ
* depende de la metalicidad Z. La vida útil estelar está dada aproximadamente por la cantidad de
combustible disponible dividida por la tasa de consumo de combustible, es decir,

(2,3)
donde M * es la masa estelar y X es la fracción de masa de hidrógeno. Para estrellas de masa
relativamente baja, la luminosidad L obedece a la relación de escala

(2,4)
donde μ es el peso molecular medio de la estrella y donde κ0 es la constante de proporcionalidad
que aparece en la relación de opacidad habitual para las estrellas (Clayton, 1983). Por lo tanto,
para una masa estelar dada M *, la vida útil se escala de acuerdo con

(2,5)
Para evaluar la relación de escala de vida estelar, es necesario saber cómo los parámetros κ0, X
y μ varían con la metalicidad. La constante de opacidad κ0 depende aproximadamente de forma
lineal de la metalicidad, es decir,

(2,6)
El peso molecular medio μ se puede escribir aproximadamente en la forma

(2,7)
donde Y es la fracción de masa de helio (p. ej., véase Clayton, 1983). Por definición, las fracciones
de masa obedecen a la relación

(2,8)
Finalmente, para este modelo simple, escribimos la abundancia de helio Y en la forma

(2,9)
donde YP es la abundancia primordial y el factor f explica el aumento de la abundancia de helio
a medida que aumenta la metalicidad. Las consideraciones de la nucleosíntesis del Big Bang
indican que YP ≈ 1/4 (Kolb & Turner, 1990), mientras que f ≈ 2 se basa en el enriquecimiento
solar en Y y Z en relación con los valores primordiales. Combinando los resultados anteriores,
obtenemos una relación de escala para la dependencia de las vidas estelares de la metalicidad,
(2,10)
donde hemos definido las constantes a ≡ 4 (1 + f) / 3 ≈ 4 yb ≡ 8/9 + 20f / 27 ≈ 64/27. Este
resultado implica que las vidas estelares tienen un valor máximo. En particular, encontramos
que las estrellas nacidas con metalicidad Z ≈ 0.04 viven más tiempo. Para valores más altos de Z,
la reducción del combustible nuclear y el cambio en la composición superan la disminución de la
luminosidad que prolonga la vida útil derivada del aumento de la opacidad.
Un conjunto reciente de cálculos de la evolución química galáctica (Timmes, 1996) ha
investigado mucho en la época estelífera. Las mejores indicaciones sugieren que el conjunto de
abundancia galáctica se acercará a una composición asintóticamente constante (X ~ 0,2, Y ~ 0,6
y Z ~ 0,2) en una escala de tiempo η ~ 12. Como consecuencia, cualquier generación de estrellas
formada después de η ~ 12 sufrirá tiempos de vida significativamente más cortos que el máximo
teórico implícito en la ecuación [2.10].

2 masas estelares vs metalicidad


La masa estelar estable máxima disminuye a medida que aumenta la metalicidad. En la secuencia
principal, la masa máxima posible se alcanza cuando la presión de radiación de la estrella llega a
dominar la presión térmica (gas) dentro de la estrella. Aquí, introducimos el ansatz habitual de
que la presión total en el centro de la estrella se puede escribir en la forma PC = PR + P g, donde
la presión térmica del gas está dada por la fracción P g = βP C y, de manera similar, PR = (1 - β)
PC. Usando la ley del gas ideal para la presión térmica y la ecuación de estado para un gas de
fotones, podemos escribir la presión central en la forma

, (2,11)
donde k es la constante de Boltzmann y a es la constante de radiación. La cantidad μ es
nuevamente el peso molecular medio y se puede escribir en la forma de la ecuación [2.7]. En
equilibrio hidrostático, la presión central requerida para soportar una estrella de masa M * se
puede expresar como

, (2,12)
donde ρ C es la densidad central (ver Phillips, 1994).
Al igualar las dos expresiones anteriores [2.11] y [2.12], podemos resolver la masa para
encontrar

(2,13)
donde hemos establecido β = 1/2 para obtener el valor numérico. Por tanto, la masa estelar
máxima depende de forma algo sensible del peso molecular medio μ, que a su vez es función de
la metalicidad. Aplicando las aproximaciones [2.7], [2.8] y [2.9], se puede escribir la masa
máxima en la forma

(2,14)
Por lo tanto, para el valor asintótico esperado de la metalicidad, Z = 0.2, la estrella de masa
máxima es solo M * ≈ 30M e.
La metalicidad en continuo aumento del medio interestelar también tendrá implicaciones para
las estrellas de baja masa. Una metalicidad más alta conduce a un enfriamiento más efectivo, lo
que conduce a temperaturas más bajas, lo que a su vez favorece la formación de estrellas menos
masivas (por ejemplo, ver la teoría reciente de la función de masa inicial de Adams y Fatuzzo,
1996). El FMI del futuro debería inclinarse aún más dramáticamente a favor de las estrellas más
débiles.
Los próximos aumentos de la metalicidad también pueden disminuir la masa de la estrella de
secuencia principal de masa mínima como resultado de los efectos de opacidad (cf. las revisiones
de Stevenson, 1991; Burrows y Liebert, 1993). También pueden ocurrir otros efectos
inesperados. Por ejemplo, cuando la metalicidad alcanza varias veces el valor solar, los objetos
con masa M * = 0,04 M e pueden, muy posiblemente, detener su enfriamiento y contracción y
aterrizar en la secuencia principal cuando se forman espesas nubes de hielo en sus atmósferas.
Tales "estrellas congeladas" tendrían una temperatura efectiva de T * ≈ 273 K, mucho más fría
que las actuales estrellas de secuencia principal de masa mínima. La luminosidad de estos
objetos frugales sería más de mil veces menor que las estrellas más tenues de hoy, con aumentos
proporcionales en la longevidad.

C El destino de la Tierra y el Sol


Un escenario popular y citado con frecuencia para la desaparición de la Tierra implica la
destrucción por evaporación durante la fase de la rama gigante asintótica (AGB) del Sol. A
medida que el Sol abandona la rama horizontal y se expande para convertirse en una estrella
AGB, su radio exterior puede aumentar hasta tal punto que el radio fotosférico sobrepasa el radio
orbital actual de la Tierra. Si este estado de cosas llega a suceder, entonces dos procesos
importantes afectarán a la Tierra: [1] Evaporación de material debido al calor extremo, y [2]
Desintegración orbital por fricción. Este segundo proceso conduce inexorablemente a la Tierra
hacia el sol gigante, aumentando así la eficacia del proceso de evaporación. Una vez que la Tierra
se encuentra dentro del Sol, la escala de tiempo para la desintegración orbital está
aproximadamente dada por el tiempo requerido para que la Tierra expirante recorra su masa,
ME, en material solar. Este breve intervalo de tiempo viene dado por
(2,15)
donde ρe ~ 10−6 g / cm3 es la densidad de masa del material solar en la fotosfera, RE ≈ 6370 km
es el radio de la Tierra y υorbit ≈ 30 km / s es la velocidad orbital. Por lo tanto, la desaparición
de la Tierra le sobrevendrá rápidamente, incluso en comparación con la escala de tiempo de
evolución estelar acelerada inherente a la rama gigante asintótica. La Tierra será arrastrada
eficientemente hacia el interior del Sol y vaporizada en el feroz calor del plasma estelar, siendo
su único legado un pequeño aumento (0.01%) en la metalicidad de la envoltura exterior
distendida del Sol.
Sin embargo, trabajos recientes sugieren que esta escena dramática puede evitarse. Cuando el
sol alcanza una luminosidad de ~ 100L e en su ascenso a la rama gigante roja, experimentará
una gran pérdida de masa a través de la acción de fuertes vientos estelares. La pérdida de masa
da como resultado un aumento de los radios orbitales de los planetas y puede ayudar a la Tierra
a evitar la destrucción. Sin embargo, la cantidad real de pérdida de masa sigue siendo incierta;
Las estimaciones se basan en gran medida en mediciones empíricas (ver Reimers, 1975), pero
parece razonable que el sol disminuya a ~ 0,70 M e cuando alcance la punta de la rama gigante
roja, y termine su fase AGB como una enana blanca de carbón. con masa ~ 0,5 M e. Sackmann,
Boothryod y Kraemer (1993) han realizado cálculos detallados de la evolución estelar del sol. En
su mejor escenario de pérdida masiva, descubren que los radios orbitales tanto de la Tierra como
de Venus aumentan lo suficiente como para evitar ser engullidos durante la fase AGB. Solo con
una suposición de pérdida de masa más conservadora, en la que el Sol retiene 0,83 M e al llegar
a la rama horizontal, el radio solar finalmente supera la órbita de la Tierra.

D Continuación de la formación de estrellas en la galaxia.


Las galaxias solo pueden vivir mientras sus estrellas. Por lo tanto, es útil estimar cuánto tiempo
una galaxia puede mantener una formación estelar normal (ver, por ejemplo, Shu, Adams y
Lizano, 1987) antes de que se quede sin materia prima. En particular, uno quisiera saber cuándo
se forma la última estrella.
Se han realizado muchos estudios de la historia de la formación de estrellas tanto en nuestra
galaxia como en otras galaxias de disco (p. Ej., Roberts, 1963; Larson y Tinsley, 1978; Rana, 1991;
Kennicutt, Tamblyn y Congdon, 1994; en adelante KTC). Aunque surgen muchas incertidumbres
en estas investigaciones, los resultados pueden resumirse a grandes rasgos como sigue. El
tiempo de agotamiento del gas τ R para una galaxia de disco se define como la masa actual en
gas, M gas, dividida por la tasa de formación de estrellas SFR, es decir,

. (2,16)
Para las típicas galaxias de disco, esta escala de tiempo es comparable a la edad actual del
universo; KTC cita un rango τ R ≈ 5 - 15 Gyr. La escala de tiempo real para el agotamiento (total)
del gas será más larga porque se espera que la tasa de formación de estrellas disminuya a medida
que disminuye la masa en el gas. Por ejemplo, si asumimos que la tasa de formación de estrellas
es proporcional a la masa actual en gas, obtenemos un tiempo de agotamiento total de la forma

(2,17)
donde M 0 es la masa inicial en gas y MF es la masa final. Para las típicas galaxias de disco, la
masa de gas inicial es M 0 ~ 1010 M e (consulte la Tabla 5 de KTC). Por lo tanto, si tomamos el
caso extremo de MF = 1 M e, el tiempo total de agotamiento del gas es solo τ ≈ 23τ R ≈ 120 - 350
Gyr. En términos de décadas cosmológicas, el tiempo de agotamiento del gas se convierte en η D
= 11,1 - 11,5.
Varios efectos tienden a extender la escala de tiempo de agotamiento del gas más allá de esta
simple estimación. Cuando las estrellas mueren, devuelven una fracción de su masa al medio
interestelar. Este efecto de reciclaje de gas puede prolongar la escala de tiempo de agotamiento
del gas en un factor de 3 o 4 (KTC). Se puede agregar gas adicional a la galaxia a través de la caída
en el disco galáctico, pero este efecto debería ser relativamente pequeño (cf. la revisión de Rana,
1991); la masa total agregada al disco no debe aumentar la escala de tiempo en más de un factor
de 2. Finalmente, si la tasa de formación de estrellas disminuye más rápidamente con la
disminución de la masa de gas que la ley lineal simple utilizada anteriormente, entonces la escala
de tiempo de agotamiento se vuelve correspondientemente más grande. Dadas estas
complicaciones, esperamos que el tiempo real de agotamiento del gas caiga en el rango

(2,18)
Por lo tanto, en la década cosmológica η ≈ 14, esencialmente toda la formación normal de
estrellas en las galaxias habrá cesado. Casualmente, las enanas M de masa baja tienen
expectativas de vida que son comparables a esta escala de tiempo. En otras palabras, tanto la
formación estelar como la evolución estelar llegan a su fin aproximadamente en la misma década
cosmológica.
Hay algunos indicios de que la formación de estrellas puede apagarse aún más drásticamente
de lo que se describió anteriormente. Una vez que la densidad del gas cae por debajo de una
densidad superficial crítica, la formación de estrellas puede apagarse por completo (como en las
galaxias elípticas y S0). El gas puede calentarse por completo mediante su lenta acumulación en
un agujero negro central.
Estos resultados indican que la evolución estelar se limita a un rango razonablemente estrecho
de décadas cosmológicas. Es presumiblemente imposible que las estrellas formen y quemen
hidrógeno antes de la época de recombinación en el universo (con un corrimiento al rojo z ~
1000 y, por tanto, η ~ 5,5). Por lo tanto, existirá un número significativo de estrellas solo dentro
del rango

(2,19)
La época actual (η ~ 10) se encuentra cerca del centro de este rango de escalas de tiempo
(logarítmicas). Por otro lado, si usamos una escala de tiempo lineal, la época actual se encuentra
muy cerca del comienzo de la era estelífera.

E La función de masa final


Cuando la formación estelar ordinaria y la evolución estelar convencional hayan cesado, todos
los objetos estelares restantes estarán en forma de enanas marrones, enanas blancas, estrellas
de neutrones y agujeros negros. Una forma de caracterizar el contenido estelar del universo en
esta época es mediante la distribución de masa de estos objetos; nos referimos a esta distribución
como la "Función de masa final" o FMF. Técnicamente, la función de masa final no es definitiva
en el sentido de que los objetos degenerados también pueden evolucionar y, por lo tanto, cambiar
sus masas, aunque en escalas de tiempo mucho más largas. La evolución posterior de los objetos
degenerados se analiza en detalle en el § IV.
Dos factores actúan para determinar la FMF: [1] La distribución inicial de masas estelares (la
función de masa inicial [IMF] para las estrellas progenitoras), y [2] La transformación entre la
masa estelar inicial y la masa del objeto degenerado final. Ambos componentes pueden depender
del tiempo cosmológico. En particular, se espera que los efectos de la metalicidad tenderán a
desplazar al FMI hacia masas más bajas a medida que pasa el tiempo.
La función de masa inicial se puede especificar en términos de una forma log-normal general
para la distribución de masa ψ = dN / d ln m,

(2,20)
donde A, m C y 〈σ〉 son constantes. A lo largo de esta discusión, las masas estelares se escriben
en unidades solares, es decir, m º M * / (1M e). Esta forma general para el FMI está motivada
tanto por la teoría actual de la formación de estrellas como por consideraciones estadísticas
generales (Adams y Fatuzzo, 1996; Zinnecker, 1984; Larson, 1973; Elmegreen y Mathieu, 1983).
Además, esta forma es (aproximadamente) consistente con las observaciones (Miller y Scalo,
1979), que sugieren que los parámetros de forma tienen los valores 〈σ〉 ≈ 1.57 ym C ≈ 0.1 para
el FMI actual (ver también Salpeter, 1955; Scalo, 1986; Rana, 1991). La constante A establece la
normalización general de la distribución y no es de interés aquí.
Para una función de masa inicial dada, debemos encontrar las masas finales m F de los objetos
degenerados resultantes de las estrellas progenitoras con una masa m dada. Para la gama de
masas progenitoras de la enana marrón, m <m H, los objetos estelares no evolucionan a través
de procesos nucleares y, por lo tanto, m F = m. Aquí, la escala m H ≈ 0.08 es la masa estelar mínima
requerida para que tenga lugar la combustión del hidrógeno.
Las estrellas progenitoras en el rango de masa m H ≤ m ≤ m SN eventualmente se convierten
en enanas blancas, donde la escala de masa m SN ≈ 8 es la masa estelar mínima requerida para
que la estrella explote en una supernova (tenga en cuenta que la escala de masa m SN puede
depender sobre la metalicidad - ver Jura, 1986). Por lo tanto, para la porción de la población de
enanas blancas, debemos especificar la transformación entre la masa del progenitor my la masa
de la enana blanca m WD. Los resultados de Laughlin et al. (1996) indican que las estrellas con
masas de secuencia principal m <0,4 sufrirán una pérdida de masa insignificante al convertirse
en enanas blancas de helio. Desafortunadamente, esta relación permanece algo mal definida en
masas más altas, principalmente debido a las incertidumbres en las tasas de pérdida de masa de
la gigante roja (por ejemplo, ver Wood, 1992). En aras de la precisión, adoptamos la siguiente
transformación entre masa progenitora y masa enana blanca,

(2,21)
con α = 1,4 y β = 1/15. Esta fórmula es consistente con los modelos de Wood (1992) sobre el
rango de masa apropiado y se acerca a la forma esperada m WD = m en el límite de masa baja.
Las estrellas con grandes masas iniciales, m> m SN, terminan su vida en explosiones de
supernovas y dejan una estrella de neutrones (aunque, en principio, también se pueden producir
agujeros negros). Se espera que la masa de la estrella de neutrones remanente esté cerca del
límite de Chandrasekhar m Ch ≈ 1.4, como se confirmó en el caso del púlsar binario (Manchester
y Taylor, 1977).
Para calcular la FMF, se convoluciona la función de masa inicial con las transformaciones de
estrellas progenitoras en enanas blancas y estrellas de neutrones. La función de masa final
resultante se muestra en la figura 5.2. A modo de comparación, también se muestra la función de
masa inicial (como la curva discontinua). Observe que las dos distribuciones son similares para
masas menores que la masa de Chandrasekhar (~ 1.4 M e) y completamente diferentes para
masas más grandes.
Figura 5.2La función de masa final (FMF) para estrellas. La curva sólida muestra la distribución prevista m (dN / dm) para las
masas de los objetos estelares degenerados (enanas marrones, enanas blancas y estrellas de neutrones) que permanecen en la
época cosmológica en la que ha cesado la formación estelar convencional. La curva punteada muestra la distribución de masa de
la población progenitora inicial (la función de masa inicial).

Una vez que se ha determinado la FMF, se puede estimar el número y las fracciones de masa
de los diversos constituyentes de la FMF. Definimos N BD como la fracción de enanas marrones
por número y M BD como la fracción de enanas marrones por masa, con fracciones análogas para
enanas blancas (N WD y M WD) y estrellas de neutrones (N NS y M NS). Para un IMF de la forma
[2.20] con valores actuales para los parámetros de forma, obtenemos las siguientes fracciones
numéricas:

(2,22)
De manera similar, para las fracciones de masa se encuentra

(2,23)
Por lo tanto, se espera que las enanas marrones estén presentes en cantidades sustanciales, pero
la mayor parte de la masa residirá en forma de enanas blancas. Las estrellas de neutrones harán
una contribución relativamente pequeña a la población estelar total. Los valores anteriores para
N NS y M NS se obtuvieron bajo el supuesto de que todas las estrellas m> m SN ~ 8 producen
estrellas de neutrones. En realidad, una parte de estas estrellas de gran masa puede colapsar
para formar agujeros negros, pero esta complicación no afecta materialmente la imagen básica
descrita anteriormente.

III Muerte de la galaxia


Hemos argumentado que, a largo plazo, la galaxia incorporará una gran fracción de la materia
bariónica disponible en las estrellas. Para la década cosmológica η = 14 - 15, el componente
estelar de la galaxia estará en forma de remanentes degenerados aparentemente inertes. La
actividad galáctica adicional involucrará estos remanentes en fenómenos que se desarrollan en
escalas de tiempo que van desde η ~ 15 - 30. Este período de tiempo es parte de lo que llamamos
la Era Degenerada.
El curso de esta evolución dinámica galáctica a largo plazo está dictado por dos procesos
competitivos generalizados. Primero, en un sistema físico aislado que contiene cualquier tipo de
mecanismo disipativo (por ejemplo, radiación gravitacional o encuentros inelásticos
extremadamente cercanos entre estrellas individuales), el sistema debe evolucionar hacia un
estado de menor energía mientras simultáneamente conserva el momento angular. La
consecuencia neta de este proceso es una configuración en la que la mayor parte de la masa se
concentra en el centro y la mayor parte del momento angular es transportado por pequeñas
parcelas en grandes radios. (El sistema solar actual presenta un buen ejemplo de este proceso
en funcionamiento). Alternativamente, se produce una segunda tendencia competitiva cuando
los procesos de relajación sin colisiones son viables. En una galaxia, los encuentros distantes
entre estrellas individuales son efectivamente libres de colisiones. Con el tiempo, las estrellas
tienden a evaporarse del sistema, el producto final de este proceso es una aglomeración
fuertemente unida (tal vez un agujero negro masivo) en el centro, que contiene solo una fracción
bastante pequeña de la masa total. Por lo tanto, se deben estimar las eficiencias relativas de los
procesos disipativos y sin colisiones para predecir el estado final de la galaxia. Esta misma
competencia ocurre para los sistemas físicos en escalas más grandes (por ejemplo, cúmulos de
galaxias) y escalas más pequeñas (por ejemplo, cúmulos globulares). hay que estimar las
eficiencias relativas de los procesos disipativos y sin colisiones para predecir el estado final de
la galaxia. Esta misma competencia ocurre para los sistemas físicos en escalas más grandes (por
ejemplo, cúmulos de galaxias) y escalas más pequeñas (por ejemplo, cúmulos globulares). hay
que estimar las eficiencias relativas de los procesos disipativos y sin colisiones para predecir el
estado final de la galaxia. Esta misma competencia ocurre para los sistemas físicos en escalas
más grandes (por ejemplo, cúmulos de galaxias) y escalas más pequeñas (por ejemplo, cúmulos
globulares).
Además de la radiación gravitacional y la relajación dinámica, las colisiones ocasionales entre
objetos subestelares, las enanas marrones, proporcionan un canal para la formación continua de
estrellas a un ritmo muy lento. Las colisiones y fusiones que involucran a dos enanas blancas
darán lugar a una supernova de tipo I ocasional, mientras que los impactos raros que involucran
estrellas de neutrones generarán explosiones de energía aún más exóticas. Estos eventos son
impresionantes hoy. Serán realmente espectaculares dentro del ambiente frío y empobrecido de
una galaxia evolucionada.

Una relajación dinámica de la galaxia


Un sistema estelar como una galaxia se relaja dinámicamente debido a los encuentros estelares.
La escala de tiempo característica asociada con este proceso en el caso de sistemas puramente
estelares es bien conocida y puede escribirse como

(3,1)
donde R es el tamaño del sistema, υ es la velocidad aleatoria típica y N es el número total de
estrellas (para una discusión más detallada, ver Lightman y Shapiro, 1978; Shu, 1982; Binney y
Tremaine, 1987). El factor logarítmico que aparece en el denominador tiene en cuenta los efectos
de muchas desviaciones de ángulos pequeños de estrellas a través de encuentros distantes. La
escala de tiempo para que las estrellas se evaporen fuera del sistema está aproximadamente
dada por

(3,2)

donde hemos utilizado R = 10 kpc, υ = 40 km / s, y N = 1011 para obtener el resultado numérico.


Obtenemos así la estimación correspondiente

(3,3)
Así, las estrellas escapan de la galaxia con una escala de tiempo característica η ≈ 19 - 20 (ver
también Islam, 1977; Dyson, 1979).
La evolución dinámica estelar de la galaxia es más complicada que la simple imagen descrita
anteriormente. Primero, es probable que la galaxia tenga un halo extendido de materia oscura,
gran parte de la cual puede estar en forma no bariónica. Dado que este halo oscuro no participa
completamente en el proceso de relajación dinámica, el halo tiende a estabilizar el sistema y hace
que la escala de tiempo de evaporación estelar sea algo más larga que la simple estimación dada
anteriormente.
Otras cuestiones dinámicas también pueden ser importantes. En los cúmulos globulares, por
ejemplo, la segregación masiva ocurre mucho antes de que la evaporación estelar y el
calentamiento de las estrellas binarias jueguen un papel importante (realmente dominante) en
la evolución a largo plazo. Por otro lado, la ecuación [3.1] es formalmente válida sólo si las
estrellas no están ligadas a sistemas binarios o triples. Los efectos de interacción binaria pueden
ser importantes para la evolución a largo plazo del componente estelar de la galaxia. En
particular, la presencia de binarios puede aumentar la sección transversal de interacción efectiva
y puede conducir a una variedad de tipos adicionales de interacciones. Son posibles tanto las
interacciones de tres cuerpos como las interacciones binario-binario. Como regla general, las
interacciones conducen a que los binarios duros se vuelvan más difíciles y los binarios anchos se
vuelvan más suaves o incluso se interrumpan ("ionizados"). Los binarios que se vuelven lo
suficientemente duros (cercanos) pueden girar en espiral hacia adentro, convertirse en sistemas
de transferencia de masa y eventualmente explotar como supernovas. Estos efectos recién ahora
se están entendiendo en el contexto de la evolución de los cúmulos globulares (para una
discusión más detallada de estos problemas dinámicos, ver, por ejemplo, Chernoff y Weinberg,
1990; Hut et al., 1992).
Las galaxias en general, y nuestra galaxia en particular, viven en grupos o cúmulos. Estos
sistemas de mayor escala también se someterán a procesos de relajación dinámica análogos a
los discutidos anteriormente. Sin embargo, un problema más inmediato que puede afectar a
nuestra galaxia en un futuro relativamente cercano es la posibilidad de fusionarse con otras
galaxias del grupo local, en particular con Andrómeda (M31). Las órbitas de las galaxias cercanas
han sido objeto de mucho estudio (p. Ej., Peebles, 1994), pero persisten grandes incertidumbres.
Para la separación actual entre la Vía Láctea y M31 (d = 0,75 Mpc) y la velocidad radial (υ r = 120
km / s), las dos galaxias experimentarán un encuentro cercano en un momento Δt = 6 × 109 años
en el futuro ( es decir, en η = 10,2). Si este encuentro conducirá a una colisión / fusión o
simplemente a un pasaje distante depende del componente de velocidad tangencial, que no está
bien determinado. Los modelos de Peebles (1994) sugieren que la distancia de aproximación
más cercana estará en el rango de 20 a 416 kpc, con más modelos prediciendo valores cerca del
extremo superior de este rango. Por lo tanto, se necesita más trabajo para determinar si la Vía
Láctea está destinada a colisionar con M31 en un futuro relativamente cercano.
Sin embargo, incluso si nuestra galaxia no choca con M31 en el primer paso, las dos galaxias
son claramente un par binario ligado. Las órbitas de los pares de galaxias binarias decaen con
relativa rapidez a través de la fricción dinámica (p. Ej., Binney y Tremaine, 1987; Weinberg,
1989). Por lo tanto, incluso si no ocurre una colisión en el primer paso, M31 y la Vía Láctea no
sobrevivirán mucho tiempo como galaxias espirales individuales. En una escala de tiempo de
aproximadamente η = 11 - 12, todo el grupo local se fusionará en un gran sistema estelar.

B Radiación gravitacional y decadencia de órbitas


La radiación gravitacional actúa en la dirección opuesta: hace que las órbitas pierdan energía y
decaigan de modo que las estrellas se muevan hacia adentro. Primero consideramos el caso de
una galaxia y sus estrellas constituyentes. A medida que una estrella determinada se mueve a
través del pozo potencial de una galaxia, su órbita decae a través de la radiación gravitacional (p.
Ej., Misner, Thorne y Wheeler, 1973; Weinberg, 1972). La tasa de pérdida de energía es
proporcional al cuadrado del momento cuadrangular de todo el sistema (ver también Ohanian y
Ruffini, 1994). Para el caso en el que la galaxia tiene un momento cuadrangular a gran escala (por
ejemplo, una barra), la tasa de pérdida de energía de la radiación gravitacional se puede escribir
en la forma simple

(3,4)
donde τ = 2πR / υ es el tiempo de órbita. Para una galaxia, la curva de rotación es casi plana con
una velocidad casi constante υ ~ 200 km / s. La escala de tiempo τ GR para la radiación
gravitacional viene dada por

(3,5)
donde R 0 = 10 kpc es una escala de longitud de referencia para la galaxia. Obtenemos así la
estimación

(3,6)
Esta escala de tiempo corresponde a ~ 1016 órbitas alrededor del centro galáctico. Observe que
si las estrellas están irradiando incoherentemente con un potencial casi uniforme, la escala de
tiempo se vuelve más larga en un factor de M gal / M *, donde M * es la masa de la estrella y M
gal es la masa galáctica efectiva. Tenga en cuenta también que la desintegración orbital
gravitacional toma sustancialmente más tiempo que la evaporación estelar de la galaxia
(consulte la sección anterior). Por lo tanto, la evolución de la galaxia estará dominada por el
proceso sin colisiones y, por lo tanto, la mayoría de los remanentes estelares serán eyectados al
espacio intergaláctico en lugar de terminar en el núcleo galáctico (ver también Islam, 1977;
Dyson, 1979; Rees, 1984 ).
La radiación gravitacional también hace que las órbitas de las estrellas binarias pierdan
energía y se descompongan. De particular importancia es la desintegración de las estrellas
enanas marrones binarias. La eventual coalescencia de estos sistemas puede conducir a la
formación de una nueva estrella ardiente de hidrógeno, siempre que la masa de todo el sistema
sea mayor que el límite de combustión de hidrógeno MH ~ 0.08M e. La escala de tiempo τ OD
para la desintegración orbital se puede escribir

(3,7)
donde M * es la masa de las estrellas y R 0 es la separación orbital inicial. Insertando valores
numéricos y escribiendo el resultado en términos de décadas cosmológicas, obtenemos el
resultado

(3,8)
Este resultado también se aplica a las órbitas planetarias (ver §III.F a continuación).

C Formación de estrellas a través de colisiones de enanas


marrones
Una vez que se ha agotado todo el material interestelar, una forma viable de producir estrellas
adicionales es a través de las colisiones de enanas marrones. Estos objetos tienen masas
demasiado pequeñas para que se produzca la combustión ordinaria de hidrógeno y, por lo tanto,
su suministro de combustible nuclear permanecerá esencialmente sin explotar. Las colisiones
entre estos objetos subestelares pueden producir objetos estelares con masas superiores al
límite de combustión del hidrógeno, es decir, estrellas de baja masa. Notamos que la búsqueda
de enanas marrones ha sido el foco de mucho trabajo de observación (ver, por ejemplo, Tinney,
1995) y la existencia de estos objetos está ahora en terreno firme (por ejemplo, Golimowski et
al., 1995; Oppenheimer et al. , 1995).

1 Escalas de tiempo de colisión


Una vez que haya cesado la formación estelar convencional en la galaxia, el número total de
enanas marrones en la galaxia será N 0. Aunque el valor de N 0 es incierto y actualmente es objeto
de muchas investigaciones actuales (por ejemplo, ver Alcock et al., 1993; Aubourg et al., 1993;
Tinney, 1995), esperamos que N 0 sea aproximadamente comparable al número de estrellas
ordinarias en la galaxia actual, N 0 ~ 1011 (ver §II. C). La velocidad Γ a la que chocan estas enanas
marrones viene dada por

(3,9)
donde N es el número de enanas marrones en una galaxia con volumen V, σ es la sección
transversal de colisión (ver más abajo) y υ es la velocidad relativa típica. Esta ecuación se puede
integrar para obtener

(3,10)
donde τ C es la escala de tiempo característica

(3,11)
o equivalente,

(3,12)
Para obtener este valor numérico para la escala de tiempo, hemos asumido que la sección
transversal de la colisión viene dada por la sección transversal geométrica de las enanas
marrones; esta suposición se justifica a continuación. También tenemos los valores numéricos
utilizados V ~ (20kpc) 3 y υ ~ 200 km / s que son característicos del halo galáctico.
La estimación de las tasas de colisión que se da aquí es algo conservadora. Los encuentros
estelares cercanos pueden conducir a la formación de binarios a través de la excitación de
mareas de modos en las estrellas (ver Press y Teukolsky, 1977; Lee y Ostriker, 1986). Estos
binarios pueden eventualmente decaer y, por lo tanto, dar lugar a colisiones estelares
adicionales.
La escala de tiempo [3.12] es el tiempo necesario para que cambie la población de halo de
enanas marrones. Observe que esta escala de tiempo es mayor que la escala de tiempo de
evaporación calculada en §III.A. Este orden tiene sentido porque los encuentros distantes (que
conducen a la evaporación) deben ser mucho más frecuentes que las verdaderas colisiones. Para
η <η C, la tasa de colisión de las enanas marrones para toda la galaxia viene dada por Γtot = N /
τ C ~ 10−11 yr − 1. El resultado tı́pico de una colisió n enana marró n será la producció n de un
objeto estelar con masa M * ~ 0.1M e, lo suficientemente grande como para quemar hidrógeno.
La vida estelar (secuencia principal) de una estrella de este tipo es de aproximadamente 2,5 ×
1013 años. Esta escala de tiempo evolutiva estelar es más larga que la escala de tiempo en la que
se forman las estrellas. Como resultado,
Tenga en cuenta que la escala de tiempo para producir estrellas a través de colisiones de
enanas marrones es generalmente mucho más corta que el tiempo de desintegración de la órbita
para las binarias de enanas marrones. Para la desintegración orbital, la ecuación [3.8] implica
que η ~ 22.5 + 4log10 (R / 1AU). Por lo tanto, las colisiones de enanas marrones proporcionan
el mecanismo dominante para la formación continua de estrellas mientras la galaxia permanece
intacta.

2 secciones transversales de colisión


Para completar este argumento, debemos estimar la sección transversal de las enanas marrones
en colisión. Considere dos enanas marrones con una velocidad relativa υ rel. Para simplificar,
consideramos el caso de enanas marrones de igual masa con masa m. El momento angular orbital
del sistema está dado por

(3,13)
donde b es el parámetro de impacto. Cuando las dos enanas chocan y forman una estrella
compuesta de masa ~ 2 m, el momento angular se puede escribir

(3,14)
donde R es el radio estelar, Ω es la velocidad de rotación y f es una constante numérica de orden
unitario que depende de la estructura interna de la estrella. A continuación, invocamos la
restricción de que la tasa de rotación del estado final debe ser menor que la velocidad de ruptura,
es decir,

(3,15)
Combinando los resultados anteriores, obtenemos un límite en el parámetro de impacto b que
puede conducir a un sistema final limitado. Así obtenemos

(3,16)
que se puede utilizar para estimar la sección transversal,

(3,17)
Usando valores numéricos típicos, encontramos que b ~ R ~ 1010 cm, que es aproximadamente
comparable al radio de la enana marrón (por ejemplo, Burrows et al., 1993).

3 Simulaciones numéricas y otros resultados


Para ilustrar la viabilidad de este proceso de colisión, hemos realizado un conjunto de
simulaciones numéricas utilizando hidrodinámica de partículas suaves (SPH). Encontramos que
las colisiones entre objetos subestelares pueden de hecho formar productos finales con masas
mayores que la masa mínima requerida para quemar hidrógeno. En la Figura 5.3 se muestran
ejemplos de tales colisiones. En estas simulaciones, las estructuras de densidad de los modelos
teóricos de la enana marrón (Laughlin y Bodenheimer, 1993) se envían al impacto con una
velocidad relativa de 200 km / s. Las secuencias evolutivas hidrodinámicas que se muestran son
adiabáticas. Se espera que el objeto de masa estelar emergente se contraiga hacia la secuencia
principal en una escala de tiempo Kelvin-Helmholtz y luego inicie la combustión de hidrógeno.
Finalmente, notamos que las enanas blancas también chocarán en el halo galáctico. Como se
describe en §II.E, esperamos números aproximadamente comparables de enanas blancas y
enanas marrones al final de la era estelífera. Aunque las enanas blancas son en realidad más
pequeñas en tamaño radial, son más masivas y, por lo tanto, tienen una mayor mejora
gravitacional en su sección transversal de interacción. Como resultado, la sección transversal
neta y, por lo tanto, la tasa de interacción neta de las enanas blancas debería ser
aproximadamente comparable a la de las enanas marrones (§III.C.1). Cuando las enanas blancas
chocan entre sí, son posibles varios estados finales diferentes, como discutimos a continuación.
Si las dos enanas blancas son lo suficientemente masivas, es posible que el producto de la
colisión tenga una masa final que supere el límite de Chandrasekhar (M Ch ≈ 1,4 M e) y, por tanto,
pueda explotar en una supernova. Usando la función de masa final (ver §II.E y Figura 5.2),
estimamos que aproximadamente un tercio de las enanas blancas tendrán masas mayores a 0,7
M e y, por lo tanto, solo alrededor de una décima parte de las colisiones posiblemente resulten
en un objeto que exceda el límite de masa de Chandrasekhar. La tasa de supernova de estas
colisiones puede ser tan grande como Γ SN ~ 10-12 año-1, aunque será algo menor en la práctica
debido a ineficiencias.

Figura 5.3Simulación numérica de una colisión entre dos enanas marrones. Los dos objetos iniciales tienen masas menores que
las requeridas para la combustión del hidrógeno; el producto final de la colisión es una verdadera estrella y es capaz de una fusión
sostenida de hidrógeno. Las dos estrellas chocan con una velocidad relativa de 200 km / sy un parámetro de impacto de ~ 1 radio
estelar. La serie superior de paneles muestra la colisión desde una vista lateral; la serie inferior de paneles muestra la vista
superior.

El tipo más común de colisión es entre dos enanas blancas de baja masa: la función de masa
final alcanza un pico en la escala de masa M * ≈ 0.13M e. Estos objetos de baja masa tendrán una
composición de helio casi pura. Si el producto final de la colisión tiene una masa mayor que la
masa mínima requerida para quemar helio (M He ≈ 0.3M e), entonces la estrella producto podría
aterrizar en la secuencia principal de helio (ver, por ejemplo, Kippenhahn y Weigert, 1990 ). Para
que la estrella queme helio, la colisión debe ser lo suficientemente enérgica para impartir
suficiente energía térmica a la estrella; de lo contrario, la estrella se convertirá en otra enana
blanca de helio. Existe otra posibilidad de colisiones entre enanas blancas de masas ligeramente
mayores. Si el producto de la colisión tiene una masa menor que la masa de Chandrasekhar y
mayor que la masa mínima para quemar carbono (0. 9M e ≤ M * ≤ 1.4M e), la estrella del producto
podría aterrizar en la secuencia principal de carbono. Por lo tanto, este modo de formación
estelar tardía puede conducir a una variedad interesante de objetos estelares.

D El tiempo de acreción del agujero negro


Los agujeros negros grandes tienden a acumular estrellas y gas y, por lo tanto, aumentan su masa.
El tiempo de acreción del agujero negro es la escala de tiempo característica para que un agujero
negro en el centro de una galaxia se trague el resto de la galaxia. Si consideramos las colisiones
del agujero negro con las estrellas e ignoramos los otros procesos discutidos anteriormente
(radiación gravitacional y evaporación estelar), el tiempo que tarda el agujero negro en absorber
las estrellas de la galaxia viene dado por

(3,18)
donde V = R 3 es el volumen de la galaxia, υ es la velocidad típica de los objetos en la galaxia (υ
~ 200 km / s) y σ es la sección transversal efectiva del agujero negro. Como punto de partida,
escribimos la sección transversal en la forma

(3,19)
donde Λ es un factor de mejora adimensional debido al enfoque gravitacional, y RS es el radio de
Schwarzschild RS dado por

(3,20)
Obtenemos así la escala de tiempo

(3.21a)
o equivalente,

(3.21b)
La escala de tiempo ηaccrete ~ 30 es mucho más larga que la escala de tiempo tanto para la
evaporación estelar como para la radiación gravitacional (ver también la siguiente sección).
Como consecuencia, en estos últimos tiempos, todas las estrellas de una galaxia se habrán
evaporado en el espacio intergaláctico o habrán caído en el agujero negro central a través de la
desintegración de la radiación gravitacional de sus órbitas. Por supuesto, a medida que crece la
masa del agujero negro, la escala de tiempo de acreción disminuye. De manera muy aproximada,
esperamos que entre el 1 y el 10% de las estrellas caigan al agujero negro central y el resto se
evapore; la masa final del agujero negro central será entonces M BH ~ 109 - 1010 M e.

También se puede considerar este proceso en la escala de tamaño de los supercúmulos.


Cuando η ~ 30, las perturbaciones de densidad cosmológica del tamaño de un supercúmulo de
longitud R habrán evolucionado desde hace mucho tiempo a la no linealidad, y estarán
completamente desacopladas del flujo de Hubble. Uno puede imaginar un conjunto de ~ 109 ~
1010 M e agujeros negros que han descendido de galaxias muertas y ahora deambulan
libremente y aspiran una estrella restante ocasional en el volumen R3. La escala de tiempo
característica de este proceso es

(3,22)
En cuanto al caso de la galaxia, sin embargo, este escenario sencillo se ve comprometido por
efectos adicionales. La radiación gravitacional hará que las órbitas de los agujeros negros se
desintegran continuamente, y algunos de ellos pueden eventualmente fusionarse. Los
encuentros estelares con otras estrellas y con los agujeros negros conducirán a la evaporación
estelar del sistema del tamaño de un supercúmulo. A largo plazo, se espera que el supercúmulo
consista en un agujero negro central muy grande con la mayoría de las estrellas y muchos de los
agujeros negros galácticos originales de ~ 109-1010 M e escapando a grandes distancias. En
otras palabras, el sistema del tamaño de un supercúmulo se comportará de manera análoga a la
galaxia, excepto que contendrá una escala de tamaño mayor, una escala de tiempo más larga y
dos escalas de masa ampliamente dispares (es decir, una escala de masa estelar M * ~ 1M e , y
una escala de masa de agujero negro M BH ~ 109 - 1010 M e). Los efectos de equipartición entre
las dos escalas de masa entrarán en juego y conducirán los agujeros negros galácticos hacia el
centro mientras expulsa preferentemente los remanentes estelares. En principio, esta jerarquía
puede extenderse hasta escalas de longitud de perturbación cada vez mayores, aunque las
escalas de tiempo relevantes y la dinámica detallada se vuelven más inciertas a medida que se
procede con la extrapolación.
E Aniquilación y captura de halo de materia oscura.
Los halos galácticos consisten principalmente en materia oscura, gran parte de la cual puede
residir en forma no bariónica. Aunque la naturaleza y composición de esta materia oscura sigue
siendo una cuestión abierta importante, uno de los principales candidatos son las partículas
masivas de interacción débil, generalmente denominadas WIMP. Se espera que estas partículas
tengan masas en el rango MW = 10 - 100 GeV e interactúen a través de la fuerza débil y la
gravedad solamente (cf. las revisiones de Diehl et al., 1995; Jungman, Kamionkowski & Griest,
1996; ver también el reciente propuesta de Kane & Wells, 1996). Muchos autores han estudiado
las firmas de la aniquilación de WIMP, generalmente con la esperanza de encontrar una señal
detectable. Se pueden aplicar los resultados de estos estudios para estimar la escala de tiempo
para el agotamiento de WIMP de un halo galáctico.
Primero consideramos el caso de la aniquilación directa partícula-partícula. Siguiendo las
convenciones habituales, la tasa Γ W para la aniquilación de WIMP en el halo se puede escribir
en la forma

(3,23)
donde n W es la densidad numérica de WIMP en el halo y 〈συ〉 es el valor promedio de la
sección transversal de aniquilación multiplicada por la velocidad. Si los WIMP constituyen una
fracción de masa sustancial del halo galáctico, se espera que su densidad numérica sea
aproximadamente n W ~ 1 cm − 3. La velocidad tı́pica de las partı́culas en el halo galá ctico es ~
200 km / s. Usando el argumento dimensional más ingenuo, podemos estimar la sección
transversal de interacción como

(3,24)
donde MW es la masa de la partícula y GF es la constante de Fermi. La sección transversal
verdadera tiene factores adicionales que tienen en cuenta las dependencias de espín, los ángulos
de mezcla y otras cantidades dependientes del modelo (ver Diehl et al., 1995; Jungman et al.,
1996); la forma [3.24] es, por tanto, muy aproximada, pero adecuada para nuestros propósitos.
También notamos que la abundancia reliquia de partículas de materia oscura está determinada
por la sección transversal de interacción; Para que la abundancia sea cosmológicamente
significativa, la sección transversal de interacción debe ser del orden σ ~ 10−37 cm2 (ver Kolb y
Turner, 1990).
Juntando todos los resultados anteriores, podemos estimar la escala de tiempo τ W para que
cambie la población de WIMP,

(3,25)
Así, en términos de décadas cosmológicas, obtenemos la escala de tiempo de aniquilación en la
forma

(3,26)
Los WIMP tardan un tiempo relativamente largo en aniquilarse mediante colisiones directas. En
particular, la escala de tiempo de aniquilación es mucho más larga que la escala de tiempo de
evaporación estelar (§III.A).
Otro efecto relacionado importante es la captura de WIMP por objetos astrofísicos. El proceso
de captura de WIMP se ha estudiado tanto para el Sol (Press & Spergel, 1985; Faulkner &
Gilliland, 1985) como para la Tierra (Freese, 1986) como un medio para ayudar a detectar la
materia oscura en el halo (ver también Krauss , Srednicki y Wilczek, 1986; Gould, 1987, 1991).
Aunque la captura de WIMP por el Sol y la Tierra puede ser importante para la detección de
materia oscura, las vidas de las estrellas y planetas (secuencia principal) son generalmente
demasiado pequeñas para que la captura de WIMP afecte significativamente la población total
de partículas en el halo galáctico. Por otro lado, los restos estelares, en particular las enanas
blancas, pueden tener una vida lo suficientemente larga como para tener efectos importantes.
En los objetos astrofísicos, los WIMP se capturan mediante la dispersión de los núcleos. Cuando
el evento de dispersión conduce a una velocidad final del WIMP que es menor que la velocidad
de escape del objeto, entonces el WIMP se ha capturado con éxito. Para el caso de las enanas
blancas, podemos hacer la siguiente estimación simple del proceso de captura. El camino libre
medio de un WIMP en materia con densidades de enanas blancas es generalmente menor que el
radio de la estrella. Además, la velocidad de escape de una enana blanca es grande,
aproximadamente ~ 3000 km / s, que es mucho mayor que la dispersión de velocidad de los
WIMP en el halo. Como resultado, en una primera aproximación, la mayoría de los WIMP que
atraviesan una enana blanca serán capturados. La tasa de captura de WIMP Γ W * por una enana
blanca viene dada por

(3,27)
donde σ WD ~ 1018 cm2 es el área de la sección transversal de la enana blanca y υ rel ~ 200 km
/ s es la velocidad relativa. Por tanto, la tasa de captura es

(3,28)
Con esta tasa de captura, una estrella enana blanca puede consumir su peso en WIMP en una
escala de tiempo de ~ 1024 años. Se espera que la masa total en WIMP en el halo sea un factor
de 1 a 10 veces la masa de las estrellas, que estará principalmente en forma de enanas blancas
en estos tiempos tardíos (§II.E). Como resultado, la escala de tiempo para que las enanas blancas
agoten toda la población de halos de WIMP a través de la captura está dada aproximadamente
por

(3,29)
Las escalas de tiempo reales dependerán de la fracción del halo galáctico en forma no bariónica
y de las propiedades (por ejemplo, masa) de las partículas; estas cantidades siguen siendo
desconocidas en este momento.
La aniquilación de los WIMP de halo tiene importantes consecuencias tanto para la propia
galaxia como para las enanas blancas. Básicamente, la galaxia en su conjunto pierde masa
mientras que las enanas blancas se mantienen más calientes de lo que estarían de otra manera.
La población de WIMP capturados dentro de la estrella se acumulará hasta una densidad crítica
en la que la tasa de aniquilación de WIMP está en equilibrio con la tasa de captura de WIMP (ver,
por ejemplo, Jungman et al., 1996). Además, la estrella absorberá la mayoría de los productos de
la aniquilación y, finalmente, la energía se irradiará (en última instancia, en fotones). El resultado
neto de este proceso (junto con la aniquilación directa) es, por tanto, irradiar la masa del halo
galáctico en las escalas de tiempo dadas por las ecuaciones [3.26] y [3.29]. Este proceso compite
con la evaporación de estrellas a través de la relajación dinámica (§III.
Dado que la escala de tiempo para la evaporación de WIMP es mucho más larga que la escala
de tiempo dinámica, la galaxia se expandirá adiabáticamente a medida que el halo se irradia. En
la galaxia exterior, la materia oscura en el halo domina bien el potencial gravitacional y, por lo
tanto, las estrellas de la galaxia exterior se liberarán a medida que la masa del halo se irradie.
Dado que los WIMP no dominan el potencial dentro del círculo solar, los efectos
correspondientes en el interior de la galaxia son relativamente débiles.
Las propias estrellas enanas blancas se mantendrán calientes mediante este proceso de
captura WIMP con una luminosidad aproximadamente constante dada por

(3,30)

donde F es un factor de eficiencia (se espera que sea de orden unitario) que tiene en cuenta la
pérdida de energía de la estrella en forma de neutrinos. Con esta luminosidad, la enana blanca
tiene una temperatura superficial T * ≈ 63 K, donde hemos asumido una masa típica de enana
blanca M * = 0.5M e. Como punto de referencia, observamos que toda una galaxia de tales
estrellas tiene una luminosidad total comparable a la del sol, L gal ~ 1L e. Sin embargo, la mayor
parte de la radiación se emitirá en longitudes de onda infrarrojas d, λ ~ 50μm.
Para completar, observamos que los axiones proporcionan otro candidato viable para la
materia oscura en el halo galáctico (ver Capítulo 10 de Kolb & Turner, 1990). Estas partículas
surgen de soluciones al fuerte problema de la PC en la cromodinámica cuántica (ver, por ejemplo,
Peccei y Quinn, 1977ab; Weinberg, 1978; Wilczek, 1978). El acoplamiento del axión al fotón
permite que el axión decaiga a un par de fotones con una vida útil τ a dada por

(3,31)
donde ma es la masa del axión; hemos asumido valores representativos para los restantes
parámetros de la física de partículas. Los axiones reliquia con un número suficiente para
contribuir al presupuesto de materia oscura del universo tienen masas en el rango de 10−6 eV
<ma <10−3 eV, donde el valor depende del mecanismo de producció n. Usando estos valores de
masa, obtenemos un rango permitido de escalas de tiempo de desintegración de axiones,

(3,32)
F El destino de los planetas durante la muerte galáctica.
Los planetas pueden definirse libremente como objetos que son lo suficientemente pequeños (en
masa) como para ser sostenidos por las fuerzas ordinarias de Coulomb en lugar de por la presión
degenerativa. A largo plazo, los planetas sufren varios procesos deletéreos. Pueden ser
vaporizados por sus estrellas madre en evolución, y sus órbitas pueden decaer o interrumpirse.
Salvo estas catástrofes más inminentes, los planetas se evaporarán a medida que se desintegran
sus protones (véase §IV.H).
La teoría de la relatividad general indica que las órbitas planetarias decaen lentamente a través
de la emisión de radiación gravitacional (ver §III.B). Para fijar ideas, considere un planeta que
orbita una estrella de masa M * en un radio orbital inicial R. La radiación gravitacional impulsa
la desintegración orbital en una escala de tiempo dada por

(3,33)
o, en términos de décadas cosmológicas,

(3,34)
Mientras tanto, los planetas pueden ser desalojados de sus estrellas madres durante encuentros
y colisiones con estrellas entrelazadas. La escala de tiempo para estas dislocaciones viene dada
por el intervalo de tiempo requerido para producir un encuentro suficientemente cercano con
otra estrella. De manera muy aproximada, si una estrella perturbadora se entromete en la órbita
de un planeta determinado, es probable que el planeta sea expulsado por completo del sistema.
Esta escala de tiempo viene dada por
(3,35)
donde n es la densidad numérica de estrellas (~ 0.1 pc − 3 en nuestra galaxia actual), υ es la
velocidad relativa (~ 100 km / s), y donde la sección transversal σ está determinada por el radio
orbital del planeta (σ ≈ π R 2). Insertando estos valores, uno encuentra

(3,36)
(3,37)
donde R es el radio de la órbita planetaria.
Comparando la ecuación [3.33] con la ecuación [3.36], encontramos que la escala de tiempo
para la radiación gravitacional es igual a la de los encuentros estelares para órbitas planetarias
de radio R = 0.2 AU, que es aproximadamente la mitad del radio de la órbita de Mercurio en
nuestro propio sistema solar. Uno podría suponer entonces que los planetas muy cercanos, como
el compañero recientemente descubierto de 51 Pegasus (Mayor y Queloz, 1995; Marcy, Butler y
Williams, 1996), eventualmente se fusionarán con sus estrellas progenitoras como resultado de
la desintegración orbital radiativa. , mientras que los planetas con órbitas iniciales más grandes
(por ejemplo, los planetas gigantes de nuestro sistema solar) serán despojados de sus estrellas
madres como consecuencia de los encuentros estelares. Sin embargo, dado que la escala de
tiempo para la evolución estelar (η * <14) es mucho más corta que la escala de tiempo para la
desintegración orbital, Los planetas cercanos alrededor de estrellas de tipo solar serán
destruidos durante las fases de gigante roja mucho antes de que sus órbitas sean restringidas
por la relatividad general. Solo los planetas interiores de las enanas M de baja masa (que no
experimentan fases gigantes) encontrarán su destino sellado por la radiación gravitacional.

IV Destino a largo plazo de los objetos estelares degenerados


Las enanas marrones, las enanas blancas, las estrellas de neutrones y los agujeros negros tienen
vidas que no solo son mucho más largas que la edad actual del universo (η = 10), sino que
también superan en gran medida la vida útil esperada de la galaxia (η = 20 - 25) . Debido a una
falta general de urgencia, el destino final de estos objetos aún no se ha considerado ampliamente.
Sin embargo, estos objetos no vivirán para siempre. Si el protón es inestable, entonces la
desintegración del protón impulsará la evolución a largo plazo de los objetos estelares
degenerados. Los agujeros negros esencialmente no se ven afectados por la desintegración de
protones, pero se disipan gradualmente a través de la emisión de radiación de Hawking. Tanto
la desintegración de protones como la radiación de Hawking producen muchas consecuencias
astrofísicas interesantes. En la siguiente discusión, desarrollamos los detalles de estos procesos
(ver también Dicus et al., 1982; Feinberg, 1981).

Una desintegración de protones


En las grandes teorías unificadas (GUT), el protón es inestable y tiene una vida finita, aunque
bastante larga. Por ejemplo, el protón puede decaer a través del proceso.

, (4,1)
y el diagrama de Feynman para este proceso de desintegración se muestra en la Figura 5.4. Son
posibles muchos canales de desintegración adicionales y los detalles dependen en última
instancia de la teoría particular (por ejemplo, véanse las revisiones de Langacker, 1981; Perkins,
1984). En particular, observamos que son posibles muchos otros productos de desintegración,
incluidos los neutrinos. Si los protones son inestables, los neutrones también serán inestables en
una escala de tiempo acorde. Por supuesto, los neutrones libres son inestables a la
desintegración β en una escala de tiempo muy corta (~ 10 minutos); sin embargo, los neutrones
ligados serán inestables a través de procesos análogos a los modos de desintegración de
protones (por ejemplo, ver Figura 5.4). En el contexto actual, los protones y neutrones de interés
están unidos en núcleos "pesados" (principalmente carbono y helio) dentro de enanas blancas.
Figura 5.4Diagramas de Feynman representativos para la desintegración de protones (diagrama superior) y la desintegración de
neutrones (diagrama inferior) mostrados en términos de los quarks constituyentes (u, d, ¯d). Estos procesos son la forma esperada
para las grandes teorías unificadas más simples. Las partículas X e Y son los bosones del vector intermedio que median el proceso
de violación del número de bariones y se espera que tengan masas comparables a la escala GUT ~ 1016 GeV.

Para la clase más simple de GUT, como lo ilustran los modos de desintegración que se muestran
en la Figura 5.4, la tasa de desintegración de nucleones Γ P viene dada aproximadamente por

, (4,2)
donde m P es la masa del protón y α5 es un parámetro de acoplamiento adimensional (ver, por
ejemplo, Langacker, 1981; Perkins, 1984; Kane, 1993). La escala de masa MX es la masa de la
partícula que media en el proceso de violación del número bariónico. La tasa de desintegración
también debe incluir un factor numérico adicional que tenga en cuenta la probabilidad de que
los quarks que interactúan (que participan en la desintegración) estén en el mismo lugar al
mismo tiempo; este factor numérico es menor que la unidad, por lo que la vida útil del protón es
mayor en un factor correspondiente. En una primera aproximación, la escala de tiempo para la
desintegración de protones viene dada por

, (4,3)
donde hemos tenido en cuenta el factor de probabilidad numérico antes mencionado. La escala
de tiempo cosmológica correspondiente es

. (4,4)
Observe que esta escala de tiempo tiene una dependencia muy sensible de la escala de masa MX
del bosón mediador.
Queremos encontrar el rango permitido para la vida útil del protón. Esta escala de tiempo está
restringida desde abajo por los límites experimentales actuales sobre la vida útil del protón (por
ejemplo, Perkins, 1984). La vida útil del protón debe ser mayor que η ~ 32 (1032 años), donde
el límite exacto depende del modo particular de desintegración del protón (Particle Data Group,
1994). Encontrar un límite superior es más difícil. Si restringimos nuestra atención a la clase de
procesos de desintegración de protones para los que la ecuación [4.4] es válida, entonces
debemos encontrar un límite superior en la escala de masa MX. Siguiendo la tradición
cosmológica, esperamos que la escala MX sea más pequeña que la escala de Planck MP 1 ≈ 1019
GeV, lo que implica el siguiente rango para la vida útil del protón,

. (4,5)
El límite inferior lo establecen los datos experimentales; el límite superior es más sugerente que
definitivo (ver también §IV.F).
Podemos encontrar un rango más restrictivo para la vida útil del protón para el caso especial
en el que el modo de desintegración de algún GUT es responsable de la bariogénesis en el
universo temprano. (Tenga en cuenta que es necesario algún proceso de violación del número
bariónico para que tenga lugar la bariogénesis; véase Sakharov, 1967). Supongamos que el modo
de desintegración de alguna GUT es válido y que la bariogénesis tiene lugar a una escala de
energía en el universo temprano EB ~ MX. Esta escala energética debe ser menor que la escala
energética EI de la época inflacionaria (Guth, 1981). La escala de energía inflacionaria está
restringida a menos de ~ 10-2 MP 1 para evitar la sobreproducción de perturbaciones de
densidad escalar y perturbaciones de radiación gravitacional (Lyth, 1984; Hawking, 1985;
Krauss y White, 1992; Adams y Freese, 1995). Combinando estas dos limitaciones,

(4,6)
Aunque un rango de nueve órdenes de magnitud en la escala de tiempo relevante parece bastante
severo, el tenor general de la siguiente discusión no depende críticamente del valor exacto. En
aras de la precisión, adoptamos η P = 37 como una escala de tiempo representativa.

B Enanas blancas impulsadas por la desintegración de


protones
En una escala de tiempo suficientemente larga, la evolución de una enana blanca es impulsada
por la desintegración de protones. Cuando un protón se desintegra dentro de una estrella, la
mayoría de los productos primarios de desintegración (p. Ej., Piones y positrones) interactúan
rápidamente y / o se desintegran para producir fotones. Por ejemplo, el pión neutro π0 se
desintegra en un par de fotones con una vida útil de ~ 10-16 segundos; los positrones, e +, duran
solo ~ 10-15 segundos antes de aniquilarse con un electrón y producir rayos gamma. Por lo
tanto, un resultado neto común de la desintegración de protones en una estrella es la producción
eventual de cuatro fotones a través de la reacción efectiva

(4,7)
donde la energía típica de los fotones viene dada por E γ ~ m P / 4 ~ 235 MeV. Estos fotones
tienen una trayectoria libre media relativamente corta dentro de la estrella y se termalizarán y
difundirán hacia afuera a través de un proceso de caminata aleatoria con una escala de tiempo
característica de ~ 105 años, mucho más corta que la escala de tiempo evolutiva del sistema.
Además, una fracción de los productos de desintegración se encuentra en forma de neutrinos,
que abandonan inmediatamente el sistema.
Cuando la desintegración de protones es la fuente de energía primaria de una enana blanca, la
luminosidad es

(4,8)
donde N 0 ~ 1057 es el número inicial de protones en la estrella, E ~ 1 GeV es la energía neta
producida por desintegración y Γ P es la tasa de desintegración. El factor F es un parámetro de
eficiencia que tiene en cuenta la fracción de energía perdida en forma de neutrinos. De manera
muy aproximada, esperamos que ~ 1/3 de la energía en los productos de desintegración esté en
neutrinos y, por lo tanto, F ~ 2/3 (por ejemplo, Dicus et al., 1982). El valor exacto de la fracción
F depende de las relaciones de ramificación para una GUT particular y, por lo tanto, depende del
modelo. Para una tasa de desintegración típica de Γ P ~ 10−37 año − 1, la luminosidad en
unidades solares se convierte en

. (4,9)
Quizás sea más esclarecedor expresar esta luminosidad estelar en unidades terrestres
ordinarias. Una enana blanca alimentada por la desintegración de protones genera
aproximadamente 400 vatios, suficiente potencia para hacer funcionar algunas bombillas o,
alternativamente, alrededor de 1/2 caballo de fuerza. Toda una galaxia de tales estrellas tiene
una luminosidad total de L gal ~ 10−13 L e, que es mucho má s pequeña que la de una sola estrella
en llamas de hidrógeno.
La vida útil total posible de una estrella impulsada por la desintegración de protones viene
dada por

, (4,10)
donde N 0 ~ 1057 es el número inicial de nucleones en la estrella y N min es el número mínimo
de nucleones requeridos para considerar el objeto como una estrella. Si, por ejemplo, se toma el
caso extremo de N min = 1, el tiempo necesario para que la estrella desaparezca por completo es
≈ 130 / Γ P; en general obtenemos

. (4,11)
Como mostramos en §IV.D, el objeto deja de ser una estrella cuando N min ~ 1048 y por lo tanto
η * ≈ η P + 1.3.
Durante la fase de desintegración de protones, la temperatura de la superficie estelar viene
dada por

(4.12)
donde hemos asumido que la distribución de energía espectral es simplemente un cuerpo negro
(σ B es la constante de Stefan-Boltzmann). Para una estrella de 1M e y la tasa de desintegración
típica Γ P, la temperatura estelar efectiva es T * ~ 0.06 K. Esta temperatura será enormemente
más caliente que la temperatura de la radiación de fondo del universo en la década cosmológica
η = 37.
A medida que una enana blanca pierde masa a través de la desintegración de protones, la
estrella se expande de acuerdo con la relación habitual masa / radio.
(4,13)
donde Z y A son el número atómico y el peso atómico del material enano blanco (por ejemplo,
Chandrasekhar, 1939; Shu, 1982; Shapiro y Teukolsky, 1983). Para simplificar, tomaremos
valores típicos y usaremos A = 2Z. Si también reescribimos la relación masa / radio de la enana
blanca en términos de unidades naturales, obtenemos la relación

. (4,14)
Mientras que la enana blanca se encuentra en la fase de desintegración de protones de su
evolución, la estrella sigue una pista bien definida en el diagrama HR, es decir,

. (4,15)
o, en términos de valores numéricos,

(4,16)
Observamos que la relación masa / radio de la enana blanca depende de la composición química
de la estrella, que cambia a medida que se desintegran los nucleones (ver la siguiente sección).
Este efecto hará que las pistas evolutivas se aparten ligeramente de la ley de potencia 12/5
derivada anteriormente. Sin embargo, esta modificación es pequeña y no se considerará aquí.

C Evolución química en enanas blancas


Durante la duración de la fase de desintegración de protones, la composición química de una
enana blanca se altera por completo. Varios efectos diferentes contribuyen al cambio en la
composición química. El proceso de desintegración del nucleón en sí mismo altera directamente
los tipos de núcleos de la estrella e impulsa la composición química hacia núcleos de números
atómicos cada vez más bajos. Sin embargo, las reacciones piconucleares pueden ocurrir en las
escalas de tiempo relevantes (largas) y construir núcleos de regreso a números atómicos más
altos. Además, las interacciones de espalación eliminan protones y neutrones de los núcleos;
estos nucleones libres interactúan luego con otros núcleos y conducen a cambios adicionales en
la composición.
En ausencia de reacciones piconucleares y espalación, la evolución química de una enana
blanca es una simple cascada hacia números atómicos más bajos. A medida que los protones y
neutrones se desintegran, los núcleos restantes se vuelven correspondientemente más
pequeños. Algunos de los productos nucleares son radiactivos y posteriormente se
descompondrán. Dada la escala de tiempo prolongada para la desintegración de protones, estos
núcleos radiactivos tienen una vida extremadamente corta. Como resultado, solo quedan los
isótopos estables. En tiempos relativamente tardíos, cuando la masa total de la estrella ha
disminuido en un factor sustancial (aproximadamente un factor de diez, como mostramos a
continuación), casi todos los núcleos que quedan en la estrella estarán en forma de hidrógeno.
A altas densidades y bajas temperaturas, las reacciones nucleares aún pueden tener lugar,
aunque a un ritmo lento. La energía del punto cero de la mecánica cuántica de los núcleos les
permite superar la repulsión de Coulomb y fusionarse. En unidades naturales, la velocidad de
reacción nuclear se puede escribir en la forma

, (4,17)
donde μ es la masa reducida del núcleo, R 0 es el espaciamiento promedio entre núcleos y α es la
constante de estructura fina (ver Shapiro y Teukolsky, 1983). Se puede obtener una forma
ligeramente diferente de esta velocidad de reacción incluyendo efectos anisotrópicos y de
cribado de electrones (Salpeter y Van Horn, 1969), pero la forma básica es similar. El parámetro
S (E) es una función de energía que varía lentamente y que tiene en cuenta la probabilidad de
que dos núcleos interactúen dado que se ha producido un túnel. Específicamente, el parámetro
S está relacionado con la sección transversal σ (E) a través de la relación

(4,18)
donde T es la probabilidad de transición de tunelización. El parámetro S puede determinarse a
partir de experimentos directos o de cálculos teóricos (ver Shapiro y Teukolsky, 1983; Bahcall,
1989).
Para evaluar la escala de tiempo para que ocurran reacciones piconucleares, es necesario
determinar el espaciamiento R 0 de los núcleos o, de manera equivalente, la densidad numérica
de partículas. Usando la relación masa / radio de la enana blanca, obtenemos el resultado
, (4,19)
donde A es el peso atómico promedio de los núcleos y donde hemos definido m * ≡ M * / M e.
Ahora podemos obtener una estimación aproximada de la eficiencia de las reacciones
piconucleares que construyen núcleos más grandes dentro de las enanas blancas. Como punto
de referencia, observamos que para una densidad de ρ ~ 106 g cm − 3, la escala de tiempo para
que el hidrógeno se fusione en helio es ~ 105 años (por ejemplo, Shapiro y Teukolsky, 1983;
Salpeter y van Horn, 1969), que es mucho más corto que la escala de tiempo de desintegración
de protones. Sin embargo, la forma de la ecuación [4.17] muestra que la velocidad de las
reacciones nucleares se suprime en gran medida a medida que los núcleos que reaccionan se
hacen más grandes. El factor de supresión exponencial tiene aproximadamente la forma ~ exp
[−βZA 1/2], donde el factor numérico β ≈ 22. Por lo tanto, a medida que aumenta la cantidad ZA
1/2, la velocidad de las reacciones nucleares disminuye exponencialmente. Por ejemplo, si Z = 6
y A = 12 (para carbono), este término exponencial es un factor de ~ 10-190 más pequeño que el
del hidrógeno. Debido a esta gran supresión exponencial, las reacciones de fusión generalmente
no avanzarán más allá del helio durante la evolución química tardía que se considera aquí. Por
lo tanto, el efecto neto de las reacciones picnonucleares es mantener a la enana en
descomposición con una composición predominantemente de helio a una escala de masa más
baja.
La espalación es otro proceso importante que afecta la evolución química de las estrellas
enanas blancas durante la época de la desintegración de los protones. Los fotones de alta energía
producidos a través de la desintegración de protones pueden interactuar con los núcleos de la
estrella. El resultado más común de tal interacción es la emisión de un solo neutrón libre, pero
también pueden resultar partículas cargadas (protones), neutrones adicionales y rayos gamma
(p. Ej., Hubbell, Gimm y Overbo, 1980). Los neutrones libres serán capturados rápidamente por
otros núcleos en un tipo de proceso s de tiempo tardío (el proceso r es, por supuesto,
dramáticamente irrelevante). Los protones libres pueden producir núcleos más pesados
mediante reacciones piconucleares, como se describió anteriormente. Por tanto, ambos
mecanismos permiten que se acumulen elementos más pesados en la estrella, aunque a un ritmo
muy lento y con una abundancia muy baja. Por lo tanto, el proceso de espalación produce
inicialmente neutrones y protones libres; pero estos nucleones se incorporan a otros núcleos.
Como resultado, el efecto neto de la espalación es eliminar nucleones de algunos núcleos y luego
devolverlos a otros núcleos dentro de la estrella. El resultado de este proceso de redistribución
es ampliar la distribución de los números atómicos (y pesos atómicos) de los núcleos de la
estrella.
Para evaluar la importancia de los procesos de espalación, debemos considerar la sección
transversal de interacción. En orden de avance, la sección transversal para la absorción nuclear
de fotones es una sola "resonancia gigante" con un pico de aproximadamente 24 MeV para
núcleos ligeros y un ancho en el rango Γ = 3 - 9 MeV. La magnitud relativa de esta característica
de resonancia es ~ 20 mb (ver, por ejemplo, Hubbell, Gimm y Overbo, 1980; Brune y Schmidt,
1974), aproximadamente un factor de 30 más pequeño que la sección transversal de interacción
total (que está dominada por la dispersión y producción de parejas). Por cada evento de
desintegración de protones, ~ 940 MeV de materia se convierten en fotones, con algunas
pérdidas de neutrinos. Cuando estos fotones caen en cascada en energía a través del régimen de
resonancia (a ~ 24 MeV), habrá entre 20 y 40 fotones y aproximadamente uno de cada 30
producirá un evento de espalación. Por lo tanto, en promedio,
Los productos de espalación permiten la interesante posibilidad de que se pueda configurar
un ciclo de CNO dentro de la estrella. La escala de tiempo para las reacciones piconucleares entre
protones (producidos por espalación) y núcleos de carbono es corta en comparación con la
escala de tiempo de desintegración de protones. La escala de tiempo para las reacciones
piconucleares entre protones y núcleos de nitrógeno es comparable a la escala de tiempo de
desintegración de protones. Así, en principio, la enana blanca puede establecer un ciclo de CNO
análogo al que opera en las estrellas de la secuencia principal superior (ver Clayton, 1983;
Kippenhahn y Weigert, 1990; Shu, 1982). La energía producida por este ciclo será pequeña en
comparación con la producida por la desintegración de protones y, por lo tanto, este proceso en
realidad no afecta la luminosidad de la estrella. Sin embargo, este ciclo afectará la composición
química y la evolución de la estrella. Como siempre,
Para comprender mejor la evolución química de las enanas blancas, hemos realizado una
simple simulación numérica del proceso. La Figura 5.5 muestra los resultados de este cálculo
para una enana blanca de 1 M e con una composición química inicial de carbono puro 12C. La
simulación asume que los isótopos radiactivos se desintegran inmediatamente a medida que se
forman a través de los modos de desintegración preferidos. Para cada evento de desintegración
de protones, también ocurre un evento de espalación (ver arriba) y conduce a la remoción de un
nucleón de un núcleo aleatorio; Entonces se supone que los productos de espalación se fusionan
inmediata y aleatoriamente con otros núcleos a través del proceso s y reacciones piconucleares.
El proceso de espalación acumula una pequeña abundancia de núcleos más pesados que el 12C
original, en particular el 13C, que tiene una acción de masa fr en tiempos “tempranos”. La enana
blanca evoluciona a través de fases sucesivas en las que los núcleos cada vez más pequeños son
los elementos dominantes por fracción de masa. La estrella nunca acumula una fracción
significativa de litio debido a la fisión inmediata del 8Be recién formado en partículas α. La
estrella tiene una fase amplia durante la cual 4He domina la composición. Cuando la enana blanca
ha perdido alrededor del 60% de su masa original, la fracción de masa de hidrógeno comienza a
predominar.

D Fases finales de la evolución de la enana blanca


Figura 5.5Evolución química de una estrella enana blanca durante la desintegración de protones. Las curvas muestran las
fracciones de masa de los núcleos componentes principales de la estrella en función del tiempo, que se mide aquí en términos de
masa estelar. El estado inicial es una enana blanca de 1,0 M◉ hecha de 12C puro. Esta simulación incluye los efectos de la espalación
y la radiactividad (ver texto).

En las fases finales de la vida de una enana blanca, la estrella ha perdido la mayor parte de su
masa debido a la desintegración de protones. Cuando la masa de la estrella se vuelve lo
suficientemente pequeña, surgen dos efectos importantes: el primer efecto es que la
degeneración desaparece y la estrella deja de ser una enana blanca. El segundo efecto es que el
objeto se vuelve ópticamente delgado a su radiación interna producida por la desintegración de
protones y, por lo tanto, deja de ser una estrella. En la siguiente discusión, presentamos
estimaciones simples de las escalas de masa a las que ocurren estos eventos.
Cuando la estrella ha perdido lo suficiente de su masa inicial como para volverse no
degenerada, la mayoría de los nucleones de la estrella estarán en forma de hidrógeno (ver la
sección anterior). Una estrella fría compuesta de hidrógeno puro generalmente tendrá una capa
gruesa de hidrógeno molecular que rodea un núcleo degenerado de hidrógeno atómico. A
medida que la masa estelar continúa disminuyendo a través del proceso de desintegración de
protones, el núcleo degenerado se vuelve cada vez más pequeño y finalmente desaparece por
completo. Esta transición ocurre cuando la energía de degeneración, la energía de Coulomb y la
energía autogravitacional de la estrella son todas comparables en magnitud; este evento, a su
vez, ocurre cuando la presión central PC cae por debajo de un valor crítico de aproximadamente
unos pocos Megabars (PC ~ 1012 dinas / cm2). La presión central en una estrella se puede
escribir en la forma
(4,20)
donde β es un número adimensional de unidad de orden. Usando la relación masa / radio de la
enana blanca en la forma de la ecuación [4.13] y estableciendo Z = A = 1, encontramos la presión
central en función de la masa estelar,

, (4,21)

o, de manera equivalente (en unidades cgs),

(4,22)
Combinando estos resultados, encontramos que la escala de masa M * nd en la que la estrella se
vuelve no degenerada está dada por

. (4,23)
Esta escala de masa es aproximadamente la masa de un planeta gigante como Júpiter (para una
discusión más detallada de este tema, ver también Hamada & Salpeter, 1961; Shu, 1982). En este
punto de su evolución, la estrella tiene un radio R * ~ 0.1R e ~ 7 × 109 cm y una densidad media
de aproximadamente ρ ~ 1 g / cm3; estas propiedades también son comparables a las de Júpiter.
Como punto de referencia, observe también que los átomos de hidrógeno neutros empaquetados
en una matriz cúbica con lados iguales a un radio de Bohr darían una densidad de 1.4 g / cm3.
En esta transición, una estrella impulsada por la desintegración de protones tiene una
luminosidad L * ≈ 10−27 L e y una temperatura super icial efectiva T * ≈ 0,0034 K.
Una vez que la estrella se vuelve no degenerada, sigue una nueva pista en el diagrama HR. Las
expresiones para la luminosidad y la temperatura de la superficie (véanse las ecuaciones [4.8] y
[4.12]) siguen siendo válidas, pero la relación masa / radio cambia. Dado que la densidad de la
materia está determinada por las fuerzas de Coulomb para las escalas de masa pequeñas de
interés, la densidad es aproximadamente constante con un valor ρ0 ~ 1 g / cm3. Por tanto,

podemos utilizar la relación simple . Combinando estos resultados,


obtenemos la relación
. (4,24)
o, en términos de valores numéricos,

(4,25)
Esta abrupta ley de potencia implica que la temperatura efectiva de la estrella no cambia mucho
durante las fases finales de la evolución (la masa tiene que disminuir en 12 órdenes de magnitud
para que la temperatura cambie en un factor de 10). Como resultado, las temperaturas
superficiales efectivas de orden T * ~ 10−3 K caracterizan las fases inales de la evolució n estelar.
A medida que la estrella pierde masa, también se vuelve cada vez más delgada ópticamente a
la radiación. A medida que un objeto se vuelve transparente, se vuelve difícil considerar de
manera significativa el remanente como una estrella. Un objeto se vuelve ópticamente delgado
cuando

, (4,26)

donde n es la densidad numérica de objetivos y σ es la sección transversal de interacción entre


el campo de radiación y el material estelar. En este contexto actual, debemos considerar si la
estrella es ópticamente delgada tanto para los rayos gamma producidos por la desintegración de
protones como para la radiación interna en longitudes de onda más largas características de su
temperatura de superficie bolométrica. Esta última condición es necesaria para que se termine
el campo de radiación.
Primero consideramos las condiciones por las cuales la estrella se vuelve ópticamente delgada
a los rayos gamma (con energías E γ ~ 250 MeV) producidos por la desintegración de protones.
Dado que estamos considerando la interacción de los rayos gamma con la materia, podemos
escribir la sección transversal en la forma

(4,27)
donde C es un número adimensional (de orden unidad) y σ T es la sección transversal de
Thompson. En una aproximación aproximada, la densidad será ρ ~ 1 g / cm3 y, por lo tanto, la
densidad numérica tendrá un valor aproximadamente constante n ~ 1024 cm − 3. Usando estos
valores, encontramos que la "estrella" tendrá un grosor óptico seguro para los rayos gamma
siempre que su tamaño característico sea mayor de aproximadamente un metro. En otras
palabras, el objeto debe ser tan grande como una gran roca. Sin embargo, estas rocas no se
parecerán mucho a las estrellas. A las temperaturas bolométricas extremadamente bajas
características de las fotosferas estelares en estos tiempos tardíos, la longitud de onda de los
fotones fotosféricos será macroscópica y, por lo tanto, interactuará con mucha menos fuerza que
los rayos gamma. Como resultado, la distribución de energía espectral de estos objetos sufrirá
desviaciones severas de las formas espectrales del cuerpo negro.
Para considerar la profundidad óptica de la estrella a su campo de radiación interno,
reescribimos la condición [4.26] usando la relación nσ = ρκ, donde κ es la opacidad. Como se
dedujo anteriormente (ecuación [4.24]), la temperatura de la superficie es una función que varía
lentamente en esta fase final de evolución; como resultado, la longitud de onda de los fotones en
la fotosfera estelar será del orden de λ ~ 100 cm. La interacción de esta radiación con la estrella
depende de la pureza química y la estructura de grano cristalino del material estelar. Podemos
obtener una estimación muy aproximada de la opacidad escalando a partir de cantidades
astrofísicas conocidas. Para el grafito interestelar, por ejemplo, la opacidad a λ = 100 μm es
aproximadamente κ ~ 1 cm2 / gy escala con la longitud de onda de acuerdo con κ ∝ λ − 2 (ver
Draine y Lee, 1984). Por lo tanto, estimamos que la opacidad en las capas externas de la estrella
/ roca será κ ~ 10−8 cm2 / g. Por lo tanto, para que la estrella sea ó pticamente gruesa a su
radiación interna, su radio debe ser R *> 108 cm, que corresponde a una escala de masa de

(4,28)
Todos estos valores deben considerarse muy aproximados.
A partir de estos resultados, el futuro último de las enanas blancas, y de hecho nuestro propio
sol, se vuelve claro: una enana blanca emerge de la degeneración como una esfera pura de
hidrógeno cuando la masa cae por debajo de M * ~ 10−3 M e. Finalmente, el objeto restante se
vuelve transparente a su propia radiación interna cuando su masa disminuye a M * ~ 1024 g, y
en este punto ya no es una estrella. La evolución estelar llega así efectivamente a su fin.
Justo antes de la conclusión de la evolución estelar, la enana blanca experimenta alrededor de
2000 eventos de desintegración de protones por segundo y, por lo tanto, tiene una luminosidad
de L * ~ 10−33 L e ~ 4 erg / s, y una temperatura T * ~ 10−3 K . El momento en el que se produce

esta transición viene dado por .


Dados estos resultados, ahora podemos describir la evolución completa de una estrella de 1.0
M e (por ejemplo, el Sol), desde su nacimiento hasta su muerte. La evolución completa de dicha
estrella en el diagrama de Hertzsprung-Russell se representa en la Figura 5.6. La estrella aparece
primero en la línea de nacimiento estelar (Stahler, 1988) y luego sigue una pista previa a la
secuencia principal hacia la secuencia principal. Después de agotar su hidrógeno disponible, la
estrella sigue la evolución convencional posterior a la secuencia principal, incluidas las fases de
gigante roja, rama horizontal, supergigante roja y nebulosa planetaria. Luego, la estrella se
convierte en una enana blanca con masa M * ≈ 0.5M e y se enfría a lo largo de una trayectoria de
radio constante. La enana blanca pasa muchas décadas cosmológicas η = 11 - 25 cerca del centro
del diagrama (L * = 1014 W; T * = 63 K), donde la estrella es impulsada por la aniquilación de
WIMPs acumulados desde el halo galáctico. Cuando se agota el suministro de WIMP, la estrella
se enfría relativamente rápido y obtiene su luminosidad de la desintegración de protones (L * ≈
400 W). Luego, la estrella sigue la trayectoria evolutiva en la parte inferior derecha del diagrama
(con L * ~ T * 12/5) hasta que la pérdida de masa por la desintegración de protones hace que la
estrella se vuelva no degenerada. La estrella luego se convierte en un objeto parecido a una roca
sostenido por las fuerzas de Coulomb y sigue una trayectoria más pronunciada (con L * ~ T * 12)
en el diagrama HR hasta que se vuelve ópticamente delgada. En este punto, el objeto deja de ser
una estrella y la evolución estelar llega a su fin. Durante toda su vida, el Sol abarcará
aproximadamente 33 órdenes de magnitud en luminosidad, 9 órdenes de magnitud en masa y 8
órdenes de magnitud en temperatura superficial. la estrella se enfría relativamente rápido y
obtiene su luminosidad de la desintegración de protones (L * ≈ 400 W). Luego, la estrella sigue
la trayectoria evolutiva en la parte inferior derecha del diagrama (con L * ~ T * 12/5) hasta que
la pérdida de masa por la desintegración de protones hace que la estrella se vuelva no
degenerada. La estrella luego se convierte en un objeto similar a una roca sostenido por las
fuerzas de Coulomb y sigue una trayectoria más pronunciada (con L * ~ T * 12) en el diagrama
HR hasta que se vuelve ópticamente delgada. En este punto, el objeto deja de ser una estrella y
la evolución estelar llega a su fin. Durante toda su vida, el Sol abarcará aproximadamente 33
órdenes de magnitud en luminosidad, 9 órdenes de magnitud en masa y 8 órdenes de magnitud
en temperatura superficial. la estrella se enfría relativamente rápido y obtiene su luminosidad
de la desintegración de protones (L * ≈ 400 W). Luego, la estrella sigue la trayectoria evolutiva
en la parte inferior derecha del diagrama (con L * ~ T * 12/5) hasta que la pérdida de masa por
la desintegración de protones hace que la estrella se vuelva no degenerada. La estrella luego se
convierte en un objeto similar a una roca sostenido por las fuerzas de Coulomb y sigue una
trayectoria más pronunciada (con L * ~ T * 12) en el diagrama HR hasta que se vuelve
ópticamente delgada. En este punto, el objeto deja de ser una estrella y la evolución estelar llega
a su fin. Durante toda su vida, el Sol abarcará aproximadamente 33 órdenes de magnitud en
luminosidad, 9 órdenes de magnitud en masa y 8 órdenes de magnitud en temperatura
superficial. Luego, la estrella sigue la trayectoria evolutiva en la parte inferior derecha del
diagrama (con L * ~ T * 12/5) hasta que la pérdida de masa por la desintegración de protones
hace que la estrella se vuelva no degenerada. La estrella luego se convierte en un objeto parecido
a una roca sostenido por las fuerzas de Coulomb y sigue una trayectoria más pronunciada (con
L * ~ T * 12) en el diagrama HR hasta que se vuelve ópticamente delgada. En este punto, el objeto
deja de ser una estrella y la evolución estelar llega a su fin. Durante toda su vida, el Sol abarcará
aproximadamente 33 órdenes de magnitud en luminosidad, 9 órdenes de magnitud en masa y 8
órdenes de magnitud en temperatura superficial. Luego, la estrella sigue la trayectoria evolutiva
en la parte inferior derecha del diagrama (con L * ~ T * 12/5) hasta que la pérdida de masa por
la desintegración de protones hace que la estrella se vuelva no degenerada. La estrella luego se
convierte en un objeto similar a una roca sostenido por las fuerzas de Coulomb y sigue una
trayectoria más pronunciada (con L * ~ T * 12) en el diagrama HR hasta que se vuelve
ópticamente delgada. En este punto, el objeto deja de ser una estrella y la evolución estelar llega
a su fin. Durante toda su vida, el Sol abarcará aproximadamente 33 órdenes de magnitud en
luminosidad, 9 órdenes de magnitud en masa y 8 órdenes de magnitud en temperatura
superficial. el objeto deja de ser una estrella y la evolución estelar llega efectivamente a su fin.
Durante toda su vida, el Sol abarcará aproximadamente 33 órdenes de magnitud en luminosidad,
9 órdenes de magnitud en masa y 8 órdenes de magnitud en temperatura superficial. el objeto
deja de ser una estrella y la evolución estelar llega efectivamente a su fin. Durante toda su vida,
el Sol abarcará aproximadamente 33 órdenes de magnitud en luminosidad, 9 órdenes de
magnitud en masa y 8 órdenes de magnitud en temperatura superficial.

E Estrellas de neutrones impulsadas por la desintegración


de protones
La evolución de las estrellas de neutrones impulsadas por la desintegración de protones es
cualitativamente similar a la de las enanas blancas. Dado que las estrellas de neutrones tienen
(aproximadamente) la misma masa que las enanas blancas, y dado que la desintegración de
protones ocurre en la escala de tamaño de un nucleón individual, la luminosidad de la estrella de
neutrones viene dada por las ecuaciones [4.8] y [4.9]. En orden de avance, la relación masa /
radio de una estrella de neutrones es la misma que la de las enanas blancas con la masa del
electrón me reemplazada por la masa del neutrón (véanse las ecuaciones [4.13] y [4.14]). Las
estrellas de neutrones son, por tanto, unas 2000 veces más pequeñas que las enanas blancas de
la misma masa y tienen temperaturas superficiales apropiadamente más cálidas. Las estrellas de
neutrones que experimentan la desintegración de nucleones siguen una pista en el diagrama HR
dado por

(4,29)
Las fases finales de la vida de una estrella de neutrones diferirán del caso de una enana blanca.
En particular, los neutrones en una estrella de neutrones salen de la degeneración de una manera
algo diferente a los electrones en una enana blanca. Dentro de una estrella de neutrones, los
neutrones existen y no se desintegran β (en protones, electrones y antineutrinos) debido a las
densidades extremadamente altas, que están cerca de las densidades nucleares en el interior
estelar. En el exterior, sin embargo, cada estrella de neutrones tiene una corteza sólida
compuesta de materia ordinaria. A medida que una estrella de neutrones derrocha su masa a
través de la desintegración de nucleones, el radio aumenta y la densidad disminuye. Las capas
externas de la estrella son menos densas que las regiones centrales y, por lo tanto, la región
externa experimentará primero la desintegración β. Por lo tanto, a medida que la masa
disminuye, los neutrones en la parte exterior de la estrella comienzan a desintegrarse en sus
partículas constituyentes y la estrella debe reajustarse en consecuencia; el efecto neto es que la
corteza de materia ordinaria se espesa constantemente y se mueve hacia adentro, hacia el centro.
Una vez que la masa estelar disminuye por debajo de un valor crítico MC *, la corteza alcanza el
centro de la estrella y la transición se completa. En este punto, la estrella se parecerá más a una
enana blanca que a una estrella de neutrones.

Figura 5.6La evolución completa del Sol (o cualquier estrella de 1 M◉) en el Diagrama HR. La pista muestra la evolución general
de una estrella, desde el nacimiento hasta la muerte final. La estrella aparece primero en el diagrama HR en la línea de nacimiento
estelar y luego sigue una pista de secuencia previa a la secuencia principal. Después de su evolución posterior a la secuencia
principal (fases de gigante roja, rama horizontal, supergigante roja y nebulosa planetaria), la estrella se convierte en una enana
blanca y se enfría a lo largo de una trayectoria de radio constante. La estrella pasa muchas décadas cosmológicas η = 11-25 en un
punto cerca del centro del diagrama (L * = 1014 W; T * = 63 K), donde la estrella es alimentada por la aniquilación de los WIMP
acumulados desde el halo galáctico. Cuando se agota el suministro de WIMP, la estrella se enfría relativamente rápido y obtiene su
luminosidad de la desintegración de protones (L * ≈ 400 W). Luego, la estrella sigue la trayectoria evolutiva en la parte inferior
derecha del diagrama (con L * ~ T * 12/5) hasta que la pérdida de masa por la desintegración de protones hace que la estrella se
vuelva ópticamente delgada. En este punto, el objeto deja de ser una estrella y la evolución estelar llega a su fin.
Este proceso define así una estrella de neutrones de masa mínima (ver Shapiro y Teukolsky,
1983), que se caracteriza aproximadamente por los parámetros

(4,30)
donde ρ C es la densidad central de la estrella. Es difícil imaginar procesos astrofísicos actuales
que produzcan objetos estelares cerca de este límite. La transformación de una estrella de
neutrones a una enana blanca ocurre con una escala de tiempo dada por

(4,31)
donde M 0 ≈ 1.4M e es la masa inicial de la estrella de neutrones. Observe que las estrellas de
neutrones tienen un rango de masa posible de solo un factor de ~ 15, considerablemente más
pequeño que el rango de masa disponible para las enanas blancas.

F Desintegración de protones de orden superior


No todas las teorías de la física de partículas predicen la desintegración de protones mediante el
proceso descrito anteriormente con una tasa de desintegración Γ P (ecuación [4.2] y figura 5.4).
En las teorías que no permiten la desintegración de protones a través de este proceso de primer
orden, el protón a menudo puede desintegrarse a través de procesos de segundo orden y / o
mediante efectos gravitacionales. Por un proceso de segundo orden, nos referimos a una
interacción que involucra dos protones y / o neutrones, es decir, ΔB = 2, donde B es el número
bariónico. La tasa de decaimiento para estos canales de decaimiento alternativos es típicamente
mucho menor que la discutida anteriormente. En esta sección, discutimos las tasas de
descomposición y las escalas de tiempo para estos procesos de orden superior (ver también
Feinberg, Goldhaber y Steigman, 1978; Wilczek y Zee, 1979; Weinberg, 1980; Mohapatra y
Marshak, 1980).
Primero consideramos una clase de teorías que permiten la violación del número bariónico,
pero no tienen los vértices adecuados para la desintegración directa de protones (ΔB = 1). En
tales teorías, la desintegración de protones a veces puede tener lugar a través de procesos de
orden superior (ΔB> 1). Por ejemplo, si los quarks en dos nucleones interactúan como se muestra
en la Figura 5.7, la tasa de desintegración viene dada aproximadamente por

. (4,32)
Figura 5.7Diagrama de Feynman representativo para la desintegración de nucleones para un proceso B = 2, es decir, una
desintegración que involucra dos nucleones. El resultado neto de esta interacción (que se muestra aquí en términos de los quarks
constituyentes) es la desintegración de un neutrón y un protón en dos piones, n + p → π0 + π +. La partícula Y media el proceso de
violación del número bariónico. Se pueden obtener diagramas similares para la desintegración neutrón-neutrón y para la
desintegración protón-protón cambiando el tipo de quarks espectador.

Incluso para este ejemplo de orden superior, la teoría debe tener los vértices adecuados para que
ocurra este proceso. Observamos que algunas teorías prohíben esta clase de canales de
desintegración y requieren reacciones ΔB = 3 para que se produzca la desintegración de
nucleones (p. Ej., Goity y Sher, 1995; Castano y Martin, 1994). Para el ejemplo que se muestra en
la Figura 5.7, la tasa de caída se suprime mediante un factor de (m P / MX) 4 ~ 1064 en relación
con el canal de caída GUT más simple. Como resultado, la escala de tiempo para la desintegración
de protones a través de este proceso de segundo orden está dada aproximadamente por

(4,33)
y la escala de tiempo cosmológica correspondiente es

. (4,34)
Para que tenga lugar este proceso de desintegración, los protones involucrados deben estar cerca
unos de otros. Para el caso de interés, los protones en las enanas blancas están (en su mayoría)
en núcleos de carbono y, por lo tanto, cumplen con este requisito. De manera similar, los
neutrones en una estrella de neutrones se encuentran esencialmente en densidades nucleares.
Sin embargo, observe que los protones libres en el espacio interestelar o intergaláctico
generalmente no se descomponen a través de este canal.
El protón también puede decaer a través de procesos virtuales de agujero negro en las teorías
de la gravedad cuántica (p. Ej., Zel'dovich, 1976; Hawking, Page y Pope, 1979; Page, 1980;
Hawking, 1987). Desafortunadamente, la escala de tiempo asociada con este proceso no está muy
bien determinada, pero se estima que se encuentra en el rango

, (4,35)
con el rango correspondiente de décadas cosmológicas

. (4,36)
Por lo tanto, dentro de la incertidumbre (muy grande), esta escala de tiempo para la
desintegración de protones es proporcional a los procesos GUT de segundo orden discutidos
anteriormente.
Observamos que existen muchos otros modos posibles de desintegración de nucleones. Por
ejemplo, las teorías supersimétricas pueden dar lugar a un proceso de desintegración de
neutrones dobles de la forma que se muestra en la Figura 5.8a (ver Goity y Sher, 1995). En este
caso, dos neutrones se desintegran en dos kaones neutros. Dentro del contexto de las GUT
estándar, también pueden ocurrir canales de desintegración que involucran diagramas de orden
superior. Como otro ejemplo, el proceso que se muestra en la figura 5.8b involucra tres bosones
vectoriales intermedios y, por lo tanto, conduce a una vida útil del protón aproximadamente
dada por

. (4,37)
Son posibles otros estados finales (por ejemplo, tres piones), aunque las escalas de tiempo
deberían ser comparables. Este proceso (Figura 5.8b) involucra solo los procesos de violación
del número bariónico más elementales, que permiten interacciones de la forma general

. Como resultado, es probable que este modo de caída ocurra incluso cuando los
canales de orden inferior no estén permitidos.
Finalmente, mencionamos el caso de los esfalerones, que proporcionan otro mecanismo que
puede conducir a la violación del número de bariones y, por lo tanto, a la desintegración de los
protones. La estructura de vacío de la teoría electrodébil permite la no conservación del número
de bariones; Los eventos de túnel entre los diferentes estados de vacío en la teoría dan lugar a
un cambio en el número de bariones (para más detalles, ver Rajaraman, 1987; Kolb y Turner,
1990). Debido a que estos eventos requieren tunelización cuántica, la tasa de este proceso se
suprime exponencialmente a temperatura cero por el factor grande f = exp [4π / α W] ~ 10172,
donde αW es la constante de estructura fina para interacciones débiles. En términos de décadas
cosmológicas, la escala de tiempo para la desintegración de protones a través de este proceso
tiene la forma η P = η0 + 172, donde η0 es la escala de tiempo natural (sin supresión). Usando el
tiempo de cruce de luz del protón para determinar la escala de tiempo natural (es decir, tomamos
de manera optimista η0 = −31), obtenemos la estimació n bruta η P ≈ 141. Dado que esta escala
de tiempo es mucho más larga que la edad actual del universo , este modo de desintegración de
protones no se ha explorado completamente. Además, este proceso tiene reglas de selección
asociadas (por ejemplo, 't Hooft, 1976) que ponen límites adicionales a los posibles eventos que
exhiben no conservación del número bariónico. Sin embargo, este modo de violación del número
bariónico podría desempeñar un papel en el futuro lejano del universo. este proceso tiene reglas
de selección asociadas (por ejemplo, 't Hooft, 1976) que ponen límites adicionales a los posibles
eventos que exhiben no conservación del número bariónico. Sin embargo, este modo de violación
del número bariónico podría desempeñar un papel en el futuro lejano del universo. este proceso
tiene reglas de selección asociadas (por ejemplo, 't Hooft, 1976) que ponen límites adicionales a
los posibles eventos que exhiben no conservación del número bariónico. Sin embargo, este modo
de violación del número bariónico podría desempeñar un papel en el futuro lejano del universo.
Para resumir esta discusión, enfatizamos que muchos mecanismos diferentes para la violación
del número de bariones y la desintegración de protones se pueden realizar dentro de las teorías
modernas de partículas.
Figura 5.8Diagrama de Feynman representativo para procesos de desintegración de nucleones de orden superior, que se muestra
aquí en términos de los quarks constituyentes. (a) Desintegración de neutrones dobles para una teoría supersimétrica. La reacción
neta convierte dos neutrones n en dos kaones neutros K0. Las tildes denotan las parejas supersimétricas de las partículas. (b)
Desintegración de doble nucleón con tres bosones vectoriales intermedios Y. Son posibles otros estados finales (p. ej., tres piones),
pero la tasa de desintegración general es comparable e implica una escala de tiempo de desintegración ηP ~ 165 + 12 log10 [MY /
1016GeV].

Figura 5.8 Diagrama de Feynman representativo para procesos de desintegración de


nucleones de orden superior, que se muestra aquí en términos de los quarks constituyentes. (a)
Desintegración de neutrones dobles para una teoría supersimétrica. La reacción neta convierte
dos neutrones n en dos kaones neutros K0. Las tildes denotan las parejas supersimétricas de las
partículas. (b) Desintegración de doble nucleón con tres bosones vectoriales intermedios Y. Son
posibles otros estados finales (p. ej., tres piones), pero la tasa de desintegración general es
comparable e implica una escala de tiempo de desintegración ηP ~ 165 + 12 log10 [MY /
1016GeV].
física. Como resultado, parece probable que el protón eventualmente deba decaer con una vida
útil en algún lugar del rango
, (4,38)
donde el límite superior se obtuvo utilizando MX ~ M P1 en la ecuación [4.37].

Para poner estas escalas de tiempo muy largas en perspectiva, observamos que el número total
NN de nucleones en el universo observable (en la época actual) es aproximadamente NN ~ 1078.
Por lo tanto, para un tiempo de desintegración de η = 100, el número esperado ND de nucleones
que se han descompuesto dentro de nuestro universo observable durante toda su historia es
mucho menor que la unidad, ND ~ 10-12. Las dificultades experimentales implicadas en la
detección de procesos de desintegración de protones de orden superior quedan así claras.
Si el protón se desintegra con una vida útil correspondiente a η ~ 100-200, la evolución de las
enanas blancas será cualitativamente la misma que en el escenario descrito anteriormente, pero
con algunas diferencias. Dado que la escala de tiempo evolutiva es mucho más larga, las
reacciones piconucleares serán mucho más efectivas para reconstruir la composición química de
las estrellas hasta los núcleos de alto número atómico. Por lo tanto, las estrellas con una masa
determinada tendrán números atómicos más altos para sus núcleos constituyentes. Sin embargo,
la velocidad de reacción nuclear (ecuación [4.17]) tiene una sensibilidad exponencial a la
densidad. A medida que la estrella pierde masa y se vuelve menos densa (de acuerdo con la
relación masa / radio de la enana blanca [4.13, 4.14]), las reacciones piconucleares se detendrán
de manera bastante abrupta. Si estas reacciones nucleares se detienen por completo, la estrella
se convertiría rápidamente en hidrógeno puro y la desintegración de protones a través de un
proceso de dos cuerpos sería altamente suprimida. Sin embargo, el hidrógeno tiende a formar
moléculas a estas temperaturas extremadamente bajas. La reacción piconuclear entre los dos
protones en una molécula de hidrógeno procede a una velocidad fija que es independiente de las
condiciones ambientales y tiene una escala de tiempo de aproximadamente η ≈ 60 (ver Dyson,
1979, Shapiro & Teukolsky, 1983, y §III.C para estimaciones simples de las tasas de reacción
piconuclear). Esta reacción convertirá así la estrella en deuterio y helio en una escala de tiempo
significativamente más corta que la de la desintegración de protones de orden superior. Los
núcleos más grandes resultantes aún pueden descomponerse a través de un proceso de segundo
o tercer orden.

La radiación de G Hawking y la desintegración de los


agujeros negros
Los agujeros negros no pueden vivir para siempre; se evaporan en escalas de tiempo
prolongadas a través de un proceso de tunelización de la mecánica cuántica que produce fotones
y otros productos (Hawking, 1975). En particular, los agujeros negros irradian un espectro
térmico de partículas con una temperatura efectiva dada por
, (4,39)
donde M BH es la masa del agujero negro. El tiempo de vida total del agujero negro se convierte
así

, (4,40)

donde g * determina el número total de grados de libertad efectivos en el campo de radiación.


Insertando valores numéricos y escalando a una masa de agujero negro de referencia de 106 M
e, encontramos la escala de tiempo

. (4,41)
o equivalente,

(4,42)
Por lo tanto, incluso un agujero negro con una masa comparable a una galaxia (M BH ~ 1011 M
e) se evaporará a través de este proceso en la escala de tiempo η BH ~ 98. Una consecuencia
importante de este resultado es que para η> 100, un gran fracción del universo estará en forma
de radiación, electrones, positrones y otros productos de desintegración.

H Desintegración de protones en planetas


Los planetas también se desintegrarán eventualmente a través del proceso de desintegración de
protones. Dado que las reacciones nucleares tienen una escala de tiempo (η ~ 1500) mucho más
larga que la de la desintegración de protones y, por lo tanto, no son importantes (ver Dyson,
1979), la evolución química del planeta está bien descrita por un escenario de cascada de
desintegración de protones simple (ver §IV .C). En particular, esta cascada convertirá un planeta
inicialmente compuesto de hierro en una red de hidrógeno en ~ 6 vidas medias de protones, o
de manera equivalente, en una escala de tiempo dada por

, (4,43)
Esta escala de tiempo también representa el momento en el que el planeta es efectivamente
destruido.
Durante la época de la desintegración de los protones, los planetas irradian energía con una
luminosidad efectiva dada por

, (4,44)
donde ME es la masa de la Tierra y donde hemos utilizado una vida útil de desintegración de
protones de 1037 años. Se espera que el factor de eficiencia F sea de orden unitario. Por tanto, la
luminosidad corresponde a ~ 0,4 mW.

V Evolución a largo plazo del universo


A pesar de la riqueza de los avances recientes en nuestra comprensión de la cosmología, la
evolución futura del universo no se puede predecir sin ambigüedades. En particular, la geometría
del universo en su conjunto permanece sin especificar. El universo puede ser cerrado (k = + 1;
Ω> 1), plano (k = 0; Ω = 1) o abierto (k = - 1; Ω <1). Además, la contribución de la densidad de
energía del vacío sigue siendo incierta y puede tener importantes implicaciones para la evolución
a largo plazo del universo.

Una expansión futura de un universo cerrado


Si el universo está cerrado, entonces la vida útil total del universo, desde Big Bang hasta Big
Crunch, puede ser relativamente corta en comparación con las escalas de tiempo características
de muchos de los procesos físicos considerados en este artículo. Para un universo cerrado con
parámetro de densidad Ω0> 1, la vida útil total τ U del universo se puede escribir en la forma

, (5,1)
donde H 0 es el valor actual del parámetro de Hubble (ver, por ejemplo, Peebles, 1993). Observe
que, por definición, la edad τ U → ∞ como Ω0 → 1. Las observaciones cosmológicas actuales
sugieren que la constante de Hubble está restringida a estar en el rango de 50 - 100 km s − 1 Mpc
− 1 (p. Ej., Riess, Press, & Kirshner, 1995), y de ahı́ la escala de tiempo está restringido a ser
superior a ~ 10 Gyr. Observaciones adicionales (por ejemplo, Loh y Spillar, 1986) sugieren que
Ω0 <2. Usando estos resultados, obtenemos un límite inferior en la vida total del universo,

. (5,2)
En términos de la variable de tiempo η, este límite toma la forma
. (5,3)
Este límite no es muy fuerte: si el universo está realmente cerrado, entonces no habrá tiempo
suficiente para permitir muchos de los procesos que describimos en este artículo.
También notamos que un modelo de universo cerrado puede, en principio, generalizarse para
dar lugar a un universo oscilante. En este caso, el Big Crunch que ocurre al final del universo es
realmente un "Big Bounce" y produce un nuevo universo de la próxima generación. Esta idea se
originó con Lemaître (1933) y posteriormente ha sido considerada en muchos contextos
diferentes (desde Tolman, 1934 hasta Peebles, 1993).

B Fluctuaciones de densidad y expansión de un universo


plano o abierto
El universo continuará expandiéndose para siempre o colapsará sobre sí mismo, pero no se
reconoce comúnmente que las observaciones no puedan proporcionar una respuesta definitiva
a esta importante pregunta. El objetivo de muchas observaciones astronómicas actuales es medir
el parámetro de densidad Ω, que es la relación entre la densidad del universo y la requerida para
cerrar el universo. Sin embargo, las mediciones de Ω no determinan necesariamente el destino a
largo plazo del universo.
Supongamos, por ejemplo, que finalmente podemos medir Ω como un valor Ω0 (ya sea menor
o mayor que la unidad). Este valor de Ω0 significa que la densidad dentro del volumen del
horizonte actual tiene una relación determinada con la densidad crítica. Si pudiéramos ver el
universo (hoy) en una escala de tamaño mucho mayor (no podemos debido a la causalidad),
entonces la densidad media del universo de esa escala de tamaño mayor no tiene por qué ser la
misma que la que medimos dentro de nuestro horizonte. hoy dia. Sea Ωbig la relación entre la
densidad del universo y la densidad crítica en la escala de tamaño más grande antes mencionada.
En particular, podríamos medir un valor Ω0 <1 y tener Ωbig> 1, o, alternativamente, podríamos
medir Ω0> 1 y tener Ωbig <1. Linde (1988, 1989, 1990) ha discutido con bastante detalle esta
posibilidad. .
Para corregir ideas, considere el caso en el que el valor local del parámetro de densidad es Ω0
≈ 1 y el valor de escala mayor es Ωbig = 2> 1. (Tenga en cuenta que Ω no es constante en el tiempo
y, por lo tanto, este valor se refiere al momento en que la escala mayor entra en el horizonte.) En
otras palabras, vivimos en un universo aparentemente plano, que en realidad está cerrado en
una escala mayor. Este estado de cosas requiere que nuestro universo actualmente observable
se encuentre dentro de una fluctuación de amplitud de densidad a gran escala.

, (5,4)
donde el signo menos indica que vivimos en una región localmente subdensa. Por tanto, se
requiere una perturbación de densidad con amplitud de unidad de orden; además, como
discutimos a continuación, la escala de tamaño de la perturbación debe exceder en gran medida
el tamaño del horizonte actual.
En escalas de tamaño comparables a las de nuestro horizonte actual, las fluctuaciones de
densidad están limitadas a ser bastante pequeñas (Δρ / ρ ~ 10−5) debido a las mediciones de
fluctuaciones de temperatura en la radiación de fondo de microondas cósmica (Smoot et al.,
1992; Wright et al., 1992). En escalas de tamaño más pequeñas, las mediciones adicionales
indican que las fluctuaciones de densidad son igualmente pequeñas en amplitud (p. Ej., Meyer,
Cheng y Page, 1991; Gaier et al., 1992; Schuster et al., 1993). El fondo de microondas también
restringe las fluctuaciones de densidad en escalas mayores que el horizonte (por ejemplo,
Grischuk y Zel'dovich, 1978), aunque la sensibilidad de la restricción disminuye al aumentar la
escala de tamaño λ de acuerdo con la relación ~ (λhor / λ) 2, donde λhor es el tamaño del
horizonte.

. (5,5)
Para un universo localmente plano (Ω0 ≈ 1), las fluctuaciones de densidad con esta escala de
tamaño entrarán en el horizonte en un momento t 1 ≈ 3 × 107 t 0 ≈ 3 × 1017 años, o, de manera
equivalente, en la década cosmológica

. (5,6)
Esta escala de tiempo representa un límite inferior en la edad (final) del universo si la geometría
actual es espacialmente plana. En la práctica, el universo recién cerrado requerirá algún tiempo
adicional para volver a colapsar (ver ecuación [5.1]) y, por lo tanto, el límite inferior de la edad
total se vuelve aproximadamente η> 18.
La situación es algo diferente para el caso de un universo abierto con Ω0 <1. Si el universo está
abierto, entonces la velocidad de expansión se acercará (relativamente) rápidamente a la
velocidad de la luz, es decir, el factor de escala se expandirá de acuerdo con R ∝ t (para esta
discusión, no incluimos la posibilidad de que Ω0 = 1 - ε, donde , es decir, solo consideramos
casos manifiestamente abiertos). En este límite, el horizonte de partículas (comovivo) se
expande logarítmicamente con el tiempo y, por lo tanto, continúa creciendo. Sin embargo, la
esfera de la velocidad de la luz, la distancia a la que las partículas del universo se alejan a la
velocidad de la luz, se acerca a una constante en coordenadas comovivas. Como resultado, las
perturbaciones de densidad en escalas muy grandes permanecerán efectivamente "congeladas"
y, por lo tanto, se les impedirá un mayor crecimiento mientras el universo permanezca abierto.
Debido a que el horizonte comoving continúa creciendo, aunque con bastante lentitud, existe la
posibilidad de que el universo se cierre en algún momento futuro. El crecimiento logarítmico del
horizonte implica que la escala de tiempo para que el universo se cierre depende
exponencialmente de la escala de tamaño λ1 para la cual las perturbaciones de densidad son de
orden unitario. , incluso en comparación con las escalas de tiempo consideradas en este
trabajo.
Para resumir, si el universo tiene actualmente una geometría espacial casi plana, entonces las
restricciones de fondo de microondas implican un límite inferior en la edad total del universo,
η> 18. La evolución del universo en tiempos posteriores depende del espectro de perturbaciones
de densidad. Si las perturbaciones de gran amplitud (Δρ / ρ> 1) ingresan al horizonte en
momentos tardíos, entonces el universo podría terminar en una gran crisis en algún momento
η> η 1 = 17,5. Por otro lado, si las perturbaciones de densidad a gran escala tienen una pequeña
amplitud , entonces el universo puede continuar expandiéndose durante escalas de tiempo
mucho más largas. Si el universo está actualmente abierto, entonces las perturbaciones de
densidad a gran escala están esencialmente congeladas.

C La inflación y el futuro del universo


El escenario del universo inflacionario se inventó originalmente (Guth, 1981) para resolver el
problema del horizonte y el problema de la planitud que enfrenta la cosmología estándar del Big
Bang (ver también Albrecht y Steinhardt, 1982; Linde, 1982). El problema de los monopolos
magnéticos también fue una motivación, pero no se discutirá aquí. Además, los modelos
inflacionarios que utilizan campos escalares de "movimiento lento" pueden producir
fluctuaciones de densidad que luego crecen en las galaxias, cúmulos y super cúmulos que vemos
hoy (por ejemplo, Bardeen, Steinhardt y Turner, 1983; Starobinsky, 1982; Guth y Pi, 1982;
Hawking, 1982).
Durante la época inflacionaria, el factor de escala del universo crece superluminalmente
(generalmente exponencialmente con el tiempo). Durante este período de rápida expansión, una
pequeña región del universo conectada causalmente se infla para volverse lo suficientemente
grande como para contener el universo actualmente observable. Como resultado, se puede
explicar la homogeneidad e isotropía observadas del universo, así como la planitud observada.
Para lograr esta resolución de los problemas de horizonte y planitud, el factor de escala del
universo debe inflarse en un factor de , donde el número de pliegues electrónicos NI ~ 60. Al
final de este período de rápida expansión, el universo debe volver a termalizarse para dominar
la radiación y recuperar los éxitos de la teoría estándar del Big Bang.
Desde la concepción de la inflación, se han producido muchos modelos y se han dado muchos
tratamientos de los requisitos para una inflación suficiente (por ejemplo, Steinhardt y Turner,
1984; Kolb y Turner, 1990; Linde, 1990). Estas restricciones generalmente se escriben en
términos de explicar la planitud y causalidad del universo en la época actual. Sin embargo, es
posible, o incluso muy probable, que la inflación resuelva los problemas de horizonte y planitud
en el futuro. En esta discusión, encontramos el número NI de e-pliegues inflacionarios requeridos
para resolver los problemas de horizonte y planitud hasta una futura década cosmológica η.
Dado que el número de pliegues electrónicos requeridos para resolver el problema de la
planitud es (generalmente) casi el mismo que el requerido para resolver el problema del
horizonte, es suficiente considerar solo el último (para una discusión más detallada de este tema,
ver, por ejemplo, Kolb y Turner, 1990; Linde, 1990). La condición para una inflación suficiente
se puede escribir en la forma

, (5,7)
donde el lado izquierdo de la desigualdad se refiere a la inversa del producto del parámetro de
Hubble y el factor de escala evaluado en la futura década cosmológica η y el lado derecho se
refiere a la misma cantidad evaluada al comienzo de la época inflacionaria.
El parámetro de Hubble al comienzo de la inflación toma la forma

, (5,8)
donde MI es la escala de energía al comienzo de la inflación (típicamente, la escala de energía MI
~ 1016 GeV, que corresponde a la década cosmológica η I ~ −44.5). De manera similar, el
parámetro de Hubble en algún momento futuro η se puede escribir en la forma

, (5,9)
donde la escala de energía M η está definida por

. (5,10)
En la segunda igualdad, hemos escrito la densidad de energía en términos de su valor ρ0 en la
época actual y asumimos que el universo permanece dominado por la materia. También
asumimos que la evolución del universo es esencialmente adiabática desde el final de la inflación
(final del factor de escala R) hasta la época futura de interés (factor de escala R η), es decir,

, (5,11)
donde T η = T 0 / R η es la temperatura del CMB en el momento η y T 0 ≈ 2,7 K es la temperatura
del CMB hoy. La cantidad fM I es la temperatura del CMB al final del inflado, después de la
termalización, y hemos introducido el factor adimensional f <1.
Combinando todos los resultados anteriores, obtenemos la siguiente restricción para una
inflación suficiente,

. (5,12)
A continuación, escribimos la densidad de energía actual ρ0 en términos de la temperatura actual
T 0 del CMB,

, (5,13)
donde β ≈ 100. El número de pliegues electrónicos viene dado por

. (5.14a)
Insertando valores numéricos y usando la definición [1.1] de décadas cosmológicas, podemos
escribir esta restricción en la forma

. (5.14b)
Por ejemplo, para tener suficiente inflación para que el universo sea suave y plano hasta la
década cosmológica η = 100, necesitamos NI ≈ 130 e-pliegues de inflación. Este valor no es
irrazonable en el sentido de que NI = 130 es tan natural desde el punto de vista de la física de
partículas como el valor de NI = 61 requerido por la inflación estándar.
También debemos considerar las perturbaciones de densidad producidas por la inflación.
Todos los modelos conocidos de inflación producen fluctuaciones de densidad y la mayoría de
los modelos predicen que las amplitudes están dadas por

, (5,15)
donde H es el parámetro de Hubble y Φ es el campo escalar responsable de la inflación
(Starobinsky, 1982; Guth y Pi, 1982; Hawking, 1982; Bardeen, Steinhardt y Turner, 1983). En
modelos de inflación con más de un campo escalar (p. Ej., La & Steinhardt, 1989; Adams & Freese,
1991), los campos adicionales también pueden producir fluctuaciones de densidad de acuerdo
con la ecuación [5.15].
Para que estas fluctuaciones de densidad sean lo suficientemente pequeñas, como lo requieren
las mediciones del fondo cósmico de microondas, el potencial V (Φ) para el campo de inflación
debe ser muy plano. Esta declaración se puede cuantificar definiendo un "parámetro de ajuste
fino" λ FT a través de la relación

, (5,16)
donde ΔV es el cambio en el potencial durante una porción dada de la época inflacionaria y ΔΦ
es el cambio en el campo escalar durante el mismo período (Adams, Freese y Guth, 1991). El
parámetro λ FT está restringido a menos de ~ 10−8 para todos los modelos de in lació n de esta
clase y normalmente es mucho más pequeño, λ FT ~ 10−12, para modelos especı́ icos. La
pequeñez requerida de este parámetro impone fuertes restricciones a los modelos de inflación.
Las restricciones antes mencionadas se derivaron exigiendo que las fluctuaciones de densidad
(ecuación [5.15]) sean suficientemente pequeñas en amplitud sobre las escalas de tamaño de
interés cosmológico actual, es decir, desde el tamaño del horizonte (hoy) hasta la escala de
tamaño de las galaxias. Estas perturbaciones de densidad se generan sobre N δ ≈ 8 e-pliegues
durante la época inflacionaria. Sin embargo, como se discutió en §VB, las fluctuaciones de
densidad de gran amplitud pueden cruzar el horizonte en el futuro y cerrar efectivamente el
universo (ver también Linde, 1988, 1989, 1990). Para que el universo sobreviva (no se cierre)
hasta alguna década cosmológica futura η, las fluctuaciones de densidad deben ser pequeñas en
amplitud para todas las escalas de tamaño hasta el tamaño del horizonte en el tiempo η (dentro
de un orden de magnitud - ver ecuación [5.1 ]). Como resultado,

, (5,17)
donde η es la futura década cosmológica de interés. Por ejemplo, para η = 100 necesitaríamos N
δ ≈ 77. Aunque este valor más grande de N δ coloca un límite más estricto en el parámetro de
ajuste fino λ FT, y por lo tanto, una restricción más estricta sobre el potencial inflacionario, dichos
límites se pueden acomodar por modelos inflacionarios (ver Adams, Freese y Guth, 1991 para
una discusión más detallada). Hablando libremente, una vez que el potencial es plano sobre el
habitual N δ = 8 e-pliegues requeridos para los modelos inflacionarios estándar, no es tan difícil
hacerlo plano para N δ = 80.

D Campos de radiación de fondo


Muchos de los procesos discutidos en este documento producirán campos de radiación de fondo,
que pueden ser componentes importantes del universo (ver, por ejemplo, Bond, Carr y Hogan,
1991 para una discusión de los antecedentes actuales). Las estrellas producen campos de
radiación y las estrellas de baja masa seguirán brillando durante varias décadas cosmológicas
más (§II). El efecto neto de la captura y aniquilación de WIMP en las enanas blancas (§III.E) será
convertir una parte sustancial de la energía de la masa de los halos galácticos en radiación. De
manera similar, el efecto neto de la desintegración de protones (§IV) convertirá la energía de la
masa de los bariones en el universo en radiación. Finalmente, los agujeros negros también se
evaporarán (§IV.H), convirtiendo finalmente su masa en reposo en campos de radiación. Como
mostramos a continuación,
La evolución general de un campo de radiación en un universo en expansión se puede describir
mediante la ecuación diferencial simple,

, (5,18)
donde ρrad es la densidad de energía del campo de radiación y S (t) es un término fuente (véase,
por ejemplo, Kolb y Turner, 1990).
Las estrellas de baja masa seguirán brillando en el futuro. El término fuente para esta radiación
estelar se puede escribir en la forma

, (5,19)
donde L * y n * son la luminosidad y la densidad numérica de las estrellas de baja masa. En la
segunda igualdad, hemos introducido la fracción de masa actual de estrellas de baja masa Ω *, la
eficiencia de combustión nuclear ε * ~ 0.007, la vida estelar efectiva t * y la densidad de energía
actual del universo ρ0. Para este ejemplo, hemos escrito estas expresiones para una población
de estrellas con una sola masa; en general, uno debería, por supuesto, considerar una
distribución de masas estelares y luego integrar sobre la distribución. Como un refinamiento
adicional, también se podría incluir la dependencia del tiempo de la luminosidad estelar L * (ver
§II).
Para una geometría dada del universo, encontramos la solución para el campo de radiación de
fondo de estrellas de baja masa,

, (5,20)
donde el factor adimensional f = 1/2 para un universo abierto yf = 3/5 para un universo plano.
Esta forma es válida hasta que las estrellas se apaguen en el tiempo t = t *. Después de ese tiempo,
el campo de radiación simplemente se desplaza al rojo de la manera habitual, ρrad * ~ R −4.
Para el caso de la aniquilación de WIMP en enanas blancas, el término fuente viene dado por

, (5,21)
donde L * y n * son la luminosidad y la densidad numérica de las enanas blancas. En la segunda
igualdad, hemos escrito la fuente en términos de densidad de energía en WIMP, donde Ω W es la
fracción de masa actual de WIMP y Γ es la tasa de aniquilación efectiva. La solución para el campo
de radiación de fondo de la aniquilación de WIMP se puede encontrar,

, (5,22)
donde el factor adimensional f se define arriba. Esta forma es válida hasta que los halos galácticos
comiencen a quedarse sin materia oscura WIMP en el tiempo t ~ Γ − 1 ~ 1025 años, o hasta que
el halo galáctico expulse casi todas sus enanas blancas. Observamos que la aniquilación directa
de la materia oscura también contribuirá al campo de radiación de fondo del universo. Sin
embargo, esta radiación será altamente no térmica; los productos de aniquilación incluirán rayos
gamma con energía característica E γ ~ 1 G eV.
Para el caso de la desintegración de protones, el término fuente efectivo para el campo de
radiación resultante se puede escribir

, (5,23)
donde Ω B es la contribución actual de los bariones a la densidad de energía total ρ0, Γ P es la
tasa de desintegración de protones y F es un factor de eficiencia de orden unitario. Para una
geometría dada del universo, obtenemos la solución para el campo de radiación de fondo de la
desintegración de protones,

, (5,24)
donde F (ξ) es una función adimensional de la variable de tiempo adimensional ξ ≡ Γ P t. Por un
universo abierto

, (5,25)
mientras que para un universo plano,

(5,26)
donde γ (5/3, ξ) es la función gamma incompleta (Abramowitz y Stegun, 1972).
Para la evaporación de un agujero negro, el cálculo del campo de radiación es más complicado
porque el resultado depende de la distribución de masa de los agujeros negros en el universo.
Para simplificar, consideraremos una población de agujeros negros con una sola masa M y
fracción de masa Ω BH (escalada a la época actual). El término fuente para la evaporación de un
agujero negro se puede escribir en la forma

, (5,27)
donde τ BH es la vida útil total de un agujero negro de la masa M dada (ver ecuación [4.37]). Para
un universo abierto, obtenemos la solución para el campo de radiación de fondo de la
evaporación del agujero negro.

, (5,28)
donde la variable de tiempo adimensional ξ = t / τ BH. Para un universo abierto, la función
adimensional F (ξ) viene dada por

, (5,29)
mientras que para un universo plano,

(5.30)
Cada uno de los cuatro campos de radiación discutidos aquí tiene la misma dependencia
temporal general. Para tiempos cortos en comparación con los tiempos de agotamiento, los
campos de radiación tienen la forma
, (5,31)
donde Ω X es la abundancia actual de la materia prima y Γ X es la tasa de desintegración efectiva
(observe que hemos descuidado los factores adimensionales de la unidad de orden). Una vez que
las fuentes (estrellas, WIMP, protones, agujeros negros) se han agotado sucesivamente, los
campos de radiación restantes simplemente se desplazan hacia el rojo, es decir,

, (5,32)
donde el subíndice se refiere al final del período de tiempo durante el cual se produjo la radiación
ambiental.
Debido al gran desajuste en las escalas de tiempo características, cada uno de los campos de
radiación proporcionará la contribución dominante al contenido de radiación del universo
durante un período de tiempo determinado. Esta tendencia se ilustra en la Figura 5.9, que
muestra la contribución relativa de cada campo de radiación en función del tiempo cosmológico
η. Con fines ilustrativos, hemos asumido un universo abierto y las siguientes abundancias de
fuentes: estrellas de baja masa Ω * = 10−3, partı́culas masivas de interacció n dé bil Ω W = 0,2,
bariones Ω B = 0,05 y agujeros negros Ω BH = 0,1 . En la actualidad, el fondo cósmico de
microondas (sobrante del propio Big Bang) proporciona el componente de radiación dominante.
El campo de radiación de la luz de las estrellas dominará el fondo durante las próximas décadas
cosmológicas. En la década cosmológica η ~ 16, el campo de radiación resultante de la
aniquilación de WIMP superará el fondo de la luz de las estrellas y se convertirá en el
componente dominante. En la década cosmológica η ~ 30, el campo de radiación de aniquilación
de WIMP se habrá desplazado al rojo y el campo de radiación de la desintegración de protones
comenzará a dominar. En escalas de tiempo mucho más largas, η ~ 60, el campo de radiación de
la evaporación del agujero negro proporciona la contribución dominante (donde hemos utilizado
agujeros negros de 106 M e para este ejemplo).
Figura 5.9Campos de radiación de fondo en el universo. El eje vertical representa la relación entre la densidad de energía en
radiación y la densidad de energía total (asumiendo que el universo sigue dominado por la materia). El eje horizontal está dado en
términos de décadas cosmológicas η. Las diversas curvas representan los campos de radiación del fondo cósmico de microondas
(CMB), la luz de las estrellas de baja masa (S), la radiación de la aniquilación de WIMP en las enanas blancas (WIMP), la radiación
de la desintegración de protones (desintegración p) y la evaporación del agujero negro. (agujeros negros).

Hasta ahora, la discusión se ha centrado en la densidad de energía total ρrad de los campos de
radiación de fondo. También se puede determinar el espectro de los campos de fondo en función
del tiempo cosmológico, es decir, se podría seguir la evolución temporal de la densidad de
energía de radiación por unidad de frecuencia. En general, los espectros de los campos de
radiación de fondo serán no térmicos por dos razones:

1. Los términos fuente no son necesariamente cuerpos negros perfectos. Las propias
estrellas y los agujeros negros producen espectros casi térmicos, pero los objetos de
diferentes masas irradiarán como cuerpos negros de diferentes temperaturas. Por lo
tanto, se debe integrar sobre la distribución masiva de la población de origen. Es
interesante que esta declaración se aplique a todas las fuentes anteriores. Para las tres
primeras fuentes (estrellas de baja masa, enanas blancas que irradian productos de
aniquilación WIMP y enanas blancas impulsadas por la desintegración de protones), la
distribución de masa no es muy amplia y el espectro compuesto resultante es cercano al
de un cuerpo negro. Para el caso de los agujeros negros, el espectro es potencialmente
mucho más amplio, pero la distribución de masa es mucho más incierta.
2. La expansión del universo desplaza hacia el rojo el campo de radiación a medida que se
produce y, por lo tanto, hace que el espectro resultante sea más amplio que una
distribución térmica. Sin embargo, debido a la dependencia temporal lineal de la emisión
(ecuación [5.31]), la mayor parte de la radiación se emite en la última década cosmológica
de la vida de la fuente. Por tanto, el efecto de desplazamiento al rojo no es tan grande
como podría pensarse ingenuamente.

En resumen, los campos de radiación experimentarán desviaciones de una distribución


puramente térmica. Sin embargo, esperamos que las desviaciones no sean demasiado severas.

Los resultados anteriores, tomados en conjunto con nuestra comprensión cosmológica actual,
implican que es poco probable que el universo se convierta en dominado por la radiación en un
futuro lejano. La mayor parte de la densidad de energía en la época actual está (muy
probablemente) en forma de materia oscura no bariónica de algún tipo. Una fracción sustancial
de esta materia oscura reside en halos galácticos, y una fracción de estos halos puede ser
aniquilada y, por tanto, convertida en radiación a través del proceso de captura de enanas
blancas descrito en §III.E. Sin embargo, una fracción igual o mayor de esta materia oscura reside
fuera de las galaxias y / o puede escapar a la destrucción por evaporación de los halos galácticos.
Por lo tanto, a menos que las propias partículas de materia oscura se descompongan en
radiación, parece que debería sobrevivir suficiente materia oscura no bariónica para mantener
la materia del universo dominada en todas las épocas futuras; Además, los electrones y
positrones sobrantes ayudarán a evitar que el universo se vuelva dominado por la radiación
(véase también Page y McKee, 1981ab).

E Posibles efectos de la densidad de energía del vacío


Si el universo contiene una contribución constante de la energía del vacío a la densidad
energética total, pueden surgir dos efectos interesantes a largo plazo. El universo puede entrar
en una segunda fase inflacionaria, en la que el universo se expande superluminalmente (Guth,
1981; ver también Albrecht y Steinhardt, 1983; Linde, 1982). Alternativamente, el vacío puede,
en principio, ser inestable y el universo puede entrar en un estado completamente nuevo (por
ejemplo, Coleman, 1977, 1985). Desafortunadamente, la contribución del vacío a la densidad de
energía del universo sigue siendo desconocida. De hecho, el "valor natural" de la densidad de
energía del vacío parece ser mayor que el valor cosmológicamente permitido en muchos órdenes
de magnitud. Esta discrepancia se conoce generalmente como el "problema de la constante
cosmológica" y no tiene una resolución actualmente aceptada (véanse las revisiones de
Weinberg, 1989;

1 Épocas inflacionarias futuras


Primero consideramos la posibilidad de una futura época inflacionaria. La ecuación de evolución
del universo se puede escribir en la forma
, (5,33)
donde R es el factor de escala, ρ M es la densidad de energía en la materia y ρvac es la densidad
de energía del vacío. Hemos asumido un universo espacialmente plano por simplicidad. La
densidad de la materia varía con el factor de escala de acuerdo con ρ M ~ R −3, mientras que la
densidad de energía del vacío es constante. Podemos definir la relación

(5,34)
es decir, la relación entre la densidad de energía del vacío y la densidad de materia ρ0 en la época
actual. Entonces podemos integrar la ecuación [5.6] en el futuro y resolver el tiempo t vac en el
que el universo se vuelve dominado por el vacío. Encontramos el resultado

, (5,35)
donde t 0 es la edad actual del universo y hemos de inido τ ≡ (6πGρ 0) −1/2; ambas escalas de
tiempo t 0 y τ son aproximadamente 1010 años.
Varios resultados son inmediatamente evidentes a partir de la ecuación [5.35]. Si la densidad
de energía del vacío proporciona una fracción apreciable de la densidad de energía total en la
época actual (en otras palabras, si ν no es demasiado pequeño), entonces el universo entrará en
una fase inflacionaria en un futuro muy cercano. Además, casi cualquier valor que no
desaparezca de la energía del vacío actual conducirá al universo a una fase inflacionaria en las
escalas de tiempo prolongadas consideradas en este artículo. Para valores pequeños de la razón
ν, la época inflacionaria futura ocurre en la década cosmológica dada por

. (5,36)
Por ejemplo, incluso para una contribución de vacío actual tan pequeña como ν ~ 10−40, el
universo entrará en una fase inflacionaria en la década cosmológica ηinflate ≈ 30, mucho antes
de que los protones comiencen a desintegrarse. En otras palabras, el problema de la constante
cosmológica tradicional se vuelve aún más severo cuando consideramos las décadas
cosmológicas futuras.
Si el universo entra en una futura época inflacionaria, surgen varias consecuencias
interesantes. Después de un tiempo de transición comparable a la edad del universo en la época
[5.36], el factor de escala del universo comenzará a crecer superluminalmente. Debido a esta
rápida expansión, todos los objetos astrofísicos del universo quedan aislados y, finalmente,
quedan fuera de contacto causal. En otras palabras, cada observador que se mueve
conjuntamente verá un horizonte que se contrae de manera efectiva (el horizonte de partículas
en realidad no se hace más pequeño, pero este lenguaje se ha vuelto común en cosmología; ver
Ellis y Rothman, 1993 para una discusión más detallada de los horizontes en este contexto). . En
particular, los objetos astrofísicos, como las galaxias y las estrellas, cruzarán fuera de la esfera
de la velocidad de la luz y, por lo tanto, desaparecerán de la vista. Para estos mismos objetos
astrofísicos,

2 Procesos de tunelización
A continuación, consideramos la posibilidad de que el universo se encuentre actualmente en un
estado de falso vacío. En otras palabras, existe un estado de vacío de menor energía y el universo
algún día puede hacer un túnel hacia ese estado de menor energía. Este problema, el destino del
falso vacío, fue explorado cuantitativamente por primera vez por Voloshin et al. (1974) y
Coleman (1977). Posteriormente se han estudiado efectos adicionales, incluida la gravedad
(Coleman y De Luccia, 1980) y los efectos de temperatura finita (p. Ej., Linde, 1983).
Para obtener resultados cuantitativos, consideramos un ejemplo ilustrativo en el que la
densidad de energía del vacío del universo se puede describir mediante la dinámica de un solo
campo escalar. Una vez que una configuración de campo queda atrapada en un estado
metaestable (el vacío falso), las burbujas del estado de vacío verdadero se nuclean en el mar de
vacío falso y comienzan a crecer de forma esférica. La velocidad de las paredes de las burbujas
se acerca rápidamente a la velocidad de la luz. El problema básico es calcular la tasa de
tunelización (la probabilidad de desintegración) desde el estado de vacío falso hasta el estado de
vacío verdadero, es decir, la tasa de nucleación de burbujas P por unidad de tiempo por unidad
de volumen. Para la tunelización de campos escalares a temperatura cero (generalmente llamada
tunelización cuántica), la acción euclidiana tetradimensional S 4 de la teoría determina en gran
medida esta tasa de tunelización.

, (5,37)
donde K es un factor determinante (ver Coleman, 1977, 1985). Para fines de ilustración,
asumimos un potencial cuártico genérico de la forma

(5,38)
Entonces podemos escribir la acción S 4 en la forma
, (5,39)
donde δ ≡ 8λb / a 2 y donde R es una función de variación lenta que tiene un valor cercano a la
unidad para la mayor parte del rango de potenciales cuárticos posibles (Adams, 1993). El
parámetro de forma compuesta δ varía de 0 a 2 ya que el potencial V (Φ) varía de no tener una
altura de barrera a tener un vacío casi degenerado (ver Figura 5.10).
Aunque las ecuaciones [5.37 - 5.39] describen la tasa de efecto túnel, desafortunadamente no
sabemos qué potencial (si lo hay) describe nuestro universo y, por lo tanto, es difícil obtener una
estimación numérica precisa para esta escala de tiempo. Para tener una idea cuantitativa de este
problema, consideremos el siguiente ejemplo. Para el caso de ninguna barrera de túnel (es decir,
para S 4 = 0), la probabilidad de caída característica está dada por donde MV es la escala
de energía característica del campo escalar. Para MV = 1016 GeV (aproximadamente la escala
GUT), P 0 ~ 10129 s − 1 cm − 3. Con esta tasa de desintegració n, el universo dentro de un volumen
característico se convertiría de vacío falso a vacío verdadero en una escala de tiempo de ~ 10-
24 s. Sin embargo, es evidente que la escala de tiempo de desintegración real debe ser lo
suficientemente larga como para que el universo no se haya desintegrado en la época actual. Para
asegurarnos de que el universo ha sobrevivido, necesitamos que no hayan ocurrido eventos de
nucleación dentro del volumen del horizonte actual (~ [3000 Mpc] 3) durante la edad actual del
universo (~ 1010 años). Esta restricción implica que la acción S 4 debe ser lo suficientemente
grande para suprimir la nucleación, en particular,

. (5,40)
La pregunta entonces es: ¿es razonable este valor para S 4? Para el parámetro λ, un rango
razonable de valores es 0.1 <λ <1; de manera similar, para δ, tomamos el rango 0.1 <δ <1.9.
Usando el formulario [5.39] para la acción y estableciendo R = 1, encontramos el rango
aproximado

. (5,41)
Figura 5.10Potencial V (Φ) de un campo escalar que determina el estado de vacío del universo. Este potencial tiene tanto un estado
de vacío falso (etiquetado como F) como un estado de vacío verdadero (etiquetado como T). Como lo ilustra la curva punteada, el
universo puede pasar del estado de vacío falso al estado de vacío verdadero en algún momento futuro.

Por lo tanto, el valor requerido para que el universo sobreviva hasta la época actual (ecuación
[5.40]) se puede realizar fácilmente dentro de este modelo simple. En el futuro, sin embargo, el
universo podría entrar en su estado de falso vacío virtualmente en cualquier momento, tan
pronto como mañana, o tan tarde como η = 104. Si ocurre este efecto de túnel, el universo
cambiará su carácter casi por completo. Las leyes físicas del universo, o al menos los valores de
todas las constantes físicas, cambiarían a medida que se completa la transición de fase (ver Sher,
1989 y Crone & Sher, 1990 para una discusión de las leyes cambiantes de la física durante una
transición de fase futura ). El universo, tal como lo conocemos, simplemente dejaría de existir.
El túnel de vacío de todo el universo es sin duda uno de los temas más especulativos
considerados en este artículo. Sin embargo, su inclusión es apropiada ya que el acto de hacer un
túnel desde un vacío falso hacia un vacío verdadero cambiaría la naturaleza del universo de
manera más dramática que cualquier otro proceso físico.
También es posible que el universo cree espontáneamente “universos niños” a través de un
proceso de tunelización cuántica aproximadamente análogo al considerado anteriormente (p.
Ej., Sato et al., 1982; Hawking, 1987; Blau, Guendelman y Guth, 1987). En esta situación, una
burbuja de energía de vacío falso se nuclea en un espacio-tiempo que de otro modo sería vacío.
Si esta burbuja es lo suficientemente grande, crecerá exponencialmente y eventualmente se
desconectará causalmente del espacio-tiempo original. En este sentido, la burbuja recién creada
se convierte en un "universo hijo" separado. El universo recién creado parece bastante diferente
para los observadores dentro y fuera de la burbuja. Los observadores dentro de la burbuja ven
el universo local en un estado de expansión exponencial. Observadores fuera de la burbuja, en el
fondo espacio-tiempo vacío, ve el universo recién creado como un agujero negro que colapsa y
se desconecta causalmente. Como resultado, estos universos infantiles no afectarán en gran
medida la evolución futura de nuestro universo porque (relativamente) rápidamente pierden el
contacto causal.
Un efecto potencialmente interesante de estos universos infantiles es que, en principio, pueden
recibir información de nuestro universo. Antes de que el universo recién creado surja del
contacto causal con nuestro propio universo, se conecta a través de un agujero de gusano
relativista, que puede proporcionar un conducto para la transferencia de información y quizás
incluso la transferencia de materia (ver Visser, 1995 para una discusión más detallada sobre los
agujeros de gusano y la transferibilidad). ). Las implicaciones de esta posibilidad son tema de
debate actual (para diferentes puntos de vista, ver, por ejemplo, Linde, 1988, 1989; Tipler, 1992;
Davies, 1994).

F Especulaciones sobre la producción de energía y entropía


en el futuro lejano
Hasta ahora en este artículo, hemos demostrado que la entropía se puede generar (y por lo tanto
se puede trabajar) hasta décadas cosmológicas η ~ 100. Para escalas de tiempo muy largas
la evolución futura del universo se vuelve muy incierta, pero la posibilidad de una producción
continua de entropía es muy importante (ver §VI.D). Aquí, evaluamos brevemente algunas de las
posibles formas de generar energía y entropía en un futuro lejano.

1 Formación y desintegración continua de agujeros negros.


Para el caso de una geometría espacial plana para el universo, las futuras perturbaciones de
densidad pueden proporcionar un mecanismo para producir entropía. Estas perturbaciones de
densidad crean grandes estructuras que eventualmente pueden colapsar para formar agujeros
negros. Los agujeros negros resultantes, a su vez, se evaporan emitiendo radiación de Hawking
y, por tanto, representan fuentes de entropía (y energía) (por ejemplo, véase también Page y
McKee, 1981a; Frautschi, 1982). Las perturbaciones de densidad de una escala de tamaño cada
vez mayor λ entrarán en el horizonte a medida que el universo continúe expandiéndose. La escala
de masa correspondiente M λ de estas perturbaciones viene dada por

. (5,42)
donde t λ es el momento en que la perturbación ingresa al horizonte y M 0 ≈ 1022 M e es la masa
total dentro del horizonte actual (en el momento t 0).
El tiempo t λ representa el tiempo en el que una determinada perturbación entra en el
horizonte y comienza a crecer; una estructura grande (como un agujero negro) solo puede
formarse en algún momento posterior después de que la perturbación se vuelva no lineal.
Suponga que una perturbación de densidad tiene una amplitud inicial δλ cuando entra en el
horizonte. En el régimen lineal, la perturbación crecerá de acuerdo con la relación habitual

, (5,43)

donde δ ≡ Δρ / ρ y t> t λ (ver Peebles, 1993). Usando esta ley de crecimiento, la época ηnl en la
que la perturbación se vuelve no lineal se puede escribir en la forma

. (5,44)
Por ejemplo, si la perturbación tiene una amplitud δλ = 10−4, entonces se vuelve no lineal en el
tiempo ηnl = ηλ + 6. Como estamos interesados en escalas de tiempo muy largas η> 100, la
diferencia entre el tiempo de cruce del horizonte ηλ y el el tiempo ηnl de no linealidad no es
demasiado grande.
Un posible resultado de este proceso es la producción de un gran agujero negro con una masa
M BH ~ M λ. La escala de tiempo para que dicho agujero negro se evapore a través del proceso
de Hawking viene dada por

, (5,45)
donde hemos combinado las ecuaciones [4.42] y [5.42]. Ya que , el universo puede formar
agujeros negros más rápido de lo que pueden evaporarse. Por tanto, para el caso de un universo
geométricamente plano, las futuras perturbaciones de densidad pueden, en principio, seguir
produciendo agujeros negros de masa cada vez mayor. En este caso, el universo siempre tendrá
una fuente de entropía: la radiación de Hawking de estos agujeros negros.
Observamos que estas perturbaciones limitadas no necesariamente forman agujeros negros.
El material es (muy probablemente) casi en su totalidad no disipativo y sin colisiones, y por lo
tanto tendrá una tendencia a formar grupos virializados con energía de enlace por unidad de
masa de orden ~ δc 2. Por lo tanto, a menos que el espectro de perturbación esté inclinado de
modo que δ sea de orden unidad en estas escalas mucho más grandes, la dinámica resultante es
probablemente más o menos análoga a la de un cúmulo de masa de materia oscura fría en
nuestro universo actual. Sin embargo, incluso si la masa de toda la perturbación no forma un solo
gran agujero negro, las estructuras de menor escala pueden, en principio, formar agujeros
negros, en analogía con las que se encuentran actualmente en los centros de las galaxias actuales.
Además, es posible que los agujeros negros existentes puedan fusionarse más rápido de lo que
se evaporan a través del proceso de Hawking (ver también §III.D). Por tanto, queda la posibilidad
de que continúen existiendo agujeros negros en el universo.
El proceso descrito aquí, la formación de agujeros negros cada vez más grandes, puede
continuar mientras el universo permanezca espacialmente plano y las perturbaciones de
densidad que ingresan al horizonte no sean demasiado grandes. El escenario del universo
inflacionario proporciona un mecanismo para lograr este estado de cosas, al menos hasta alguna
época futura (ver §VC y en particular la ecuación [5.14]). Por lo tanto, la naturaleza del universo
en el futuro lejano puede estar determinado por la física del universo temprano (en
particular, la inflación) en la década cosmológica η ~ −45.
Tenga en cuenta que en estos tiempos tan tardíos, , la materia que entra en el horizonte ya
será "procesada" por los mecanismos físicos descritos anteriormente en el artículo. Por lo tanto,
los nucleones ya habrán decaído (lo más probable) y el contenido de materia del universo será
principalmente electrones, positrones y partículas de materia oscura no bariónicas. La
aniquilación de ambos pares e + −e - y la materia oscura se producirá simultáneamente con el
crecimiento de la perturbación y, por tanto, la masa final del agujero negro será menor que M λ.
Este tema debe estudiarse en mayor profundidad.

2 Aniquilación de partículas en un universo abierto


Sin embargo, si el universo está abierto, las futuras perturbaciones de densidad se congelan
efectivamente (ver §VB) y no se puede producir la jerarquía de agujeros negros descrita
anteriormente. Para un universo abierto, la producción continua de energía y entropía es más
difícil de lograr. Un proceso que puede continuar en el futuro, aunque a un nivel muy bajo, es la
aniquilación continua de partículas. Los electrones y positrones representan un tipo de partícula
que puede aniquilarse (ver también Page y McKee, 1981ab), pero la discusión que se da a
continuación se aplica a una población general de partículas.
Considere una colección de partículas con densidad numérica n. La evolución temporal de la
población de partículas se rige por la ecuación diferencial simple

, (5,46)
dónde es el parámetro de Hubble y 〈συ〉 es el promedio apropiado de la sección
transversal de interacción multiplicada por la velocidad (por ejemplo, ver Kolb y Turner, 1990).
Dado que estamos interesados en el caso en el que la tasa de expansión es mucho mayor que la
tasa de interacción, las partículas están muy lejos del equilibrio térmico y podemos despreciar
cualquier reacción inversa que produzca partículas. Para este ejemplo, consideramos que el
universo es abierto, independientemente de la actividad de esta población de partículas. Como
resultado, podemos escribir R ∝ t y, por tanto, H = 1 / t. También tomamos la cantidad 〈συ〉
como una constante en el tiempo (correspondiente a la aniquilación de la onda s). Con estas
aproximaciones, la ecuación diferencial [5.46] se puede integrar para obtener la solución

, (5,47)
donde hemos definido la cantidad

, (5,48)
y donde hemos invocado la condición de frontera

. (5,49)
Se pueden encontrar soluciones análogas para la aniquilación de partículas para el caso de un
universo plano (H = 2 / 3t) y un universo que se infla (H = constante).
La diferencia entre la solución [5.47] y la solución de escala adiabática simple n (t) = n 1 (t 1 /
t) 3 se debe a la aniquilación de partículas, que es extremadamente pequeña pero distinta de
cero. Este enunciado puede cuantificarse definiendo la diferencia fraccional Δ entre la solución
[5.47] y la solución adiabática, es decir,

. (5,50)
Durante toda la vida (futura) del universo, la fracción comoviva de partículas que se aniquilan
está dada por la cantidad Δ∞, que es inita y, por lo general, mucho menor que la unidad. Por
ejemplo, si consideramos los valores más grandes posibles en la época actual (σ ≈ σ T ≈ 10−24
cm2, n 1 ≈ 10−6 cm − 3, t 1 ≈ 3 × 1017 s, y υ = c), entonces Δ∞ ≈ 10−2. La fracció n ∞∞ será
generalmente mucho más pequeña que en este ejemplo. El hecho de que la fracción Δ∞ sea inita
implica que el proceso de aniquilación de partículas puede proporcionar solo una cantidad finita
de energía en el intervalo de tiempo infinito η1 <η <∞.

3 Formación y desintegración del positronio.


Otro proceso relacionado que ocurrirá en escalas de tiempo prolongadas es la formación y
eventual desintegración del positronio. Este proceso ha sido estudiado con cierto detalle por
Page y McKee (1981ab; véase también la discusión de Barrow y Tipler, 1986); aquí resumimos
brevemente sus resultados. La escala de tiempo para la formación de positronio en un universo
plano viene dada por

. (5,51)
donde η P es la vida útil del protón (ver §IV) y donde Ω e es la fracción de masa de e ± después
de la desintegración del protón. Para un universo plano o casi plano, la mayoría de los electrones
y positrones se unen al positronio. En un universo abierto, se produce cierta formación de
positronio, pero la mayoría de los electrones y positrones permanecen sueltos.
En el momento de la formación, los átomos de positronio se encuentran generalmente en
estados de número cuántico muy alto (y tienen radios mayores que el tamaño del horizonte
actual). Los átomos emiten una cascada de fotones de baja energía hasta que alcanzan su estado
fundamental; una vez que esto ocurre, el positronio se aniquila rápidamente. Se estima que la
escala de tiempo relevante para este proceso de desintegración es

. (5,52)
VI Resumen y discusión
Nuestro objetivo ha sido presentar una descripción plausible y cuantitativa del futuro del
Universo. La Tabla 5.1 describe los eventos más importantes en el flujo general del tiempo, así
como las décadas cosmológicas en las que ocurren (ver ecuación [1.1]). Al construir esta tabla,
se han asumido valores representativos para los parámetros (a menudo inciertos); Por tanto, las
escalas de tiempo indicadas deben considerarse aproximadas. Además, como regla general, tanto
el futuro general del universo como la línea de tiempo sugerida en la tabla 5.1 se vuelven cada
vez más inciertos ante extrapolaciones sucesivas más profundas en el tiempo. Algunos de los
efectos que hemos descrito competirán entre sí y, por lo tanto, no todos los procesos físicos
relevantes pueden llegar a completarse. Casi con certeza, partes de nuestra línea de tiempo
actual se someterán a una revisión dramática a medida que mejore la comprensión física. Nos ha
llamado la atención la notable utilidad natural del “reloj” logarítmico, η, para organizar el paso
del tiempo. Los procesos globales que pueden caracterizar a todo el universo rara vez abarcan
más de unas pocas décadas cosmológicas, y el flujo y reflujo de los eventos se dispersa de manera
bastante uniforme en ciento cincuenta órdenes de magnitud en el tiempo, es decir, −50 <η <100.

Cuadro 5.1 Acontecimientos importantes en la historia y el futuro del universo


El Big Bang η = −∞
Época de Planck −50,5
Época GUT −44,5
Transición de fase electrodébil −17,5
Los quarks se limitan a los hadrones −12,5
Nucleosíntesis −6
**********
Dominación de la materia 4
Recombinación 5.5
Primera generación estelar posible 6
Formación de la Galaxia 9
Formación del sistema solar 9.5
Hoy: la época actual 10
Nuestro sol muere 10,2
Encuentro cercano de la Vía Láctea con Andrómeda (M31) 10,2
Límite inferior de la edad del universo cerrado 10,8
Duración de las estrellas de la secuencia principal con menor masa 13
Fin de la formación estelar convencional 14
**********
Los planetas se desprenden de las estrellas 15
Formación de estrellas a través de colisiones de enanas marrones dieciséis
Límite inferior de la edad del universo plano (con futuro Δρ / ρ> 1) 18
Las estrellas se evaporan de la galaxia 19
Las órbitas planetarias decaen a través de la radiación gravitacional. 20
WIMPs en el halo galáctico aniquilan 22,5
Formación de estrellas a través de la desintegración orbital de binarias enanas marrones 23
Las órbitas estelares en la galaxia se desintegran a través de la radiación gravitacional 24
Las enanas blancas agotan los WIMP del halo galáctico 25
Los agujeros negros acumulan estrellas a escala galáctica 30
Los agujeros negros acumulan estrellas en una escala de tamaño de cúmulo 33
Desintegración de protones 37
Desintegración β de estrellas de neutrones 38
Planetas destruidos por la desintegración de protones 38
Enanas blancas destruidas por la desintegración de protones 39
**********
Los axiones se descomponen en fotones 42
Las moléculas de hidrógeno experimentan reacciones piconucleares 60
Los agujeros negros de tamaño estelar se evaporan sesenta y cinco
Los agujeros negros con M = 106 M e se evaporan 83
Formación de positronio en un universo plano 85
Los agujeros negros del tamaño de una galaxia se evaporan 98
Agujero negro con masa de escala de horizonte actual que se evapora 131
Decaimiento del positronio en un universo plano 141
Procesos de desintegración de protones de orden superior ~ 100-200
**********

Un resumen de resultados
Nuestras contribuciones específicas a la escatología física se pueden resumir de la siguiente
manera:
[1] Hemos presentado nuevos cálculos de evolución estelar que muestran el
comportamiento a largo plazo de estrellas de muy baja masa (ver Figura 5.1). Las
estrellas con una masa muy pequeña (~ 0,1 M e) no experimentan ninguna fase de
gigante roja. A medida que evolucionan, estas estrellas se vuelven cada vez más brillantes
y azules, alcanzando primero una luminosidad máxima y, segundo, una temperatura
máxima, antes de desvanecerse como enanas blancas de helio.
[2] Tanto la evolución estelar como la formación estelar convencional llegan a su fin en la
década cosmológica η ~ 14. Esta escala de tiempo solo excede ligeramente el tiempo de
evolución más largo para una estrella de baja masa. También corresponde al momento en
que la galaxia se queda sin materia prima (gas) para producir nuevas estrellas. La era de
las estrellas convencionales en el universo se limita al rango 6 <η <14.
[3] Hemos introducido la función de masa final (FMF), es decir, la distribución de masas para
los objetos estelares degenerados que quedan de la evolución estelar (ver Figura 5.2).
Aproximadamente la mitad de estos objetos serán enanas blancas, y la mayoría del resto
serán enanas marrones. La mayor parte de la masa, sin embargo, estará en forma de
enanas blancas (véanse las ecuaciones [2.22] y [2.23]).
[4] Hemos explorado un nuevo modo de formación continua de estrellas a través de las
colisiones de objetos subestelares (ver Figura 5.3). Aunque la escala de tiempo para este
proceso es bastante larga, este modo de formación estelar será la fuente principal de
nuevas estrellas durante décadas cosmológicas en el rango de 15 <η <23.
[5] Hemos presentado un escenario para la evolución futura de la galaxia. La galaxia vive en
su estado actual hasta un tiempo de η ~ 14 cuando cesa la formación de estrellas
convencionales y las estrellas ordinarias más pequeñas abandonan la secuencia principal.
Para tiempos η> 14, el modo principal de formación estelar adicional es a través de las
colisiones y fusiones de enanas marrones (objetos subestelares). La propia galaxia
evoluciona a través de los procesos competitivos de desintegración orbital de las órbitas a
través de la radiación gravitacional y la evaporación de estrellas en el medio
intergaláctico a través de encuentros estelares. La evaporación estelar es el proceso
dominante y la mayoría de las estrellas dejarán el sistema en un momento η ~ 19. Alguna
fracción (estimamos aproximadamente ~ 0.01-0.10) de la galaxia queda atrás en su
agujero negro central.
[6] Hemos considerado la aniquilación y captura de partículas masivas de interacción débil
(WIMP) en el halo galáctico. En ausencia de otros procesos evolutivos, las WIMP en el
halo se aniquilan en la escala de tiempo η ~ 23. Por otro lado, las enanas blancas pueden
capturar WIMP y, por lo tanto, agotar el halo en la escala de tiempo algo más larga η ~ 25.
El fenómeno de La captura de WIMP indica que el enfriamiento de la enana blanca se
detendrá en poco tiempo a una luminosidad L * ~ 10−12 L e.
[7] Dependiendo de la cantidad de pérdida de masa que sufra el Sol cuando se convierte en
una gigante roja, la Tierra puede ser vaporizada por el Sol durante su fase de evolución de
gigante asintótica; en este caso, la Tierra se convertirá en un pequeño aumento (0.01%)
en la metalicidad solar. Sin embargo, en general, los planetas pueden acabar con sus vidas
de diversas formas. Pueden ser vaporizadas por sus estrellas madre, expulsadas al
espacio interestelar a través de encuentros estelares cercanos, fusionarse con sus
estrellas madre a través de la radiación gravitacional y eventualmente pueden
desaparecer a medida que sus protones se desintegran.
[8] Hemos discutido el rango permitido para la vida útil del protón. Un límite inferior firme
en la vida útil surge de las búsquedas experimentales actuales. Aunque no existe un límite
superior definitivo, podemos obtener un "límite" superior sugerente en la vida útil del
protón mediante el uso de tasas de desintegración sugeridas por GUT e invocando la
restricción de la masa del bosón mediador, MX <M P1 ~ 1019 GeV. De este modo
obtenemos el siguiente rango esperado para la vida útil del protón

, (6,1)
[9] donde el número entero N es el orden del proceso, es decir, el número de bosones
mediadores necesarios para que se produzca la desintegración. Incluso para el caso de
tercer orden, tenemos η P <201. Los efectos de la gravedad cuántica también conducen a
la desintegración de protones con escalas de tiempo en el rango de 46 <η P <169.
Finalmente, los esfalerones implican η P ~ 140.
[10] Hemos presentado un escenario para la evolución futura de estrellas similares al sol
(ver Figura 5.6). En este caso, las estrellas evolucionan hacia configuraciones de enanas
blancas como en la evolución estelar convencional. Sin embargo, en escalas de tiempo
suficientemente largas, la desintegración de protones se vuelve importante. Durante
décadas cosmológicas en el rango 20 <η <35, la masa de la estrella no cambia
apreciablemente, pero la luminosidad está dominada por la energía generada por la
desintegración de protones. En las siguientes décadas cosmológicas, η = 35 - 37, la
pérdida de masa juega un papel importante en la determinación de la estructura estelar.
La estrella se expande a medida que pierde masa y sigue la relación habitual masa / radio
de las enanas blancas. La composición química también cambia (ver Figura 5.5). La
desintegración de protones por sí sola reduce rápidamente la estrella a un estado de
hidrógeno puro. Sin embargo, Las reacciones piconucleares serán suficientes para
mantener cantidades sustanciales de helio (3He y 4He) hasta que la masa de la estrella
disminuya por debajo de ~ 0.01M e. Durante la fase de evolución de la desintegración de
protones, una enana blanca sigue una pista bien definida en el diagrama HR dado por L *
∝ T * 12/5. Después de que la masa estelar disminuye a M * ≈ 10−3 M e, la estrella sale de
la degeneración y sigue una pista más empinada L * ∝ T * 12 en el Diagrama HR.
Si la desintegración de protones no tiene lugar a través del proceso de primer orden
asumido anteriormente, entonces las enanas blancas y otros objetos degenerados
seguirán evolucionando, pero en una escala de tiempo mucho más larga. Es probable que
el proceso físico relevante sea la desintegración de protones a través de efectos de orden
superior. Las escalas de tiempo para la destrucción y desintegración de estrellas
degeneradas obedecen al orden

, (6.2)
[11] donde η P ~ 37 es la escala de tiempo para la desintegración de protones de primer
orden, η BH ~ 65 es la escala de tiempo para que un agujero negro de tamaño estelar se
evapore, y η P 2 ~ 100-200 es la escala de tiempo para la desintegración de protones a
través de procesos de orden superior.
[12] En el futuro, el universo en su conjunto puede evolucionar de diversas formas posibles.
Las futuras perturbaciones de densidad pueden cruzar el horizonte y cerrar el universo;
este efecto conduciría en última instancia (localmente) a una gran crisis.
Alternativamente, el universo podría contener una pequeña cantidad de energía del vacío
(un término de constante cosmológica) y podría entrar en una época inflacionaria tardía.
Finalmente, el universo podría estar actualmente en un estado de falso vacío y, por lo
tanto, seguir trabajando al borde de la inestabilidad. En este caso, cuando el universo
finalmente se adentre en el verdadero estado de vacío, las leyes de la física y, por lo tanto,
el universo tal como lo conocemos cambiaría por completo.
[13] A medida que el fondo cósmico de microondas se desplaza hacia el rojo, varios campos
de radiación diferentes dominarán el fondo. A corto plazo, la radiación estelar se
apoderará del fondo cósmico. Posteriormente, la radiación producida por la aniquilación
de la materia oscura (tanto directa como en enanas blancas) proporcionará la
contribución dominante. Este campo de radiación será reemplazado por el que surge de
la desintegración de protones y luego, eventualmente, por el campo de radiación que
surge de la evaporación de los agujeros negros (ver Figura 5.9).

B Eras del universo futuro


Nuestra comprensión actual del universo sugiere que podemos organizar el futuro en distintas
eras, algo análogas a las eras geológicas:

[A] La era dominada por la radiación. −∞ <η <4. Esta era corresponde al período de tiempo
habitual en el que la mayor parte de la densidad de energía del universo está en forma de
radiación.
[B] La Era Stelliferous. 6 <η <14. La mayor parte de la energía generada en el universo
proviene de procesos nucleares en la evolución estelar convencional.
[C] La era degenerada. 15 <η <37. La mayor parte de la masa (bariónica) del universo está
encerrada en objetos estelares degenerados: enanas marrones, enanas blancas y estrellas
de neutrones. La energía se genera mediante la desintegración de protones y la
aniquilación de partículas.
[D] La era del agujero negro. 38 <η <100. Después de la época de la desintegración de los
protones, los únicos objetos estelares que quedan son los agujeros negros de masas muy
dispares, que se evaporan activamente durante esta era.
[E] La Era Oscura. η> 100. En este momento tardío, los protones se han desintegrado y los
agujeros negros se han evaporado. Solo quedan los productos de desecho de estos
procesos: en su mayoría fotones de longitud de onda colosal, neutrinos, electrones y
positrones. La aparente pobreza de esta época lejana se debe quizás más a las dificultades
inherentes a la extrapolación lo suficientemente lejos en el futuro, que a una escasez real
de procesos físicos.

C Implicaciones experimentales y teóricas


Casi por definición, los experimentos directos que ponen a prueba las predicciones teóricas del
destino a muy largo plazo del universo no se pueden realizar en nuestras vidas. Sin embargo,
este tema en general y este artículo en particular tienen implicaciones interesantes para el
trabajo experimental y teórico actual. Si queremos tener más certeza con respecto al futuro del
universo y los objetos astrofísicos dentro de él, entonces se deben resolver varios problemas.
Los más importantes son los siguientes:

[A] ¿Se descompone el protón? ¿Qué es la vida? Este problema determina en gran medida el
destino de los objetos estelares en el universo para escalas de tiempo superiores a η ~ 35.
Si el protón es estable a los procesos de desintegración de primer orden, entonces los
objetos estelares en general y las enanas blancas en particular pueden vivir en el rango de
décadas cosmológicas. η <100. Si el protón también es estable a los procesos de
desintegración de segundo orden, entonces los objetos estelares degenerados pueden
vivir durante mucho más tiempo. Por otro lado, si el protón se desintegra, una gran
fracción del universo estará en forma de productos de desintegración de protones
(neutrinos, fotones, positrones, etc.) para tiempos η> 35.
[B] ¿Cuál es el estado de vacío del universo? Este problema juega un papel importante en la
determinación del destino final del propio universo. Si la densidad de energía del vacío
del universo es distinta de cero, entonces el universo podría finalmente experimentar una
época futura de inflación. Por otro lado, si la densidad de energía del vacío es
estrictamente cero, entonces las perturbaciones de densidades futuras (grandes) pueden,
en principio, entrar en nuestro horizonte y conducir (localmente) a un universo cerrado
y, por lo tanto, a una gran contracción.
[C] ¿Cuál es la naturaleza de la materia oscura? De particular importancia es la naturaleza de
la materia oscura que forma los halos galácticos. La vida útil de las partículas de materia
oscura también es de gran interés.
[D] ¿Qué fracción de las estrellas de una galaxia se evaporan fuera del sistema y qué fracción
se acumula en el agujero negro central (o agujeros negros)? Este problema es importante
porque los agujeros negros dominan la producción de energía y entropía en el universo
en el rango de tiempo 36 <η <100 y la masa de un agujero negro determina su vida útil.
[E] ¿Ocurre la nueva física a temperaturas extremadamente bajas? A medida que el universo
evoluciona y continúa expandiéndose, las temperaturas relevantes se vuelven cada vez
más pequeñas. En el escenario que se describe aquí, los fotones del fondo cósmico de
microondas y otros campos de radiación, que impregnan todo el espacio, pueden
desplazarse al rojo indefinidamente de acuerdo con la teoría clásica de la radiación.
Parece posible que la teoría clásica se derrumbe en algún momento. Por ejemplo, en un
universo abierto, los fotones CMB tendrán una longitud de onda más larga que el tamaño
del horizonte actual (~ 3000 Mpc) en un momento η ~ 40, justo después de la
desintegración del protón. Se han propuesto algunos modelos preliminares para futuras
transiciones de fase (Primack y Sher, 1980; Suzuki, 1988; Sher, 1989), pero este tema
requiere una mayor exploración.

D Entropía y muerte por calor


El concepto de muerte térmica del universo ha preocupado a muchos filósofos y científicos desde
mediados del siglo XIX, cuando se comprendió por primera vez la segunda ley de la
termodinámica (p. Ej., Helmholz, 1854; Clausius, 1865, 1868). De manera muy aproximada, la
muerte por calor clásica ocurre cuando el universo en su conjunto alcanza el equilibrio
termodinámico; en tal estado, todo el universo tiene una temperatura constante en todos los
puntos del espacio y, por lo tanto, ningún motor térmico puede funcionar. Sin la capacidad de
realizar trabajo físico, el universo "se agota" y se convierte en un lugar bastante sin vida. Sin
embargo, dentro del contexto de la cosmología moderna del Big Bang, la temperatura del
universo cambia continuamente y la cuestión cambia sustancialmente; muchos autores se han
enfrentado a este problema, desde el inicio de la teoría del Big Bang (por ejemplo, Eddington,
1931) hasta épocas más recientes (Barrow y Tipler, 1978, 1986; Frautschi, 1982). Un universo
en continua expansión nunca alcanza un verdadero equilibrio termodinámico y, por lo tanto,
nunca alcanza una temperatura constante. De este modo se evita manifiestamente la clásica
muerte por calor. Sin embargo, la expansión puede, en principio, volverse puramente adiabática
de modo que la entropía en un volumen variable dado del universo se acerque (o alcance) un
valor constante. En este caso, el universo aún puede convertirse en un lugar aburrido y sin vida
sin capacidad para realizar trabajo físico. Denotamos esta última posibilidad como muerte por
calor cosmológica. se vuelven puramente adiabáticos de modo que la entropía en un volumen
variable dado del universo se acerca (o alcanza) un valor constante. En este caso, el universo aún
puede convertirse en un lugar aburrido y sin vida sin capacidad para realizar trabajo físico.
Denotamos esta última posibilidad como muerte por calor cosmológica. se vuelven puramente
adiabáticos de modo que la entropía en un volumen variable dado del universo se acerca (o
alcanza) un valor constante. En este caso, el universo aún puede convertirse en un lugar aburrido
y sin vida sin capacidad para realizar trabajo físico. Denotamos esta última posibilidad como
muerte por calor cosmológica.

La producción de entropía a largo plazo en el universo está restringida en términos bastante


generales para una determinada clase de sistemas (Bekenstein, 1981). Para un sistema físico
delimitado espacialmente con radio efectivo R, la entropía S del sistema tiene un valor máximo
bien definido. Este límite superior está dado por

, (6,3)
donde E es la energía total del sistema. Por lo tanto, para un sistema acotado (con tamaño finito
R), la relación S / E de entropía a energía tiene un límite superior firme. Además, este límite se
puede alcanzar en realidad para los agujeros negros (ver Bekenstein, 1981 para una discusión
más detallada).
Los resultados de este artículo muestran que los eventos cosmológicos continúan produciendo
energía y entropía en el universo, al menos hasta la década cosmológica η ~ 100. Como resultado,
la muerte cosmológica por calor se pospone hasta después de esa época, es decir, hasta la Era
Oscura. Después de ese tiempo, sin embargo, sigue siendo posible, en principio, que el universo
se vuelva casi adiabático y, por lo tanto, aburrido y sin vida. Los mecanismos de generación de
energía y entropía disponibles para el universo dependen del modo de evolución a largo plazo,
como discutimos a continuación.
Si el universo está cerrado (§VA) o se vuelve cerrado en algún momento futuro (§VB), entonces
el universo terminará en una gran crisis y la producción de entropía a largo plazo no será un
problema. En el caso de que el universo permanezca casi plano, las perturbaciones de densidad
de escalas de tamaño cada vez mayores pueden entrar en el horizonte, crecer hasta la no
linealidad y conducir a la producción continua de energía y entropía a través de la evaporación
de los agujeros negros (ver §VF1). Estos agujeros negros saturan el límite de Bekenstein y
maximizan la producción de entropía. La muerte cosmológica por calor puede evitarse así
mientras el universo permanezca casi plano.
Por otro lado, si el universo está abierto, las fluctuaciones de densidad se congelan en una
escala de longitud finita (§VB). La energía contenida en el horizonte se convierte así en una
cantidad finita. Sin embargo, el límite de Bekenstein no restringe directamente la producción de
entropía en este caso porque el tamaño efectivo R crece sin límite. Para un universo abierto, la
cuestión de la muerte por calor cosmológica permanece abierta. Para un universo que
experimenta una futura fase inflacionaria (§VE1), la situación es similar. Aquí, el horizonte se
está reduciendo efectivamente con el tiempo. Sin embargo, las perturbaciones que han crecido
hasta la no linealidad se desacoplarán del flujo de Hubble. La perturbación no lineal más grande
definirá así una escala de longitud más grande λ y, por lo tanto, una escala de masa más grande
en el universo; esta escala de masa implica una vez más una cantidad máxima (finita) posible de
energía disponible para una región local del espacio. Sin embargo, el sistema no está limitado
espacialmente y las cuestiones de la producción de entropía y la muerte por calor cosmológico
nuevamente permanecen abiertas.
Para cerrar este artículo, planteamos el punto de vista de que el universo debe obedecer a un
tipo de Principio Copernicano del Tiempo que se aplica a las consideraciones del futuro. Este
principio sostiene que la época cosmológica actual (η = 10) no tiene un lugar especial en el
tiempo. En otras palabras, pueden seguir sucediendo cosas interesantes a los niveles cada vez
más bajos de energía y entropía disponibles en el universo del futuro.

Expresiones de gratitud
Este artículo surgió de un curso especial impartido en la Universidad de Michigan para el
semestre temático “Muerte, extinción y el futuro de la humanidad” (invierno de 1996). Nos
gustaría agradecer a Roy Rappaport por proporcionar el estímulo inicial para este curso y, por
lo tanto, este documento. También agradecemos a R. Akhoury, M. Einhorn, T. Gherghetta, G. Kane
y E. Yao por sus útiles discusiones sobre la desintegración de protones y otras cuestiones de física
de partículas. Agradecemos a P. Bodenheimer, G. Evrard, J. Jijina, J. Mohr, M. Rees, D. Spergel, FX
Timmes y R. Watkins por muchas discusiones astrofísicas interesantes y por los comentarios
críticos sobre el manuscrito. Este trabajo fue apoyado por un premio NSF Young Investigator
Award, NASA Grant No. NAG 5-2869, y por fondos del Departamento de Física de la Universidad
de Michigan.

Referencias
Abramowitz, M. e IA Stegun, 1972, Handbook of Mathematical Functions (Nueva York: Dover).
Adams, FC 1993, Phys. Rev. D 48, 2800.
Adams, FC y M. Fatuzzo, 1996, Astrophys. J. 464, 256.
Adams, FC y K. Freese, 1991, Phys. Rev. D 43, 353.
Adams, FC y K. Freese, 1995, Phys. Rev. D 51, 6722.
Adams, FC, K. Freese y AH Guth, 1991, Phys. Rev. D 43, 965.
Albrecht, A. y PJ Steinhardt, 1982, Phys. Rev. Lett. 48, 1220.
Alcock, C. et al. 1993, Nature 365, 621.
Aubourg, E. et al. 1993, Nature 365, 623.
Bahcall, JN 1989, Neutrino Astrophysics (Cambridge: Cambridge Univ. Press).
Bardeen, JM, PJ Steinhardt y MS Turner, 1983, Phys. Rev. D 28, 679.
Barrow, JD y FJ Tipler, 1978, Nature 276, 453.
Barrow, JD y FJ Tipler, 1986, The Anthropic Cosmological Principle (Oxford: Oxford Univ. Press).
Bekenstein, JD 1981, Phys. Rev. D 23, 287.
Binney, J. y S. Tremaine, 1987, Galactic Dynamics (Princeton: Princeton Univ. Press).
Blau, SK, EI Guendelman y AH Guth 1987, Phys. Rev. D 35, 1747.
Laughlin, G., P. Bodenheimer y FC Adams, 1996, presentado a Astrophys. J.
Bond, JR, BJ Carr y CJ Hogan, 1991, Astrophys. J. 367, 420.
Brune, D. y JJ Schmidt, 1974, editores, Handbook on Nuclear Activation Cross-Sections (Viena: Organismo Internacional de
Energía Atómica).
Burrows, A., WB Hubbard, D. Saumon y JI Lunine, 1993, Astrophys. J. 406, 158.
Burrows, A. y J. Liebert, 1993, Rev. Mod. Phys. 65, 301.
Carroll, SM, WH Press y EL Turner, 1992, Ann. Rev. Astron. Astrophys. 30, 499.
Castano, DJ y SP Martin, 1994, Phys. Letón. 340 B, 67.
Chandrasekhar, S. 1939, Stellar Structure (Nueva York: Dover).
Clausius, R. 1865, Ann. Physik, 125, 353.
Clausius, R. 1868, Phil. Mag., 35, 405.
Clayton, DD 1983, Principios de la evolución estelar y nucleosíntesis (Chicago: Univ. Chicago Press).
Coleman, S. 1977, Phys. Rev. D 15, 2929.
Coleman, S. 1985, Aspects of Symmetry (Cambridge, Inglaterra: Cambridge Univ. Press).
Coleman, S. y F. De Luccia, 1980, Phys. Rev. D 21, 3305.
Copeland, H., JO Jensen y HE Jorgensen, 1970, Astron. Astrophys. 5, 12.
Crone, MM y M. Sher, 1990, Am. J. Phys. 59, 25.
D'Antona, F. e I. Mazzitelli, 1985, Astrophys. J. 296, 502.
Davies, PCW 1994, The Last Three Minutes (Nueva York: BasicBooks).
Dicus, DA, JR Letaw, DC Teplitz y VL Teplitz, 1982, Astrophys. J. 252, 1.
Diehl, E., GL Kane, C. Kolda y JD Wells, 1995, Phys. Rev. D 52, 4223.
Dorman, B., LA Nelson y WY Chan, 1989, Astrophys. J. 342, 1003.
Draine, BT y HM Lee, 1984, Astrophys. J. 285, 89.
Dyson, FJ 1979, Rev. Mod. Phys. 51, 447.
Dyson, FJ 1988, Infinite in All Directions (Nueva York: Harper and Row).
Eddington, AS 1931, Nature 127, 447.
Ellis, GFR y T. Rothman, 1993, Am. J. Phys. 61, 883.
Ellis, GFR y DH Coule, 1994, Gen. Rel. y Grav. 26, 731.
Elmegreen, BG y RD Mathieu, 1983, Mon. No. R. Astron. Soc. 203, 305.
Faulkner, J. y RL Gilliland, 1985, Astrophys. J. 299, 994.
Feinberg, G., 1981, Phys. Rev. D 23, 3075.
Feinberg, G., M. Goldhaber y G. Steigman, 1978, Phys. Rev. D 18, 1602.
Frautschi, S. 1982, Science 217, 593.
Freese, K. 1986, Phys. Letón. 167 B, 295.
Gaier, T. y col. 1992, Astrophys. J. Lett. 398, L1.
Goity, JL y M. Sher, 1995, Phys. Letón. 346 B, 69.
Golimowski, DA, T. Nakajima, SR Kulkarni y BR Oppenheimer, 1995, Astrophys. J. Lett. 444, L101.
Gott, JR III 1993, Nature 363, 315.
Gould, A. 1987, Astrophys. J. 321, 571.
Gould, A. 1991, Astrophys. J. 388, 338.
Grischuk, LP y Ya. B. Zel'dovich, 1978, Sov. Astron. 22, 125.
Grossman, AS y HC Graboske, 1971, Astrophys. J. 164, 475.
Guth, A. 1981, Phys. Rev. D 23, 347.
Guth, AH y S.-Y. Pi, 1982, Phys. Rev. Lett. 49, 1110.
Hamada, T. y EE Salpeter, 1961, Astrophys. J. 134, 683.
Hawking, SW 1975, Com. Matemáticas. Phys. 43, 199.
Hawking, SW 1982, Phys. Letón. 115 B, 295.
Hawking, SW 1985, Phys. Letón. 150 B, 339.
Hawking, SW 1987, Phys. Letón. 195 B, 337.
Hawking, SW, DN Page y CN Pope, 1979, Phys. Letón. 86 B, 175.
Helmholz, H. von1854, Sobre la interacción de las fuerzas naturales.
Henry, TJ, JD Kirkpatrick y DA Simons, 1994, Astron. J. 108, 1437.
't Hooft, G. 1976, Phys. Rev. Lett. 37, 8.
Hubbell, JH, HA Grimm e I. Overbo, 1980, J. Phys. Chem. Árbitro. Datos 9, 1023.
Islam, JN 1977, Quart. JR Astron. Soc. 18, 3.
Islam, JN 1979, Sky and Telescope 57, 13.
Jungman, G., M. Kamionkowski y K. Griest, 1996, Physics Reports en prensa.
Jura, M. 1986, Astrophys. J. 301, 624.
Kane, GL 1993, Física de partículas elementales modernas (Lectura MA: Addison – Wesley).
Kane, GL y JD Wells, 1996, Phys. Rev. Lett. en prensa.
Kennicutt, RC, P. Tamblyn y CW Congdon, 1995, Astrophys. J. 435, 22.
Kippenhahn, R. y A. Weigert, 1990, Stellar Structure and Evolution (Berlín: Springer).
Kolb, EW y MS Turner, 1990, The Early Universe (Redwood City CA: Addison – Wesley).
Krauss, LM, M. Srednicki y F. Wilczek, 1986, Phys. Rev. D 33, 2206.
Krauss, LM y M. White, 1992, Phys. Rev. Lett. 69, 869.
Kumar, SS 1963, Astrophys. J. 137, 1121.
La, D. y PJ Steinhardt, 1989, Phys. Rev. Lett. 62, 376.
Langacker, P. 1981, Physics Reports 72, 186.
Larson, RB 1973, lunes. No. R. Astron. Soc. 161, 133.
Larson, RB y BM Tinsley, 1978, Astrophys. J. 219, 46.
Laughlin, G. y P. Bodenheimer, 1993, Astrophys. J. 403, 303.
Lee, HM y JP Ostriker, 1986, Astrophys. J. 310, 176.
Lemaître, G. 1993, Ann. Soc. Sci. Bruselas A53, 51.
Lightman, AP y SL Shapiro, 1978, Rev. Mod. Phys. 50, 437.
Linde, AD 1982, Phys. Letón. 108 B, 389.
Linde, AD 1983, Nucl. Phys. B216, 421.
Linde, AD 1988, Phys. Letón. 211 B, 29.
Linde, AD 1989, Phys. Letón. 227 B, 352.
Linde, AD 1990, Física de partículas y cosmología inflacionaria (Nueva York: Harwood Academic).
Loh, E. y E. Spillar, 1986, Astrophys. J. Lett. 307, L1.
Lyth, DH 1984, Phys. Letón. 147 B, 403.
Manchester, RN y JH Taylor, 1977, Pulsars (San Francisco: WH Freeman).
Marcy, GW, RP Butler y E. Williams, 1996, presentado a Astrophys. J.
Mayor, M. y D. Queloz, 1995, Nature 378, 355.
Meyer, SS, ES Cheng y LA Page, 1991, Astrophys. J. Lett. 410, L57.
Mihalas, D. y J. Binney, 1981, Astronomía galáctica: estructura y cinemática (Nueva York: WH Freeman).
Miller, GE y JM Scalo, 1979, Astrophys. J. Supl. 41, 513.
Misner, CW, KS Thorne y JA Wheeler, 1973, Gravitation (San Francisco: WH Freeman).
Mohapatra, RN y RE Marshak, 1980, Phys. Rev. Lett. 44, 1316.
Ohanian, HC y R. Ruffini, 1994, Gravitation and Spacetime (Nueva York: WW Norton).
Oppenheimer, BR, SR Kulkarni, K. Matthews y T. Nakajima, 1995, Science 270, 1478.
Page, DN 1980, Phys. Letón. 95 B, 244.
Page, DN y MR McKee, 1981a, Phys. Rev. D 24, 1458.
Page, DN y MR McKee, 1981b, Nature 291, 44.
Grupo de datos de partículas, 1994, Phys. Rev. D 50, 1173.
Peccei, RD y HR Quinn 1977a, Phys. Rev. Lett. 38, 1440.
Peccei, RD y HR Quinn 1977b, Phys. Rev. D 16, 1791.
Peebles, PJE 1993, Principios de cosmología física (Princeton: Princeton Univ. Press).
Peebles, PJE 1994, Astrophys. J. 429, 43.
Perkins, D. 1984, Ann. Rev. Nucl. Parte. Sci. 34, 1.
Phillips, AC 1994, La física de las estrellas (Chichester: Wiley).
Poundstone, W. 1985, The Recursive Universe (Nueva York: Morrow).
Press, WH y DN Spergel, 1985, Astrophys. J. 296, 679.
Press, WH y SA Teukolsky, 1977, Astrophys. J. 213, 183.
Primack, JR y M. Sher, 1980, Nature 288, 680.
Rajaraman, R. 1987, Solitons and Instantons (Amsterdam: Holanda Septentrional).
Rana, Carolina del Norte 1991, Ann. Rev. Astron. Astrophys. 29, 129.
Rees, MJ 1969, Observatorio 89, 193.
Rees, MJ 1981, Quart. JR Astron. Soc. 22, 109.
Rees, MJ 1984, Ann. Rev. Astron. Astrophys. 22, 471.
Reimers, D. 1975, en Problems in Stellar Astrophysics, eds. B. Bascheck, WH Kegel y G. Traving (Nueva York: Springer), pág. 229.
Riess, AG, WH Press y RP Kirshner, 1995, Astrophys. J. Lett. 438, L17.
Roberts, MS 1963, Ann. Rev. Astron. Astrophys. 1, 149.
Sackmann, I.-J., AI Boothroyd y KE Kraemer, 1993, Astrophys. J. 418, 457.
Sajarov, 1967 d.C., JETP Letters 5, 24.
Salpeter, EE 1955, Astrophys. J. 121, 161.
Salpeter, EE 1982, en Essays in Nuclear Astrophysics (Cambridge: Cambridge Univ. Press).
Salpeter, EE y HM Van Horn, 1969, Astrophys. J. 155, 183.
Sato, K., H. Kodama, M. Sasaki y K. Maeda, 1982, Phys. Letón. 108 B, 103.
Scalo, JM 1986, Fondo. Cos. Phys. 11, 1.
Schuster, J. y col. 1993, Astrophys. J. Lett. 412, L47.
Shapiro, SL y SA Teukolsky, 1983, Agujeros negros, enanas blancas y estrellas de neutrones: la física de los objetos compactos
(Nueva York: Wiley).
Sher, M. 1989, Physics Reports 179, 273.
Shu, FH 1982, The Physical Universe (Mill Valley: University Science Books).
Shu, FH, FC Adams y S. Lizano, 1987, Ann. Rev. Astron. Astrophys. 25, 23.
Smoot, G. y col. 1992, Astrophys. J. Lett. 396, L1.
Stahler, SW 1988, Astrophys. J. 332, 804.
Starobinsky, AA 1982, Phys. Letón. 117 B, 175.
Steinhardt, PJ y MS Turner, 1984, Phys. Rev. D 29, 2162.
Stevenson, DJ 1991, Ann. Rev. Astron. Astrophys. 29, 163.
Suzuki, M. 1988, Phys. Rev. D 38, 1544.
Timmes, FX 1996, inédito.
Tinney, CG 1995, Editor, La parte inferior de la secuencia principal y más allá (Berlín: Springer).
Tipler, FJ 1992, Phys. Letón. 286 B, 36.
Tolman, RC 1934, Relatividad, termodinámica y cosmología, (Oxford: Clarendon Press).
Turner, MS 1983, Nature 306, 161.
Visser, M. 1995, Agujeros de gusano de Lorentz: de Einstein a Hawking (Woodbury NY: AIP Press).
Voloshin, MB, I. Yu. Kobzarev y LB Okun, 1975, Sov. J. Nucl. Phys. 20, 644.
Weinberg, MD 1989, lunes. No. R. Astron. Soc. 239, 549.
Weinberg, S. 1972, Gravitation and Cosmology (Nueva York: Wiley).
Weinberg, S. 1977, The First Three Minutes (Nueva York: Basic).
Weinberg, S. 1978, Phys. Rev. Lett. 40, 223.
Weinberg, S. 1980, Phys. Rev. D 22, 1694.
Weinberg, S. 1989, Rev. Mod. Phys. 61, 1.
Wilczek, F. 1978, Phys. Rev. Lett. 40, 279.
Wilczek, F. y A. Zee, 1979, Phys. Letón. 88 B, 311.
Wood, MA 1992, Astrophys. J. 386, 529.
Wright, EL y col. 1992, Astrophys. J. Lett. 396, L3.
Zel'dovich, Ya. B. 1976, Phys. Letón. 59 A, 254.
Zinnecker, H. 1984, lunes. No. R. Astron. Soc. 210, 43.
Zuckerman, B. y MA Malkan, 1996, The Origin and Evolution of the Universe (Sudbury, MA: Jones y Bartlett).
6
Muerte por calor en termodinámica antigua y
moderna
Gábor Kutrovátz

1 El problema de la muerte por calor: una introducción histórica


La física de Aristóteles es la teoría física más influyente de la ciencia antigua y una de las teorías
físicas más influyentes jamás creadas. El nacimiento de la ciencia moderna en el siglo XVII es en
parte el resultado de la lucha contra la devoción dogmática a la mentalidad científica aristotélica,
y desde entonces la física aristotélica ha sido generalmente condenada y ridiculizada. Antes, muy
recientemente, no muchos historiadores de la ciencia se dieron cuenta de que la física de
Aristóteles parece ser mucho más coherente y meritoria si la sacamos del contexto de la
mecánica moderna (newtoniana), con la que siempre se la compara, y tratamos de verla en su
propio derecho [7]. La interpretación tradicional es que la teoría de la naturaleza de Aristóteles
se basó principalmente en consideraciones filosóficas a priori y menos en observaciones
empíricas. por tanto, era filosofía natural más que ciencia natural. Hoy, sin embargo, se reconoce
cada vez más que la física de Aristóteles es una teoría de la naturaleza no matemática relevante
y que su principal preocupación no es el conjunto de fenómenos que la mecánica pretende
explicar. Parece razonable trabajar bajo el supuesto de que Aristóteles estaba principalmente
interesado en los fenómenos naturales que se discuten hoy en el campo de la termodinámica [9].
En la física de Aristóteles, el problema de la Muerte por Calor (como lo llamamos hoy) se
reconoce y se trata, aunque la forma en que aborda la cuestión es algo ajena a nuestra mente
moderna. En aras de la reconstrucción, haré una analogía entre sus ideas y las respectivas tesis
de la física moderna. Las opiniones de Aristóteles se pueden resumir brevemente como sigue:
todo cuerpo natural tiene su lugar natural al que tiende a llegar si ningún proceso externo se lo
impide [11]. (Más precisamente, este principio concierne a los elementos de los que consisten
los cuerpos, y no a los cuerpos en sí mismos, pero la ley anterior puede considerarse como una
consecuencia del principio, donde 'lugar' se entiende en un sentido más amplio que el concepto
moderno de ubicación espacial única.) Este principio plantea la siguiente pregunta: ¿Por qué hay
movimiento en el mundo, si los sistemas tienden hacia sus estados de 'reposo'? Como dice
Aristóteles:
un problema desconcertante, a saber. por qué los cuerpos simples, ya que cada uno de ellos
viaja hacia su propio lugar, no se han separado unos de otros en el infinito lapso de tiempo.
[3]

Por otro lado, un problema muy similar apareció en el siglo XIX con la introducción de la segunda
ley de la termodinámica. Como dice la analogía, en la termodinámica actual se sostiene que todo
sistema termodinámico tiene su estado de equilibrio al que tiende a llegar si ningún efecto
externo lo previene. Esta ley era conceptualmente (aunque no lógicamente) inconsistente con la
mecánica newtoniana, la teoría física dominante de esa época, ya que afirma que la dirección de
los procesos naturales no es indiferente. Si extendemos la validez de la segunda ley a todo el
universo como un sistema termodinámico global, entonces nos encontramos en la misma
situación que Aristóteles: necesitamos dar una explicación al estado dinámico, en lugar de
estático, del universo. Rudolf Clausius introdujo el concepto de Muerte por Calor con las
siguientes palabras:
Cuanto más se acerca el universo a esta condición limitante en la que la entropía es máxima,
más disminuyen las ocasiones de cambios ulteriores; y suponiendo que esta condición se
lograra por fin por completo, no podría tener lugar ningún cambio adicional, y el universo
estaría en un estado de muerte inmutable. [6]

En este artículo, me gustaría discutir dos soluciones muy diferentes al problema dado por la
física antigua y moderna, aunque pondré un mayor énfasis en la teoría moderna que discutiré
con más detalle. Espero que este estudio de caso pueda decirnos tanto sobre la teoría
cosmológica actual como sugiere sobre la naturaleza del cambio científico.

2 La antigua solución
El mundo natural de Aristóteles se dividió en dos regiones: la región sublunar (que consta de los
cuatro elementos materiales de los cuerpos mundanos) y la región superlunar (que consta del
quinto elemento de los cuerpos celestes). Se suponía que la "física", o el "estudio de la
naturaleza", se ocupaba de los fenómenos sublunares, mientras que la región de las esferas
celestes se regía por leyes eternas "metafísicas". Esta distinción fundamental entre las dos
regiones del universo se sostuvo rígidamente en la ciencia aristotélica de la Edad Media. Según
esta imagen, nuestro problema inicial (de "Muerte por calor") es relevante solo para los
fenómenos naturales (sublunares). Sin embargo, la solución final de Aristóteles también atrajo
al mundo celestial eterno y, por lo tanto, se puede reconstruir en dos etapas:
1) La etapa sublunar. Es el movimiento circular del Sol el que induce constantemente procesos
en la naturaleza, en parte manteniendo la transformación de los elementos entre sí y, por lo
tanto, desplazando a los cuerpos de sus lugares naturales:
Porque el sol cuando se acerca o retrocede, obviamente causa disipación y condensación y,
por lo tanto, da lugar a generación y destrucción. Ahora la tierra permanece pero la humedad
que la rodea se evapora por los rayos del sol y el otro calor de arriba, y se eleva. El vapor se
enfría porque su calor se ha ido y porque el lugar está frío, y se condensa nuevamente y se
convierte del aire en agua. Y una vez que el agua se ha formado, vuelve a caer a la tierra. [. . .]
Entonces obtenemos un proceso circular que sigue el curso del sol. [2]

Vale la pena mencionar que esta cita ilustra elocuentemente por qué la mayor parte de la física
de Aristóteles puede interpretarse como una especie de prototermodinámica, en lugar de
protomecánica. Sus explicaciones apelan muy a menudo a los cuatro elementos mundanos
(tierra, agua, aire, fuego) y dan lugar a un gran número de discusiones sobre los fenómenos
térmicos.
2) La etapa superlunar. A pesar de la "irreversibilidad" de los procesos naturales de
Aristóteles, el movimiento eterno de los cuerpos naturales (contrario a su "naturaleza") se
mantiene mediante el movimiento eterno de las esferas celestes (inherentes a ellas), es decir, la
esfera del Sol. Porque a medida que el Sol se mueve alrededor de la Tierra, cambia
constantemente las condiciones de calor de los procesos naturales. Por lo tanto, postular este
movimiento eterno inherente de las esferas sería suficiente para responder a la pregunta original
sobre el movimiento de los cuerpos naturales. Pero Aristóteles continúa su cadena de causalidad.
El movimiento de la esfera del Sol se produce por el movimiento de las esferas exteriores (cada
una de las cuales hace que la vecina interior se mueva), y el movimiento de la esfera exterior es
provocado por el primer movimiento (o inmóvil).
[. . .] porque es imposible que haya una serie infinita de movimientos, cada uno de los cuales
es movido por algo más, ya que en una serie infinita no hay un primer término, si entonces
todo lo que está en movimiento es movido por algo, y el primer movimiento se mueve pero
no por nada más, debe moverse por sí mismo. [4]

Este es un argumento puramente a priori sobre la cadena de causalidad: si todos los cuerpos son
movidos por otros cuerpos, entonces, al comienzo de esta cadena, debe haber un actor que se
mueva pero no se mueva. (Como muchos pensadores griegos antiguos, Aristóteles estaba en
contra, y no podía aceptar, la noción de infinito). Que este Primer Movimiento debe estar ubicado
en la esfera celestial más externa, se 'prueba' de la siguiente manera:
Además, el [primer] movimiento debe ocupar el centro o la circunferencia, ya que estos son
los primeros principios de los que se deriva una esfera. Pero las cosas más cercanas al
movimiento son aquellas cuyo movimiento es más rápido, y en este caso es el movimiento de
la circunferencia el más rápido: por lo tanto, el movimiento ocupa la circunferencia [del
mundo]. [5]

Este es en parte otro argumento a priori, aunque apela a la observación de que los cuerpos que
se mueven directamente son más rápidos en su movimiento que los cuerpos que se mueven
indirectamente (o de manera mediada). La física de Aristóteles se basa, por un lado, en la
observación de los fenómenos cotidianos (donde la fricción y la disipación están siempre
presentes, a diferencia de los 'casos ideales' de Newton donde se pueden formular leyes de
conservación) y, por otro lado, en aspectos filosóficos más generales. principios sobre la
naturaleza y el ser. La física y la metafísica no están separadas en las antiguas teorías de la
naturaleza; pero, ¿están separados en la física moderna?

3 La solución moderna
El problema de la Muerte por Calor en el siglo XIX fue resuelto en el siglo XX, con el nacimiento
de la cosmología moderna. Dado que el universo en expansión no es una entidad eterna, no existe
una contradicción directa entre la validez universal de la segunda ley de la termodinámica y la
evidencia empírica de los procesos naturales. Incluso si el estado final de la Muerte por Calor es
inevitable, dado que la historia pasada del universo es finita, no hay nada paradójico en el hecho
de que no hayamos alcanzado este estado todavía: sucederá en algún momento en el futuro. Se
resuelve así la llamada "paradoja de la muerte por calor".
Sin embargo, esta solución plantea otro problema: si el estado preferido de los sistemas es el
de equilibrio, ¿por qué no están hoy en su estado de equilibrio? ¿Qué sucedió en el curso pasado
del desarrollo cósmico que se puede llamar para explicar esta imagen del mundo que no está en
equilibrio? En otras palabras, nuestra pregunta inicial sigue siendo válida: ¿Por qué hay
movimiento en la naturaleza? O más precisamente: ¿de dónde se origina el movimiento
existente?

3.1 Extropía
Para formular la pregunta en un lenguaje más adecuado para los propósitos científicos
modernos, introduzcamos la noción de extropía [10]. Es un parámetro de estado que expresa la
distancia de un sistema a su estado de equilibrio en la escala entrópica. En otras palabras, mide
la producción de entropía del proceso imaginario que lleva al sistema al equilibrio con el entorno.
Es la diferencia entre la entropía máxima del sistema más el entorno y la entropía real del sistema
más el entorno,

(1)
En el caso del universo, el "entorno" no existe (ya que el universo contiene todas las entidades
que se pueden expresar en el lenguaje físico), por lo que la extropía del universo se expresa de
una forma ligeramente diferente,

(2)
Un sistema está en equilibrio si su extropía es cero: en el caso del universo, esto es lo que
llamamos 'Muerte por calor'. Nuestra pregunta, por lo tanto, puede formularse de la siguiente
manera: ¿Qué proceso puede producir extropía global en la escala cósmica?

3.2 El universo modelo


Consideremos el universo como un sistema que está determinado por tres parámetros de estado
extensivos [1]:

1. Para R:

(3)
donde R es el 'radio' del universo (el parámetro de escala), G es la constante gravitacional, ρ es
la densidad de la materia y κ es una constante que determina si el universo es abierto (κ ≥ 0) o
cerrado (κ < 0).
2. Para E:

(4)
donde E es la energía interna del universo, p es la presión y V es el volumen (proporcional a R 3).
Podemos ver aquí que la energía interna no es constante porque se transforma en la energía del
campo gravitacional: esta es una característica peculiar del universo como sistema
termodinámico.
3. Tenemos un tercer parámetro extenso en la descripción: N es el número de partículas en el
universo. A diferencia del caso de los otros dos parámetros extensivos, suponemos que N es
constante.
En este universo modelo asumimos la presencia de dos componentes de materia: hidrógeno
atómico y gas de fotón de cuerpo negro, ambos homogéneos e isotrópicos. Suponemos que estos
componentes deben enfriarse a medida que el universo se expande. Sin embargo, las velocidades
de enfriamiento de los dos componentes obedecen a leyes diferentes: la materia bariónica se
enfriaría según R -2, mientras que el gas fotón se enfriaría según R -1, si el único proceso
termodinámico presente fuera la expansión del universo. En otras palabras, las temperaturas de
los componentes tienden a ser diferentes y hay un proceso de flujo de calor del componente más
caliente al más frío. En nuestro universo modelo, la fuerza de esta interacción se da como un
valor numérico arbitrario (considerado constante).
Ahora podemos derivar un sistema de ecuaciones diferenciales (dado en [1]) que, asumiendo
que el radio cambia de acuerdo con la Ec. 3 anterior, nos permite determinar el comportamiento
de los siguientes parámetros de estado del sistema: R, el radio del universo; T g, la temperatura
del componente gaseoso; T r, la temperatura del componente de radiación; y S, la entropía total
del universo. El sistema de ecuaciones es el siguiente:

(5)
(6)

(7)

(8)
donde B es el número bariónico, m es la masa molecular, A es el coeficiente de interacción, C g y
C r son las capacidades caloríficas de los componentes de gas y radiación, respectivamente, cy c
1 son constantes, y el resto tiene se ha explicado anteriormente.
Dados los valores de los parámetros obtenidos por la solución del sistema de ecuaciones,
podemos calcular fácilmente la función de extropía del universo modelo. Es decir, calculamos la
cantidad de entropía que produciría el sistema al llegar al equilibrio en un instante dado. Siempre
que las capacidades caloríficas sean constantes, la expresión de la extropía es

(9)
donde D = C r / C g.
El desarrollo del universo modelo fue simulado numéricamente por el programa Mathematica.

3.3 Evolución del universo modelo


Tenemos que distinguir entre dos casos cualitativamente diferentes: si el universo está abierto
(κ ≥ 0) entonces la expansión continuará para siempre (porque la gravedad de la materia masiva
no es lo suficientemente fuerte como para detenerla) y el universo tiene un futuro infinito. ; pero
si está cerrado (κ <0), entonces la expansión se detendrá y se convertirá en contracción, al final
de la cual la historia del universo ha terminado. Las rutas de evolución de los parámetros de
estado que pertenecen a un universo abierto se representan en la Figura 6.1, mientras que el
caso de un universo cerrado se muestra en la Figura 6.2.
Figura 6.1 Funciones termodinámicas en un universo abierto.
Figura 6.2 Funciones termodinámicas en un universo cerrado.

En el lado izquierdo de las figuras se pueden ver los gráficos del radio, las temperaturas de los
componentes y la entropía. En el lado derecho se encuentran la entropía, la extropía y el valor
máximo de entropía (S max = Π + S) que pertenecen al estado de equilibrio en los parámetros
extensivos dados. La fuerza de la interacción entre los componentes (A) aumenta desde las cifras
superiores hacia las inferiores, siendo el valor 0 en el primer caso y muy grande en el caso
inferior.
Concentrémonos primero en el caso del universo abierto. Vemos que dos factores restringen
el valor de la entropía: si la interacción es débil, obviamente no se produce mucha entropía;
mientras que si la interacción es fuerte, la diferencia de temperatura es pequeña, por lo que el
proceso de interacción se vuelve débil nuevamente. Existe un caso óptimo para la producción de
entropía cuando el universo es el más "activo" termodinámicamente. Sin embargo, la extropía se
comporta de manera diferente: la dependencia de la extropía de la fuerza de la interacción sigue
una función monótona. Cuanto más fuerte es la interacción, más pequeña se vuelve la extropía y
más se acerca el sistema al equilibrio.
Pasemos ahora a la dependencia temporal de los parámetros. Podemos ver que no importa
cuán fuerte sea la interacción, la función de extropía sigue la misma ruta cualitativa con el
tiempo: aumenta al principio (hasta que la diferencia de temperatura se vuelve máxima), pero
luego comienza a disminuir y tiende a cero a medida que se acerca el tiempo. infinito. Significa
que, en nuestro universo modelo abierto, no hay
forma de evitar el estado final de Muerte por Calor, que es el aburrido estado de absoluta y
eterna suavidad y paz. Aún así, gracias a la expansión del universo, las temperaturas de los dos
componentes se vuelven diferentes con vehemencia al principio, en las primeras etapas de la
historia cósmica. Por lo tanto, hay un aumento inicial en el valor de la extropía a medida que se
vuelve mayor que cero y el universo abandona su estado de equilibrio. Así, la expansión del
universo crea la posibilidad de todos los procesos físicos del futuro. En pocas palabras, extropía
significa proceso en sistemas físicos.
En el caso de un universo cerrado, la Muerte por Calor se convierte en un problema marginal:
dado que el futuro del universo es finito, el estado de equilibrio puede ocurrir o no antes del final.
Pero es importante notar que el equilibrio en un universo en contracción no es un estado
interminable de Muerte por Calor, sino que es una fase momentánea. A medida que los
componentes, debido a la contracción, comienzan a calentarse nuevamente, las temperaturas se
acercan entre sí. Pero si la interacción no es despreciable, entonces la contracción no es simétrica
a la expansión, porque la dirección del flujo de calor no retrocede cuando comienza el colapso.
Como consecuencia, las gráficas de las dos temperaturas se cruzan antes del final, y esto da como
resultado un inmenso aumento de la extropía final. Justo antes del final de todo, el universo se
vuelve 'activo' nuevamente por un corto tiempo.

3.4 Más allá del modelo


Por supuesto, si queremos dar una respuesta más precisa a la pregunta de si ocurrirá o no la
Muerte por Calor, tenemos que trascender los límites de nuestro modelo simple. Como vimos, el
problema de la Muerte por Calor es relevante solo en un universo abierto, por lo que en esta
sección me limitaré a este caso y supondré que el universo tiene un futuro infinito.
Pasemos primero al supuesto de que los componentes están distribuidos homogéneamente.
Mientras que la radiación de fondo de 2.7K (el gas fotón) ha demostrado ser prácticamente
homogénea, la materia bariónica se condensa en diferentes estructuras materiales discontinuas
entre sí: estrellas, galaxias, cúmulos de galaxias, etc. La condensación aumenta la energía interna
en estos densos nacen regiones de materia y, por lo tanto, estructuras bariónicas
significativamente más calientes que el gas fotónico. Sin embargo, estas estructuras irradian su
excedente de calor hacia el gas fotón (provocando pequeñas inhomogeneidades en él), e incluso
si este proceso de radiación se alarga enormemente por reacciones nucleares dentro de las
estrellas como fuentes de calor, esta reversión de temperatura entre las regiones de los dos
componentes es sólo un fenómeno temporal. Todas las estrellas, de hecho todas las
condensaciones de materia bariónica, deben agotar su suministro de energía tarde o temprano.
Incluso los agujeros negros, que inicialmente se pensó que violaban la segunda ley de la
termodinámica, se evaporan a través de los efectos de la gravedad cuántica y, por lo tanto, tienen
una vida útil finita, aunque a veces muy larga, antes de desaparecer. Desde el punto de vista de
la Muerte por Calor, la imagen no homogénea actual del universo, tal como lo conocemos hoy, no
es más que una contingencia incidental.

Otra simplificación excesiva de nuestro modelo es que considera solo dos componentes. Pero
parece haber solo un componente significativamente masivo además de los dos ya discutidos: el
gas neutrino. Esto sigue la misma velocidad de enfriamiento que el gas fotón, aunque no están
en equilibrio (el gas fotón fue calentado por la aniquilación e + - e - en las primeras etapas). El
gas neutrino, sin embargo, no interactúa con el gas fotón, y su interacción con la materia
bariónica también es muy débil, por lo que su expansión es prácticamente adiabática: apenas
juega ningún papel en la imagen termodinámica general del universo. Además, los resultados
cualitativos derivados del modelo no cambian incluso si hay más componentes presentes: todas
las temperaturas disminuyen alguna vez por la expansión del universo. Con respecto al futuro
de los dos componentes conocidos, los protones, tal como los conocemos hoy, tienen una vida
útil finita y, después de su desintegración, los neutrones libres desaparecerán casi de inmediato.
En otras palabras, la materia bariónica desaparecerá del universo. Aún no se ha determinado si
los neutrinos permanecerán para siempre o también se desintegrarán, pero, como hemos visto,
no importan mucho desde el punto de vista de la Muerte por Calor.
Habiendo mencionado las primeras etapas del universo, examinemos cómo las transiciones de
fase de la materia pueden influir en nuestros resultados. Cuando la temperatura del universo cae
por debajo de un valor T x = mxc 2 / k, donde mx es la masa de un cierto tipo de partícula,
entonces esta partícula entra en su fase no relativista y se da cuenta de un nuevo componente
material en el universo ( por ejemplo, quarks-antiquarks, neutrinos-antineutrinos, electrones-
positrones). Ahora bien, esta transición de fase aumenta claramente la entropía global del
universo [8], pero ¿qué hay de la extropía? La entropía total disponible para todo el sistema
también aumenta (siguiendo simples consideraciones en física estadística), y este aumento
nunca es menor (y generalmente mayor, excepto cuando los componentes contienen el mismo
número de partículas) que el aumento de la entropía real. Es decir,
Ahora, parece hoy que la era en que ocurrieron las transiciones de fase ha quedado atrás: este
era el estado caliente y denso en el que los eventos se sucedían rápidamente. Sin embargo, no
sabemos con certeza si cambios tan drásticos no ocurrirán en el futuro, porque las partículas con
una masa muy pequeña podrían aparecer a temperaturas aún más bajas. Aún así, tenemos una
muy buena razón para suponer que ocurre (u ocurrió) una vez una última transición: dado que
el universo es finito en masa / energía, solo puede haber un número finito de componentes
materiales en él. Las transiciones de fase no pueden posponer la Muerte por Calor para siempre.
Finalmente, podemos ver que todo el problema se reduce al siguiente esquema conceptual
simple aplicado en estos casos: dado que el universo es un sistema finito, no puede haber ningún
proceso infinito (conocido o desconocido) que pueda mantenerlo fuera de equilibrio para
siempre. Pero esto es, como podemos llamarlo, un principio 'metafísico' y, excepto por la finitud
del universo, no hay conocimiento empírico incrustado en él. Para explicar, a través de procesos
físicos particulares, por qué el universo no escapará al equilibrio final, debemos examinar caso
por caso un número infinito de posibilidades concebibles y descartarlas una por una, lo cual es
imposible. Una vez más, los principios metafísicos (o, más o menos, normativos) parecen
"inmiscuirse" inevitablemente en nuestro conocimiento científico.

4. Conclusión
Hemos visto dos soluciones muy diferentes al problema de por qué la "actividad" observada de
la naturaleza no contradice la irreversibilidad de los procesos físicos. En el caso antiguo,
Aristóteles sacrificó la cerrazón del universo y puso una entidad teórica en la frontera del mundo,
que juega como una eterna fuente de movimiento. Hoy en día, la teoría cosmológica sacrificó la
creencia en un universo eterno e interminable y pospuso la Muerte por Calor hacia el futuro
indeterminado, considerando la imagen actual del mundo como contingente y temporal. Sin
embargo, la teoría moderna no puede formular ciertas afirmaciones sobre la muerte por calor:
esta cuestión debe volver a examinarse a la luz de todos los efectos y procesos recién
descubiertos. Como concepto relativo a la eternidad, Heath Death parece pertenecer, no tanto al
campo de nuestro conocimiento científico,

Bibliografía
[1] RA Alpher, Gy. Marx, Vistas en Astronomía 35, (1992).
[2] Aristóteles, Meteorologica, 336b-347a, Clarendon Press, Oxford, 1907.
[3] Aristóteles, De generatione et corrupté, 289a, Clarendon Press, Oxford, 1953.
[4] Aristóteles, Física, 256a, Harvard University Press, Oxford, 1957.
[5] Aristóteles, Física, 269a, Harvard University Press, Oxford, 1957.
[6] R. Clausius, Phil. revista 4, 405 (1868).
[7] Th. S. Kuhn, La estructura de las revoluciones científicas, University of Chicago Press, Chicago, 1962.
[8] PT Landsberg, ¿De la entropía a Dios ?, en: Termodinámica: Historia y Filosofía, K. Martinás, L. Ropolyi y P. Szegedi, eds.,
World Scientific, Singapur, 1990.
[9] K. Martinás, Termodinámica aristotélica, en: Termodinámica: Historia y Filosofía, K. Martinás, L. Ropolyi y P. Szegedi, eds.,
World Scientific, Singapur, 1990.
[10] K. Martinás, Per. Polytech. S. Chem. Ing. 42, (1998).
[11] K. Martinás, Irreversibilidad en la física aristotélica, en: Volumen de resúmenes: X Congreso LMPS, Florencia, 1995.
7
Entropía y escatología: un comentario sobre el artículo
de Kutrovátz "La muerte por calor en la
termodinámica antigua y moderna"
Milan M. Ćirković

1. Introducción
El problema de la muerte por calor y la cuestión general de la asimetría temporal termodinámica
es uno de los temas de larga data y siempre inspiradores en la historia del pensamiento filosófico
y científico humano, comparable a las paradojas de Zeno sobre el espacio y el movimiento o las
de Hicetas-Berkeley. Mach rompecabezas del origen de la inercia de la materia. La reciente
discusión del tema por Kutrovátz [22] en esta Revista es indicativa del gran interés en los
aspectos físicos, filosóficos e históricos de este y temas relacionados (para algunos otros
discursos recientes, ver [3, 24, 28 , 29, 37, 38]. Aporta (i) una valoración muy bienvenida del
estado del problema en, con mucho, la teoría física antigua más influyente, la física aristotélica, y
(ii) descubre algunas de las valiosas comparaciones entre ese estado de cosas y la situación en el
pensamiento cosmológico moderno. . Sin embargo, su tratamiento es incompleto en varios
puntos importantes y contiene, especialmente en la última parte, algunos conceptos erróneos y
tergiversaciones (ampliamente difundidos). Nuestro objetivo en esta nota es, por lo tanto,
corregir algunas omisiones en el manuscrito de Kutrovátz, así como sugerir generalizaciones de
su conclusión a la luz de la naciente disciplina astrofísica de la escatología física. Este parece un
excelente estudio de caso para enfatizar el grado en que nuestro conocimiento cosmológico está
determinado por el flujo de información subyacente. Además, señalamos otro,
sorprendentemente moderno, respuesta al rompecabezas de la muerte por calor que existía en
la antigüedad, en una tradición diferente a la aristotélica. Comenzamos con el último tema.

2 Respuesta alternativa al problema de la muerte por calor


A diferencia del "primer movimiento" aristotélico que está eternamente copresente con el
mundo, la idea evolutiva moderna de que el universo tiene una edad finita y actualmente se está
desenrollando como consecuencia de una cantidad finita de movimiento primordial también
estuvo presente en la antigüedad, incluso prominente en algunos círculos. Desafortunadamente,
esos eran los círculos de filósofos de la naturaleza que eran agnósticos o ateos abiertos y, por lo
tanto, fueron cuidadosamente suprimidos y descuidados en los siglos posteriores. Los elementos
de tal cosmovisión estaban presentes en las cosmologías de Anaximandros, Empédocles,
Anaxágoras y Demócrito, así como en algunos epígonos posteriores. Consideramos aquí
brevemente algunas de estas ideas.
En el primer capítulo de la historia inmortal de Tucídides, hay una famosa declaración de que
antes de su época, es decir, alrededor del 450 a. C., nada de importancia (ου μεγαλα γενεσθαι)
había sucedido en la historia. Oswald Spengler ha calificado correctamente esta sorprendente
afirmación de "escandalosa" y la ha utilizado para demostrar el carácter esencialmente
mitológico de la historiografía griega antigua [32, 7]. De hecho, puede resultar escandaloso desde
la perspectiva moderna, pero motiva una serie de preguntas más profundas que, en última
instancia, tratan de la cosmología. El hecho de que Tucídides no conocía (o no le importaba
saber) los acontecimientos históricos anteriores, no cambia la percepción esencial de la finitud
de la historia humana, inseparable del pensamiento griego. Esta propiedad entra en conflicto con
la noción de un mundo eterno de existencia continua, tal como se presentó tanto en la cultura
moderna como en la antigua. Obviamente, es irrelevante qué punto de partida exacto elijamos
para desarrollar los acontecimientos históricos. En cualquier caso, el número de eventos es
finito, y el lapso de tiempo se considera pequeño, incluso en comparación con las escalas de
tiempo astronómicas específicas (algunas de las cuales, como el período de precesión de los
equinoccios, se conocían en la antigüedad clásica, como se desprende de la discusión en Timeo),
por no hablar de un infinito temporal pasado. Aunque no había arqueología científica en el
mundo antiguo, era tan natural entonces como ahora esperar que hipotéticas civilizaciones
anteriores que habitaban en Oikumene dejaran algunos rastros; de hecho, ¡un número infinito
de rastros de un Oikumene eternamente existente! Hay indicios de que los pensadores
presocráticos han sido conscientes de la incompatibilidad de esta finitud “Tucídidea” del pasado
histórico con la naturaleza eterna del mundo. Ya hemos mencionado la solución (estados
singulares periódicos) propuesta por el propio Empédocles. Incluso antes, en los relatos
fragmentarios de la cosmología de Anaximandros [es decir, Anaximandro], se puede notar que
propuso un origen evolutivo de la humanidad en algún momento finito del pasado, paralelo a su
postulado básico de separación de diferentes mundos de apeiron y su posterior regreso a ella. 1En
la cosmovisión de Anaxágoras, hay una famosa tensión entre la eternidad de los componentes
del mundo y la duración finita del movimiento (y, por lo tanto, el tiempo relacional) en el mundo.
Al mismo tiempo, parece seguro que Anaxágoras, junto con Anaximandros y Empédocles, fue uno
de los primeros defensores de la visión evolucionista, al menos en lo que respecta al origen de la
humanidad [16].
Finalmente, en la época romana Lucrecio hizo una formulación casi moderna del argumento
antrópico del pasado finito, quien en el Libro V de su famoso poema De Rerum Natura escribió
los siguientes versos intrigantes:
Además de todo esto,
Si no hubiera habido origen en el nacimiento
De tierras y cielo, y alguna vez habían sido
El eterno, por qué, antes de la guerra tebana
Y exequias de Troya, tienen otros bardos
¿No coreó también otros asuntos importantes?
¿Dónde se han hundido tantas veces tantas obras?
¿De héroes? ¿Por qué esos hechos ya no viven?
Injerto en monumentos eternos
¿De gloria? En verdad, supongo, porque
El sol es nuevo y de fecha reciente
La naturaleza de nuestro universo, y tenía
No hace mucho su propio exordio.2

Para Lucrecio, de mentalidad muy científica, la brevedad de la historia humana es muy extraña
frente a la hipótesis de la existencia eterna del mundo. Aunque las referencias a “monumentos
eternos” y “otros bardos” suenen ingenuas, está claro que tenía en mente cualquier forma de
transmisión de información del pasado al presente; y una cantidad infinita de información de un
pasado infinito. Su evaluación empírica del mundo circundante muestra claramente la ausencia
de tal información. Por tanto, se necesita una explicación. La explicación más simple, como
Lucrecio era muy consciente, es tratar el argumento como reductio ad absurdum de la hipótesis
de partida (la naturaleza eterna del mundo) y asumir que el mundo es de edad finita y
relativamente pequeña.
La profundidad del pensamiento de Lucrecio en este pasaje es casi asombrosa, especialmente
cuando se tiene en cuenta la ceguera histórica de las generaciones posteriores a esta misma
argumentación. El argumento de Lucrecio se aplica al universo newtoniano clásico de edad
infinita, así como a las alternativas estacionarias modernas a la cosmología evolutiva (como la
teoría clásica del estado estacionario). Enfatiza la naturaleza tecnológica de la posible evidencia
("injertada en monumentos"). Esto es exactamente lo que los cosmólogos modernos Davies y
Tipler han tenido en mente al construir el argumento antrópico para refutar las cosmologías
eternas de nuestra época. Los monumentos de Lucrecio juegan esencialmente el mismo papel
que las sondas von Neumann de Tipler enviadas por comunidades inteligentes avanzadas [34].
Su ausencia da testimonio del pasado finito. Concluimos que una idea bastante moderna del
origen (relativamente) reciente del universo y su "decadencia" ha estado presente en la
antigüedad clásica. Por supuesto, nunca alcanzó la atención y las consideraciones otorgadas al
cuadro aristotélico, pero ha estado presente sin embargo, testificando sobre el alto grado de
sofisticación científica del mundo antiguo. Ha resucitado en su forma moderna, por ejemplo, en
el famoso debate sobre la recurrencia termodinámica entre Boltzmann y Zermelo (cf. [33]), que
es la primera vez que las especulaciones cosmológicas científicas (en el sentido moderno)
aparecieron en un respetado Revista de investigación revisada por pares. En el transcurso del
siglo [XX], se ha incorporado a la tradición cosmológica estándar, en particular después de la
victoria de los modelos evolutivos sobre su rival de estado estacionario en la "gran batalla" de
los años cincuenta y sesenta [19]. Es exactamente esta tradición a la que ahora nos referimos.
3 Cosmología moderna y algunos errores en el relato de
Kutrovátz
En esta sección enumeramos y consideramos brevemente varios puntos astrofísicos importantes
que faltan en el relato de Kutrovátz sobre la respuesta moderna al acertijo de la muerte por calor.
Sin duda, estas consideraciones ayudarán a resaltar todo el alcance del problema cuyos aspectos
importantes, estamos totalmente de acuerdo con Kutrovátz, siguen abiertos.

3.1 El campo gravitacional como principal fuente de


entropía
La parte básica que falta en el modelo de juguete de Kutrovátz de la evolución de la entropía del
universo es la entropía gravitacional. Los físicos y cosmólogos se han dado cuenta muy
lentamente de que, aparte de la entropía termodinámica, el campo gravitacional puede
almacenar una gran cantidad de grados internos de libertad, por lo que tiene una entropía
potencialmente enorme en sí mismo. Esto se ha realizado en el contexto de los agujeros negros
a principios de la década de 1970, con los estudios revolucionarios de Bekenstein [5] y Hawking
[17]. La fórmula de Bekenstein-Hawking nos da un control sobre la entropía del campo
gravitacional de un agujero negro, y ciertamente hay formas de discernir la entropía
gravitacional en otros casos, aunque todavía son altamente especulativas (dependiendo, por
supuesto, de la estructura de teoría cuántica de la gravitación!). La introducción de la entropía
gravitacional permite resolver varios acertijos importantes en astrofísica y cosmología (por
ejemplo, [26]). El más importante de ellos es el estado de equilibrio termodinámico de épocas
cosmológicas muy tempranas, según se discierne a partir de la alta isotropía de la radiación
cosmológica de cuerpo negro. Si la entropía termodinámica clásica es todo lo que hay, ¿cómo
podría ocurrir algo en el universo después de la época de recombinación en el corrimiento al rojo
z ~ 1500? Ingenuamente esperaríamos que el plasma simplemente alcanzara un equilibrio
detallado y permaneciera en ese estado para siempre. En cambio, la aglomeración gravitacional
actuó para reducir la entropía termodinámica a expensas de la entropía gravitacional que
aumentó considerablemente durante el proceso de formación de la estructura cosmológica. Y la
formación de la estructura cosmológica, a su vez, permitió toda la riqueza de la física
subsiguiente, procesos químicos y biológicos de los que nos ocupamos ahora en las ciencias; es,
entre otras cosas, la causa de nuestra aparición en la Tierra como observadores inteligentes.

3.2 Capacidades termodinámicas de los sistemas


gravitantes
Cuando Kutrovátz escribe que “podemos ver aquí que la energía interna no es constante porque
se transforma en la energía del campo gravitacional: esta es una característica peculiar del
universo como sistema termodinámico”, está solo parcialmente en lo cierto. Si bien esto
indudablemente es cierto para el universo, también es cierto para muchos otros sistemas
astrofísicos, especialmente estrellas y galaxias. De hecho, es cierto para cualquier sistema que se
mantenga unido por una fuerza de largo alcance como la gravedad. Supongamos que agregamos
energía a una estrella (digamos, mediante un rayo láser gigante) y luego esperamos algún tiempo
para que ocurran los procesos de relajación. Notaremos que su tamaño ha aumentado y su
temperatura realmente disminuirá (ejemplo familiar de la capacidad calorífica negativa). Esto
puede parecer irrelevante para el caso cosmológico particular. Sin embargo, la conclusión que a
menudo se extrae de la misma propiedad cuando se aplica a la expansión de Hubble, a saber, que
la expansión de Hubble es la causa del gradiente de entropía (es decir, que la expansión crea una
nueva extropía), es incorrecta. Este punto ha sido el foco de una feroz controversia en los años
sesenta y setenta, comenzando con el estudio clásico de Thomas Gold ([15]; ver también [8, 23]).
La idea era explicar la salida del equilibrio termodinámico asumiendo que la expansión universal
crea nuevos estados para nuevas configuraciones de materia, de modo que la entropía de la
materia comienza a retrasarse cada vez más con respecto a la entropía máxima posible. Por
ingeniosa que fuera, esta idea ha sido abandonada ya que por varias razones, el principal es que
la naturaleza “especial” de baja entropía de la singularidad inicial del Big Bang es tan excepcional
(como se puede calcular en principio a partir de la fórmula de Boltzmann S = k ln W; ver [26])
que la cantidad de expansión subsiguiente produce un efecto casi insignificante. En otras
palabras, todavía tenemos que explicar la entropía gravitacional inicial muy baja, cuyo aumento
posterior compensa con creces la disminución aparente (termodinámica) de entropía después
de la época de recombinación.

3.3 Universos abiertos frente a universos cerrados y


constante cosmológica
En varios lugares del artículo de Kutrovátz [22] se perpetúa la confusión de abierto / cerrado
frente a siempre en expansión / recolpándose. Esto se ha generalizado mucho como
consecuencia de la negligencia general (en particular en los libros de texto) de los modelos con
constante cosmológica (o cualquier otra forma de “energía oscura”) en el período aproximado
de 1930-1990. Hoy, después de los espectaculares resultados de las recientes observaciones
cosmológicas de supernovas distantes, así como de las anisotropías de la radiación de fondo de
microondas, estamos en una posición mucho mejor. Para un resumen bien escrito de la situación
actual, véase [20].
Resumamos algunos fundamentos cosmológicos. Ω es la relación entre la densidad física de
todos los campos de materia y la denominada densidad crítica necesaria para que el universo
detenga la expansión actual y vuelva a colapsar hacia Big Crunch. En el engañoso discurso de los
libros de texto que Kutrovátz acepta acríticamente, los universos Ω ≤ 1 se expandirán para
siempre, mientras que los universos Ω> 1 volverán a colapsar. Esto se aplica estrictamente sólo
al caso de campos de materia que posean una ecuación de estado "regular"; en presencia de
energía del vacío, indicada por experimentos de supernovas cosmológicas recientes, la situación
se vuelve más complicada. Allí, podemos escribir Ω = Ω m + ΩΛ, siendo ΩΛ la contribución de la
energía oscura. Ahora, incluso los universos Ω> 1 (= topológicamente cerrados) pueden
expandirse para siempre, bajo la condición de que el signo de la energía oscura sea positivo
(correspondiente a la fuerza efectiva repulsiva).

Por lo tanto, tenemos una degeneración en la relación de las propiedades topológicas (abiertas
frente a cerradas) y su futuro dinámico (en constante expansión frente a recolpándose). Con
constante cosmológica positiva (que parece realista; por ejemplo, [27, 31, 36]), el universo
topológicamente cerrado también puede expandirse para siempre, especialmente si su
contribución es tan grande como lo indican las observaciones (ΩΛ ≈ 0,7). No tenemos una forma
observacional de determinar si el universo real es abierto o cerrado, ya que, y especialmente si
uno cree en modelos inflacionarios, la densidad cosmológica total es Ω = 1 ± ε, siendo ε del orden
de 10−5. Sin embargo, podemos estar virtualmente seguros de que el universo, sin importar sus
propiedades topológicas, se expandirá para siempre.

3.4 Extropía en universos abiertos y la definición de muerte


por calor
Si la definición de muerte por calor es, como siempre se supone clásicamente, el estado de
entropía máxima alcanzada de un sistema físico cerrado, entonces la cuestión de si la muerte por
calor ocurrirá en un universo en constante expansión no es trivial ni obvia. Aunque la entropía
puede aumentar para siempre, esto no significa que alcanzará el valor máximo, si ese valor
máximo puede retroceder indefinidamente. De hecho, parece que para el universo clásico de
Einstein-de Sitter (universo dominado por la materia con Ω = Ω m = 1) exactamente ese es el
caso: en uno de los primeros estudios del futuro cosmológico (apropiadamente titulado
“Entropía en una expansión Universe ”), Frautschi [14] escribió:
Es aparente . . . que la entropía en una región causal cae cada vez más por detrás de max S
durante la mayor parte de la historia cósmica. S / S max aumenta temporalmente durante el
período de formación de agujeros negros estelares y galácticos. La vida tal como la
conocemos se desarrolla durante el mismo período, utilizando la generación de entropía
mucho más pequeña, pero convenientemente dispuesta en un planeta o planetas situados
cerca de estrellas nucleosintetizadoras. . . . el universo en expansión “muere” en el sentido de
que la entropía en un volumen comovivo se acerca asintóticamente a un límite constante.

Esta no es la muerte por calor como se entiende clásicamente (por ejemplo, [12]). En la misma
línea, Adams y Laughlin [1] en el estudio exhaustivo de casi todos los aspectos de la escatología
física notan que
Hasta ahora en este artículo, hemos demostrado que la entropía se puede generar (y por lo
tanto se puede trabajar) hasta décadas cosmológicas η ~ 100. [Las décadas cosmológicas se
definen como épocas de tiempo t = 10 η años]. . . La formación de agujeros negros cada vez
más grandes puede continuar siempre que el universo permanezca espacialmente plano y las
perturbaciones de densidad que ingresan al horizonte no sean demasiado grandes. El
escenario del universo inflacionario proporciona un mecanismo para lograr este estado de
cosas, al menos hasta alguna época futura. . . Así, la naturaleza del universo en el futuro lejano

puede estar determinado por la física del universo temprano (en particular, la
inflación) en la década cosmológica η ~ −45.

Pero no es necesario entrar en abundancia de detalles técnicos de estos y estudios relacionados


aquí; basta señalar que ya existe un volumen considerable de literatura científica sobre la
producción de entropía en el futuro cosmológico, literatura que Kutrovátz desafortunadamente
ignora.

Por otro lado, en los modelos realistas con la constante cosmológica positiva, la muerte por
calor puede definirse operativamente como el estado de entropía máxima alcanzada dentro del
horizonte de eventos. En este caso, la afirmación de Kutrovátz de que la muerte por calor es
ineludible es correcta.

4 Discusión: escatología física y sistemas abiertos


La escatología física es una rama bastante joven de la astrofísica, que se ocupa del destino futuro
de los objetos astrofísicos, así como del universo mismo [1, 11, 30, 35]. Algunos temas relevantes
se han discutido en la monografía de Barrow y Tipler [4], así como en varios libros de nivel
popular [2, 9, 18]. Dado que la distinción entre conocimiento en cosmología clásica y escatología
física depende de la distinción entre pasado y futuro, varios aspectos de la física y la filosofía del
tiempo son relevantes para la evaluación de los resultados escatológicos y viceversa.
A primera vista, parece que, a diferencia de la mayoría de las otras disciplinas físicas, la
escatología física es al menos lo suficientemente afortunada para tratar con el sistema cerrado
ejemplar: el universo mismo. Pero hay un sentido crucial en el que la escatología física es,
contrariamente a esta impresión, un estudio de sistemas abiertos. Esto se manifiesta muy bien
en la discusión de la muerte térmica del universo. Un ingrediente necesario en las discusiones
más serias de la escatología física es la presencia de sistemas vivos e inteligentes en el futuro del
universo (que ex hypothesi no existía en su pasado). Dyson fue el primero en deletrearlo
audazmente en 1979:
Es imposible calcular en detalle el futuro a largo plazo del universo sin incluir los efectos de
la vida y la inteligencia. Es imposible calcular las capacidades de la vida y la inteligencia sin
tocar, al menos periféricamente, cuestiones filosóficas. Si vamos a examinar cómo la vida
inteligente puede guiar el desarrollo físico del universo para sus propios propósitos, no
podemos evitar por completo considerar cuáles pueden ser los valores y propósitos de la vida
inteligente. Pero tan pronto como mencionamos las palabras valor y propósito, nos
encontramos con uno de los tabúes más firmemente arraigados de la ciencia del siglo XX.

El futuro de los universos que contienen vida e inteligencia es esencialmente diferente del futuro
de los universos desprovistos de tales formas de organización compleja de la materia, así como
diferente del pasado de los mismos universos en los que la complejidad era menor. En una línea
similar, John A. Wheeler escribió en un hermoso artículo sobre la relación entre la mecánica
cuántica y la cosmología [39]:
Aunque hoy es minúsculo el papel que estos actos de participación del observador juegan en
el esquema de las cosas, hay miles de millones de años por venir. Hay miles de millones y
miles de millones de lugares de vida aún por habitar. La inminente explosión de vida abre la
puerta a un papel integral para el observador-participante: construir, en el futuro, no una
parte menor de lo que llamamos su pasado — nuestro pasado, presente y futuro — sino todo
este vasto mundo.

Tener en cuenta las acciones intencionales de seres inteligentes transforma este campo en un
estudio de sistemas abiertos a la interacción con tales noosferas avanzadas (particularmente a
la luz de nuestro desconocimiento prácticamente total de la física de la conciencia y la
inteligencia en la actualidad). El estudio pionero de Dyson citado anteriormente presenta un
excelente ejemplo (aunque puede estar equivocado en los detalles cuantitativos; ver [21]) de tal
investigación. En él, Dyson prevé una forma para que las comunidades inteligentes avanzadas
eviten la muerte por calor a través de métodos ingeniosos de conservación de energía y
optimización del flujo de información. El trabajo de Dyson provocó mucha actividad
investigadora posterior. Aunque no podemos entrar en esta discusión aquí, la moraleja general
de que el futuro del universo, incluida la posible muerte por calor, ha entrado recientemente en
el dominio físico —en lugar del metafísico— parece ineludible. Esto contrasta fuertemente con
el curso de pensamiento sobre el futuro cosmológico en épocas anteriores que describe
Kutrovátz, y presagia una era completamente nueva en nuestra comprensión del universo.

Expresiones de gratitud
El autor desea agradecer al Prof. Branislav Nikolić y Vesna Milošević-Zdjelar por su amable ayuda
para encontrar varias referencias clave. Un agradecimiento especial a Nataša Bulut por su
inestimable inspiración y su apoyo incondicional.

NOTAS
1Esto es claro, por ejemplo, en el fragmento A 10 en [10], preservado por Plutarco, en el que se afirma explícitamente que la
formación y destrucción de muchos mundos ocurre dentro del infinito temporal global. En la continuación del mismo extracto
de Stromateis, se atribuye a Anaximandros una doctrina evolutiva: “. . . Además, dice que al principio el hombre se generó a
partir de todo tipo de animales, ya que todos los demás pueden obtener rápidamente alimento para sí mismos, pero solo el
hombre requiere una alimentación cuidadosa durante mucho tiempo; un ser así al principio no podría haber conservado su
existencia ”[13]. Hyppolites cita a Anaximandros enfatizando la naturaleza del apeiron como eterno (B 2), obviamente en
oposición a la humanidad, que tiene un comienzo fijo en el tiempo. Aún más intrigante es la doctrina atribuida a Anaximandros
por Cicerón: “Era la opinión de Anaximandros que los dioses tienen un comienzo, a intervalos prolongados que se levantan y
se ponen, y que son los innumerables mundos. Pero, ¿quién de nosotros puede pensar en dios si no es inmortal? ¿Tenía él en
mente esencialmente lo que hoy en las discusiones relacionadas con SETI denotamos como supercivilizaciones (por ejemplo,
[4])?
2 En traducción de William E. Leonard, disponible a través de WWW Project Gutenberg [25] .2

Bibliografía
[1] FC Adams y G. Laughlin, Reviews of Modern Physics 69, 337 (1997).
[2] FC Adams y G. Laughlin, Las cinco edades del universo, The Free Press, Nueva York, 1999.
[3] D. Albert, Time and Chance, Harvard University Press, Cambridge, 2000.
[4] JD Barrow y FJ Tipler, The Anthropic Cosmological Principle, Oxford University Press, Nueva York, 1986.
[5] JD Bekenstein, Physical Review D 7, 2333 (1973).
[6] SM Carroll, WH Press y EL Turner, Annual Review of Astronomy and Astrophysics 30, 499 (1992).
[7] F. Cornford, Thucydides Mythistoricus, Greenwood Press Publishers, Nueva York, 1965.
[8] PCW Davies, La física de la asimetría del tiempo, University of California Press, Berkeley, 1974.
[9] PCW Davies, The Last Three Minutes, Basic Books, Nueva York, 1994.
[10] H. Diels, Presoratic Fragments, Naprijed, Zagreb, 1983.
[11] FJ Dyson, Reviews of Modern Physics 51, 447 (1979).
[12] AS Eddington, Nature 127, 447 (1931).
[13] A. Fairbanks, Los primeros filósofos de Grecia, K. Paul, Trench & Trubner, Londres, 1898.
[14] S. Frautschi, Science 217, 593 (1982).
[15] T. Gold, American Journal of Physics 30, 403 (1962).
[16] WKC Guthrie, Historia de la filosofía griega II, Cambridge University Press, Londres, 1969.
[17] SW Hawking, Nature 248, 30 (1974).
[18] JN Islam, El destino final del universo, Cambridge University Press, Cambridge, 1983.
[19] H. Kragh, Cosmology and Controversy, Princeton University Press, Princeton, 1996.
[20] LM Krauss y Turner, Relatividad general y gravitación 31, 1453 (1999).
[21] LM Krauss y GD Starkman, Astrophysical Journal 531, 22 (2000).
[22] G. Kutrovátz, Open Systems and Information Dynamics 8, 349 (2001).
[23] D. Layzer, Astrophysical Journal 206, 559 (1976).
[24] E. Lieb y J. Yngvason, Physics Reports 310, 1 (1999).
[25] Lucrecio, Sobre la naturaleza de las cosas, trad. por William E. Leonard, versión de texto electrónico, Proyecto Gutenberg,
Urbana, 1997.
[26] R. Penrose, The Emperor's New Mind, Oxford University Press, Oxford, 1989.
[27] S. Perlmutter y col., Astrophysical Journal 517, 565 (1999).
[28] H. Price, Time's Arrow y Archimedes 'Point, Oxford University Press, Oxford, 1996.
[29] H. Price, Revista Británica de Filosofía de la Ciencia 53, 83 (2002).
[30] MJ Rees, The Observatory 89, 193 (1969).
[31] A. Riess y col., Astrophysical Journal 560, 49 (2001).
[32] O. Spengler, Decline of the West, edición de Alfred A. Knopf Publisher, Nueva York, 1996.
[33] VS Steckline, American Journal of Physics 51, 894 (1983).
[34] FJ Tipler, The Observatory 102, 36 (1982).
[35] FJ Tipler, Revista Internacional de Física Teórica 25, 617 (1986).
[36] M. Tucci, A. Contaldo y S. Bonometto, Astrophysical Journal 562, 583 (2001).
[37] J. Uffink, Estudios de Historia y Filosofía de la Física Moderna 32B, 305 (2001).
[38] J. Uffink y H. Brown, Estudios de Historia y Filosofía de la Física Moderna 32B, 525 (2001).
[39] JA Wheeler, IBM Journal of Research and Development 32, 4 (1988).
8
La segunda ley generalizada implica un teorema de
singularidad cuántica
Aron C. Wall

1. Introducción
Se ha especulado durante algún tiempo que los efectos cuánticos eliminarán las singularidades
de cualquier teoría de la gravedad cuántica [1]. La resolución de la singularidad se ha intentado
tanto en la teoría de cuerdas [2] como en la gravedad cuántica de bucles [3]. Implícita en muchos
de estos trabajos está la idea de que la gravedad cuántica permitirá que los espaciotiempos
eludan los teoremas clásicos de la singularidad de la relatividad general y, por lo tanto,
permitirán la continuación más allá de la posible singularidad. Todos los teoremas clásicos de la
singularidad asumen ciertas condiciones de positividad en el tensor de tensión-energía. Sin
embargo, todas estas condiciones pueden violarse localmente en la teoría cuántica de campos.
Por lo tanto, se podría suponer que en las regiones altamente cuánticas cercanas a un Big Bang
o una singularidad de agujero negro, dosis temporales de energía negativa podrían inducir un
rebote, evitando la singularidad [4].
Por tanto, surge la cuestión de si existe una generalización mecánica cuántica de alguno de los
teoremas de la singularidad, lo que haría que las singularidades fueran inevitables incluso en
situaciones cuánticas. Tal teorema de singularidad debería tener algún supuesto utilizado en
lugar de una condición de energía que sea válida en situaciones cuánticas. En este artículo se
propondrá como sustituto la segunda ley generalizada (de grano fino) (GSL) de la termodinámica
del horizonte. Dado que se cree ampliamente que el GSL se mantiene como consecuencia de las
propiedades mecánicas estadísticas de los grados de libertad gravitacional cuántica [5], es un
buen candidato para una ley física que probablemente se mantenga incluso en una teoría
completa de la gravedad cuántica.
El teorema de la singularidad de Penrose [6] se aplica a la relatividad general clásica acoplada
a la materia que obedece a la condición de energía nula.

(1)
donde ka es cualquier vector nulo. Dice que en cualquier espacio-tiempo globalmente
hiperbólico con una superficie de Cauchy no compacta ∑, si hay una "superficie atrapada" T en
∑ tal que la superficie nula hacia afuera generada por T se está contrayendo, entonces el espacio-
tiempo no puede ser nulo geodésicamente completo. La demostración usa la ecuación de
Raychaudhuri para mostrar que la superficie nula generada por T debe tener puntos conjugados,
pero esto es incompatible con la continuación del espacio-tiempo. Se requiere la suposición de
que ∑ no es compacto para evitar que las bandejas de luz simplemente se crucen entre sí fuera
de T. La suposición de hiperbolicidad global es necesaria porque, de lo contrario, un universo
inicialmente no compacto puede evolucionar a un universo compacto a medida que pasa el
tiempo (y de hecho,
El teorema de Penrose se puede utilizar para demostrar que los agujeros negros deben tener
singularidades. Al invertir la orientación temporal, también puede mostrar que si el universo es
espacialmente infinito, debe haber tenido una singularidad del Big Bang en alguna parte [6]. Una
consecuencia adicional es que no hay agujeros de gusano atravesables [7] y que es imposible
crear una región inflacionaria en un laboratorio sin ninguna singularidad inicial [8]. Resultados
análogos muestran que la condición de energía nula excluye las máquinas del tiempo [9] y la
comunicación superluminal [10, 11, 12, 13], y requiere que todos los espaciotiempo AdS
asintóticamente planos tengan masa ADM positiva [14, 12, 13].
Sin embargo, ninguno de estos resultados se aplica a los sistemas de mecánica cuántica porque
todos estos sistemas violan la condición de energía nula (1) [15]. También existen teorías
clásicas razonables que violan la condición de energía nula [16]. Dado que los objetos de masa
negativa probablemente implican que el vacío es inestable, y las máquinas del tiempo (y
probablemente también los agujeros de gusano) supondrían problemas para la causalidad [9],
debería haber algún principio físico en la teoría que impida que ocurran. Este principio, a
diferencia de la condición de energía nula, tendría que ser cierto en situaciones de mecánica
cuántica; idealmente, en alguna teoría completa de la gravedad cuántica.
Como un paso en esta dirección, Graham y Olum [17] señalaron que la condición de energía
nula promediada semiclásica autoconsistente en 1 las geodésicas nulas eran suficientes para
descartar las máquinas del tiempo, los agujeros de gusano atravesables y las energías negativas.2
Luego [18] mostró que a primer orden en ħ, el GSL implica la condición de Graham y Olum. Esto
significa que en cualquier situación en la que los efectos cuánticos sean débiles, seguirán los
resultados de no ir descritos en [17].
En este artículo se mostrará de manera más general que el GSL de grano fino se puede utilizar
para probar la inevitabilidad de las singularidades y la ausencia de agujeros de gusano
atravesables, impulsos warp entre puntos en el infinito nulo, máquinas del tiempo y objetos de
masa negativa, incluso en situaciones de la mecánica cuántica. También se demostrará que
ningún universo bebé que se forme dentro de los agujeros negros puede ser viable (en el sentido
de que eventualmente se vuelva causalmente independiente del universo madre), y que es
imposible reiniciar la inflación en el interior de una superficie asintóticamente plana (o AdS )
tiempo espacial.
La termodinámica del horizonte también restringe severamente los modelos en una
cosmología similar a FRW que se origina en algún otro universo anterior al Big Bang. En este
contexto, existen restricciones interesantes provenientes del GSL de grano grueso, así como del
tiempo inverso del GSL de grano fino.
Los diversos resultados se mostrarán primero en el contexto de la gravedad semiclásica, en la
que se supone que los efectos cuánticos son pequeños y pueden controlarse con una expansión
ħ. Sin embargo, esta aproximación semiclásica se usa solo en regiones de baja curvatura alejadas
de la singularidad / patología en cuestión. En la región de alta curvatura, además de la propia
GSL, los resultados solo requieren que conceptos básicos como causalidad, predictividad y
compacidad topológica sigan teniendo significado en la teoría de la gravedad cuántica. Por tanto,
es razonable creer que los resultados se mantendrán en una teoría completa de la gravedad
cuántica. Si esta conclusión es correcta, debemos renunciar a la termodinámica del horizonte, o
bien a varios de los sueños de los fanáticos de la ciencia ficción.
Dado que no existe una teoría no perturbativa bien entendida de la gravedad cuántica total (y
mucho menos una probada experimentalmente), por supuesto es imposible hablar con total
confianza con respecto a la extensión de estos resultados a este régimen, que probablemente sea
de importancia cerca. singularidades. Puede ser que los conceptos usados para definir el GSL se
apliquen solo a la gravedad semiclásica o perturbativa, no a la teoría microscópica. Entonces, una
interpretación conservadora de las restricciones es simplemente que tal y tal cosa no puede
ocurrir excepto por medio de efectos de gravedad cuántica no perturbadores. 3 Sin embargo,
defenderé una interpretación más amplia.
El plan de este artículo es el siguiente: la sección 2 analiza la segunda ley de la termodinámica,
tanto en su forma ordinaria como en su forma generalizada, prestando especial atención a la
distinción entre entropía de grano fino y de grano grueso, y una discusión de en que detecta la
segunda ley depende o no de una flecha de tiempo bien definida. La sección 3 demuestra algunos
teoremas sobre la entropía generalizada que se utilizarán más adelante, el más importante de
los cuales es el teorema 4 que generaliza la noción de superficie atrapada a espaciotiempos
cuánticos. (El lector casual puede desear hojear esta sección). La Sección 4 aplica la GSL para
obtener los diversos resultados descritos en el resumen. Sus relaciones de dependencia se
muestran en la figura 8.1.
Figura 8.1Las dependencias lógicas de las principales hipótesis, teoremas y resultados en este artículo. Si una proposición tiene
una o más flechas apuntando hacia ella, entonces la conjunción de todas las proposiciones que apuntan hacia ella se usa en la
prueba de esa proposición. g 0 es un punto particular en el espacio-tiempo donde la aproximación semiclásica debe ser válida; su
ubicación depende del resultado particular que se esté considerando (ver sección 4). El resultado sin máquinas de tiempo utiliza
la suposición de que J + (p) ∩ J - (q) es compacto para cualquier punto p y q; dado que esto es más débil que la hiperbolicidad
global, se muestra como una consecuencia de ella, aunque pasar directamente de la hiperbolicidad global a las máquinas sin tiempo
es, por supuesto, trivial.

Hasta este punto, haré uso libre de las nociones semiclásicas del espacio-tiempo, aunque tales
conceptos no son válidos en el régimen de gravedad cuántico completo. En la sección 5,
argumentaré que los resultados probablemente se apliquen incluso cuando se tomen en
consideración los efectos de la gravedad cuántica. Finalmente, el Apéndice demuestra un
teorema utilizado en la sección 2.1 para ayudar a probar la segunda ley ordinaria de la
termodinámica.

2 La segunda ley de la termodinámica


2.1 La segunda ley ordinaria
La Segunda Ley Ordinaria (OSL) de la termodinámica establece que la entropía total de un
sistema cerrado no puede disminuir con el paso del tiempo. Para los propósitos de este artículo,
usaré como mi definición de la entropía de un estado ρ la entropía de von Neumann

(2)
Este es el análogo de los estados cuánticos de la entropía de Gibbs clásica que se define como

, (3)
donde pi es la probabilidad de estar en el estado i. Eq. (2) se reduce a la ecuación. (3) siempre
que la matriz de densidad ρ esté diagonalizada.

Para interpretar el significado de la entropía de von Neumann, es necesario saber si ρ se


interpreta en un sentido detallado como la información completa sobre un estado, o en un
sentido grueso como la información disponible para un observador. En la imagen detallada, los
sistemas cuánticos cerrados evolucionan por evolución unitaria a medida que pasa el tiempo:

. (4)

Dado que la evolución unitaria no afecta los valores propios de probabilidad de ρ, esto implica
que

. (5)
La buena noticia es que acabamos de probar el OSL porque la entropía no se puede reducir. La
mala noticia es que aunque la entropía no puede disminuir, tampoco puede aumentar, de modo
que el tiempo inverso de la segunda ley, que denotaré como también sostiene. Esto se debe a
que la entropía es una medida de la incertidumbre en ρ, pero el contenido de información en ρ
es el mismo que la incertidumbre en las condiciones iniciales.
Para ver el aumento de la entropía, tenemos que pasar a la imagen de grano grueso. Esta
imagen se puede motivar adoptando una visión más realista de nuestra capacidad para calcular
el estado en un tiempo t a partir de las condiciones iniciales. Si usted es una calculadora de
Laplace con un conocimiento completo de las leyes de la naturaleza y una capacidad de cálculo
infinita, puede usar la ecuación. (4) para determinar ρ (t). Pero el universo contiene muchos
sistemas complejos para los cuales yo, en cualquier caso, sería incapaz de especificar U. Dada mi
ignorancia de la dinámica exacta del universo, no puedo saber completamente qué es ρ (t),
incluso si conozco el estado inicial ρ (t 0). Lo mejor que puedo hacer es confiar en las cosas que
sé sobre la dinámica para producir mi mejor conjetura sobre lo que creo que es el estado; llámelo
. Como sé que las dinámicas son unitarias, pero no conozco las leyes unitarias exactas de
la física,
Debería poder modelar mi ignorancia como una distribución de probabilidad sobre el espacio
de posibles procesos unitarios U. Esto implica que debo tener más incertidumbre acerca del
universo en el tiempo t que lo que sería una calculadora de Laplace, por lo que

. (6)
(Esta ecuación se deriva del hecho de que la entropía es una función convexa, que fue probada
por primera vez para sistemas cuánticos por Delbrück y Molière [19]. El Apéndice proporciona
otra prueba siguiendo los métodos de Uhlmann [20]).
Eq. (6) muestra que la entropía en cualquier momento debe ser mayor que la entropía del
estado inicial. Esto no prueba del todo el OSL, porque aún no se muestra si

. (7)
Podría ser, por ejemplo, que la historia del universo desde t 0 hasta t 1 consista en algún proceso
complejo, difícil de resolver desde el punto de vista del cálculo, pero la historia del universo
desde t 1 hasta t 2 consista en un proceso inverso exacto. Entonces la entropía aumentaría al
principio y luego disminuiría nuevamente más tarde. Para obtener el OSL, necesitamos saber que
este tipo de cosas no ocurren en el mundo real, es decir, los procesos complejos que nos llevan a
aproximarnos al estado del universo con realmente son procesos irreversibles. Otra
forma de decirlo es que una vez que evolucionamos de ρ (t 0) a , debe ser posible utilizar
como una nueva condición inicial a los efectos de determinar .
Aquí se ha hecho una compensación. Aunque el OSL de grano grueso parece predecir que la
entropía aumentará en lugar de permanecer constante, en virtud de la simetría de inversión del
tiempo de las leyes de la física,4 esto solo es posible si hay un supuesto asimétrico en el tiempo
oculto en la demostración. Y existe tal suposición, incrustada en la condición inicial ρ (t 0). Para
obtener un aumento de entropía no trivial, ρ (t 0) debe tener menos de la entropía máxima
posible. En otras palabras, el universo tiene que haber comenzado con baja entropía. 5 Esto
significa que el OSL de grano grueso solo se mantiene en algunos estados (aquellos que
realmente tuvieron un comienzo de baja entropía), a diferencia del OSL de grano fino y

que se mantienen en todos los estados.


La simetría temporal subyacente del argumento se puede ilustrar imaginando que el universo
tuvo un pasado infinito antes de la condición "inicial". Entonces, para los tiempos t −∞ <t <t 0,
los mismos argumentos dados anteriormente muestran que la entropía debe estar
disminuyendo, de modo que la flecha termodinámica del tiempo se invierte. Desde un punto de
vista termodinámico, uno podría preferir describir tal universo como "comenzando" en t 0 y
luego evolucionando "hacia adelante" en el tiempo en ambas direcciones desde t 0.
Para que la entropía aumente todo el tiempo incluso con un pasado infinito, se podría intentar
imponer la condición inicial at t −∞ en lugar de t 0. Sin embargo, uno esperarı́a que el universo
ya hubiera llegado al equilibrio térmico por cualquier finito tiempo t, suponiendo que hay un
número infinito de procesos potencialmente productores de entropía antes del tiempo t.
Esta conclusión podría eludirse si las leyes de la física permiten que la entropía total del
universo aumente indefinidamente sin llegar nunca al equilibrio. Este podría ser el caso en
teorías de la gravedad similares a la relatividad general [21]. En un universo en expansión, el
volumen total de espacio puede crecer sin límite. En la relatividad general clásica, los agujeros
negros tienen temperatura cero y, por lo tanto, pueden almacenar una cantidad arbitrariamente
grande de entropía utilizando una cantidad arbitrariamente pequeña de energía. Incluso de
forma semiclásica, es posible que un agujero negro térmico absorba una cantidad
arbitrariamente grande de entropía, si está críticamente iluminado durante un largo período de
tiempo [22].6 Entonces, en un cosmos infinitamente grande, uno podría tener una entropía que
es tanto infinita como creciente en todo momento.
Las modificaciones cuánticas de la relatividad general pueden conducir a posibilidades aún
más exóticas para las cosmologías en un aumento de entropía de estado estacionario eterno. Una
propuesta es que cada universo puede generar nuevos universos [23, 24], cada uno de los cuales
podría continuar aumentando en entropía sin ninguna violación de la OSL. Incluso se ha sugerido
que los universos bebés pueden tener leyes físicas ligeramente diferentes que conducen a la
adaptación darwiniana de los universos [25]. O el universo podría pasar por una serie de ciclos
de expansión de De Sitter y así crecer su volumen y entropía sin límite, como en el modelo
ekpyrótico [26]. ¿Son posibles esas imágenes? Para responder a esa pregunta, ahora
exploraremos la generalización de la termodinámica a los sistemas gravitacionales.

2.2 La segunda ley generalizada


Una modificación comparativamente simple que debe hacerse a las leyes de la termodinámica
cuando se tiene en cuenta la gravedad, es que ya no existe una noción absoluta de tiempo; hay
muchas coordenadas "t" igualmente buenas que se pueden utilizar. Dado que el OSL anterior se
formuló en términos de una coordenada “t”, es necesario modificar el OSL considerando la
evolución de un segmento espacial completo arbitrario ∑ a un segmento espacial completo ∑ ′
que no se encuentra en el pasado de ∑. Entonces se puede formular el OSL como la afirmación
de que la entropía de von Neumann de ∑ ′ debe ser al menos tan grande como la entropía de ∑.
Pero hay una modificación más profunda de la termodinámica que surge para los campos
cuánticos en entornos gravitacionales, y es que las leyes parecen aplicarse todavía en el caso de
ciertos sistemas abiertos. Un ejemplo de tal sistema es el exterior de un agujero negro. En este
caso hay gedankenexperiments [27] y pruebas parciales [28, 29] que muestran que la entropía
generalizada, definida como sigue, no disminuye con el tiempo:
. (8)
Aquí S out es la entropía de todo lo que está fuera del agujero negro y SH es la entropía del propio
horizonte, cada uno definido en el mismo segmento espacial ∑. SH depende del lagrangiano
gravitacional [30], y para la relatividad general toma la forma

(9)
Ingenuamente, uno podría haber pensado que se podría hacer descender la entropía fuera de un
agujero negro simplemente arrojando entropía a través del horizonte de eventos. Pero tal
entropía tiende a ir acompañada de energía, que a su vez aumenta la masa del agujero negro y,
en consecuencia, S H. De manera similar, la radiación de Hawking reduce el tamaño del agujero
negro, pero la disminución de SH se compensa con el aumento de entropía exterior. del agujero
negro [31].
Hay algunos matices en la definición de S gen. S out incluye una contribución divergente
proveniente de la entropía de entrelazamiento de corta distancia de los campos cuánticos cerca
del horizonte. Esta divergencia es cuadrática con respecto a un corte de longitud UV. Así, S out,
definida como la entropía de von Neumann (2) es formalmente infinita y requiere
renormalización. Un segundo problema es que en la gravedad cuántica perturbativa, la
renormalización debería conducir a términos de orden superior en el lagrangiano que
renormalizan la constante G de Newton y también agregan términos de curvatura de orden
superior, lo que lleva a correcciones dependientes del corte a S H. La buena noticia es que estos
dos problemas parecen anularse entre sí, es decir, la divergencia en S out se puede absorber en
las constantes de acoplamiento que aparecen en S H. Esto se ha demostrado en un orden de bucle
para ciertas teorías escalares y de espinor [32],
Otra pregunta importante es si el GSL se aplica a otros horizontes además de los horizontes de
eventos de agujeros negros. La respuesta parece ser afirmativa: la termodinámica del horizonte
parece aplicarse también a los horizontes de De Sitter y Rindler [34, 29]. Sin embargo, el GSL no
se mantiene en todas las superficies nulas [28]; por ejemplo, el cono de luz pasado de un punto
tiene un área decreciente clásicamente, lo que lleva a una disminución de O (ħ − 1) en la entropı́a
generalizada, pero el aumento de S out debido a los efectos cuánticos es de orden O (ħ0) y, por
lo tanto, no puede equilibrarlo. fuera. La GSL también parece violarse de forma semiclásica en
horizontes aparentes [35].
Siguiendo a Jacobson y Parentani [34], asumiré que la GSL se aplica al “horizonte causal futuro”
de cualquier línea de tiempo futura-infinita W fut (un “observador”). Este horizonte causal se
define como H fut = ∂I - (W fut), el límite del pasado del observador (Fig. 8.2).
Figura 8.2Los horizontes de agujero negro, los horizontes de Rindler y los horizontes de De Sitter son todos casos especiales de
"horizontes causales". El horizonte causal futuro H fut se define como la parte del espacio-tiempo que es causalmente visible para
alguna línea de tiempo futura infinita W fut, mostrada como una línea gruesa. El GSL declara que la entropía aumenta con el tiempo
en cortes espaciales completos fuera de H fut (mostrados como líneas rojas).

Dados cualesquiera dos cortes espaciales completos ∑ y ∑ ′ con el último en ninguna parte del
pasado del primero, el GSL dice que:

, (10)
donde aquí el "exterior" del horizonte utilizado para definir S gen se toma como el lado en el que
se encuentra el observador, incluso para casos como el espacio de De Sitter donde el observador
está encerrado por el horizonte (consulte la Fig. 8.2 para ver ejemplos de pares de rebanadas
para las que aumenta la entropía generalizada).
Tenga en cuenta que, por continuidad, W fut también puede tomarse como un rayo similar a la
luz cuyo parámetro afín es infinito para el futuro, ya que existen líneas de mundo aceleradas que
se aproximan asintóticamente a cualquier rayo similar a la luz. En este caso, W fut puede
encontrarse en su propio horizonte.
Al igual que el OSL, el GSL viene en dos versiones dependiendo de si elegimos la definición de
grano fino o grueso del estado ρ usado para calcular la entropía. En el caso del GSL de grano fino,
todavía puede haber un aumento de e ntropía no trivial debido al hecho de que la información
puede caer a través del horizonte entre ∑ y ∑ ′. (Otra forma de decir esto es que incluso en la
imagen de grano fino todavía estamos haciendo un análisis de grano grueso de toda la
información dentro del horizonte, una forma totalmente objetiva de análisis de grano grueso
[36]). Dado que esta es la única forma en que la entropía puede cambiar en la imagen de grano
fino, se deduce que la única parte de un segmento espacial ∑ que importa es donde cruza el
horizonte.
Por analogía con el OSL de grano fino, el GSL de grano fino debería mantenerse para todos los
estados del universo, sin necesidad de imponer ninguna condición inicial. (Esto se puede
verificar explícitamente para muchas de las pruebas existentes de la GSL en regímenes
particulares [28, 29]). Y si la GSL es verdadera en todos los estados, su tiempo inverso también
debe ser cierto en todos los estados [18].8

los establece que para cualquier línea de mundo infinita pasada W pasado, el horizonte
pasado H pasado = ∂I + (W pasado) no puede aumentar a medida que pasa el tiempo:

. (11)
Por supuesto, depende de las condiciones iniciales si hay líneas de mundo infinitas en el pasado

a las que el podría aplicarse. Si no hay ninguno, entonces el es trivialmente cierto,


aunque todavía puede ser útil en entornos astrofísicos en los que el espacio-tiempo puede
tratarse como asintóticamente plano y hay pasados W aproximados.
Por otro lado, el GSL de grano grueso también tendría en cuenta cualquier producción de
entropía de la materia fuera del horizonte de eventos. Esto tiene la ventaja de tratar los procesos
termodinámicos ordinarios en la misma base que la termodinámica del horizonte, pero tiene la
desventaja de que la verdad del GSL ahora debe depender de la existencia de una condición
inicial de baja entropía. En particular, el volumen del espacio-tiempo entre ∑ y ∑ ′ debe tener su
flecha termodinámica del tiempo apuntando hacia el futuro.
Excepto por la discusión de la flecha del tiempo en un universo infinito pasado (sección 4.2),
los resultados de este artículo usarán solo la versión detallada de la GSL.
El GSL, como lo he definido, ha sido probado para perturbaciones semiclásicas que cambian
rápidamente a horizontes estacionarios, para campos libres y / o horizontes de Rindler [29]. Las
pruebas también están disponibles para espaciotiempo clásico y para procesos semiclásicos
cuasi-estables [28]. Si el GSL se sostiene en una teoría completa de la gravedad cuántica es
obviamente menos seguro (véase la sección 5). Y en el caso de correcciones de mayor curvatura
a la gravedad de Einstein, aún no se sabe si se cumple incluso una segunda ley clásica [37],
excepto en el caso especial de la gravedad f (R) [38].

3 Teoremas de termodinámica generalizada


3.1 Propiedades de monotonicidad de la entropía
generalizada
Supongamos que tenemos una región del espacio-tiempo R que está bien descrita por la
gravedad semiclásica. “Semiclásico” es un término con múltiples significados [28], pero lo
interpretaré con el siguiente significado:
Expansión semiclásica:Se dirá que una región R es semiclásica si su física puede describirse
con precisión mediante un número finito de términos en una expansión controlada por ħG / λ2,
donde λ es la escala de longitud de cualquier campo cuántico que sea relevante para el problema.
Este es un procedimiento de arranque en el que comenzamos con (i) una métrica de fondo clásica
fija, (ii) cuantificamos campos de materia y / o gravitones linealizados sobre este fondo, (iii)
permitimos que estos campos perturben infinitesimalmente el fondo debido a efectos
gravitacionales no lineales , (iv) permitir que la perturbación del fondo afecte nuevamente a los
campos de materia, etc. Para simplificar, mantendremos G y λ fijos, y escribiremos los términos
de la expansión con respecto a ħ.9
Para la mayoría de los propósitos relacionados con la termodinámica gravitacional, es
suficiente detenerse en el paso (iii), que solo es necesario para calcular los cambios en la entropía
de Bekenstein-Hawking (que tiene un ħ − 1 en el denominador).
Suponemos (sin pruebas) que este procedimiento puede definirse bien mediante la
cuantificación perturbativa de gravitones, que a pesar de su no normalización debería ser válida
como teoría de campo eficaz cuando se trata con un corte ultravioleta mucho menor que la escala
de Planck [39]. Suponemos que en órdenes finitos en ħ, esto puede tratarse como si fuera una
teoría de campo cuántica ordinaria con evolución unitaria entre superficies de Cauchy. Cuando
ħ es infinitesimal, las simetrías de calibre del gravitón corresponden a difeomorfismos
infinitesimales. Esto indica que cualquier O observable de orden ħ n se puede localizar en el
espacio-tiempo de fondo hasta términos que son de orden superior en ħ.
En este contexto semiclásico, se asumirá que la entropía generalizada toma la siguiente forma:
Entropía generalizada: Se supondrá que la entropía generalizada de cualquier superficie de
codimensión 2 toma la forma

, (12)
donde A es el valor esperado de su área y S out es la entropía de von Neumann de la región
espacialmente exterior a ella, G> 0 es el valor de la constante de Newton en la escala de
renormalización y la corrección Q a la entropía de Bekenstein-Hawking se supone que está
subtitulado en ħ (o algún otro parámetro pequeño como la longitud de la cadena). Esto es natural
si Q proviene de correcciones radiativas, como se describe en la sección 2.2.
Suponemos que las divergencias en S out pueden regularse utilizando algún regulador
ultravioleta como la información mutua [40]. Este regulador debe cortar la entropía de
entrelazamiento a escalas de distancia menores que algunas ε, mucho más pequeñas que la
escala de longitud λ de los campos cuánticos (para capturar toda la física convergente) pero más
grande que L Planck para evitar el régimen de gravedad cuántica. .
Debido a que se conserva la entropía de grano fino, todas las superficies de Cauchy del exterior
deben tener el mismo valor de S out.
En el régimen semiclásico se puede mostrar el siguiente teorema útil sobre el aumento de la
entropía generalizada de grano fino al comparar dos superficies nulas:
Teorema 1:Sean N y M superficies nulas futuras de codimensión 1, cada una de las cuales divide
el espacio-tiempo en dos regiones, una Int "interior" y una Ext "exterior". Sea M dentro o sobre
N en todas partes (es decir, M ∩ Ext (N) está vacı́o). (La ubicació n de las super icies nulas puede
depender en general del estado de los campos).
Supongamos que hay una g geodésica nula que se encuentra tanto en N como en M, y un
segmento de tiempo ∑ que se cruza con g en g 0. Suponga que en alguna vecindad de g 0, el
espacio-tiempo es semiclásico y que N y M son suaves.10 Muy cerca de g 0, las superficies nulas N
y M casi coincidirán, pero pueden estar separadas por una pequeña distancia adecuada f.

Para cualquier vecindario en la vecindad de g 0, existe una manera de evolucionar el segmento


de tiempo ∑ hacia adelante en el tiempo en ese vecindario a un nuevo segmento ∑ ′, de modo
que la entropía generalizada aumente más rápido en M que en N:

. (13)
donde Δ indica el cambio en una cantidad cuando evoluciona de ∑ por ∑ ′. 11 El teorema 1 se
probará mediante una serie de tres lemas.
Lema A:En el punto g 0, la superficie M se expande al menos tan rápido como N. Vea la Fig. 8.3.
Figura 8.3 Dos superficies nulas N y M se representan como aparecen al mismo tiempo, en el corte ∑. N no está en ninguna parte
dentro de M y coincide con M en g 0. (i) los vectores nulos generadores ka, proyectados sobre la superficie ∑, deben ser normales
a las superficies nulas. Debido a que M solo puede doblarse hacia adentro en relación con N en g 0, se está expandiendo más rápido
que N allí (Lema A). (ii) f es la distancia adecuada entre las dos superficies nulas N y M, vista como una función de M. Cerca del
punto g 0, f tiene una pendiente muy suave y, por lo tanto, se pueden identificar los puntos en N y M. La integración de ∇ 2 f muestra
que siempre es posible encontrar un punto X cerca de g 0 en el que M se expanda más rápido que N, a menos que (iii) las superficies
coincidan exactamente en una vecindad de g 0 (Lema B).

Prueba:Dado que N y M coinciden y son suaves en el punto g 0, y M no puede cruzar de Int (N) a
Ext (N), N y M deben compartir el mismo plano tangente. La curvatura extrínseca nula de una de
las superficies nulas, por ejemplo, N se define como:

(14)
donde h ab es el retroceso del tensor métrico sobre la superficie del cod imension 2 ∑ ∩ N, y ka
es un vector nulo (orientado al futuro) que apunta en la dirección de los generadores nulos en N.
La curvatura extrínseca nula mide el cambio en la geometría de la superficie nula a medida que
se mueve en la dirección ka. Hay dos contribuciones. El primero es un componente temporal que
surge cuando el corte ∑ en sí mismo tiene una curvatura extrínseca, pero esto puede ignorarse
porque es el mismo para N y M. El segundo es un componente espacial proporcional a la
curvatura extrínseca K ab de ∑ ∩ N en ∑ (con un factor de normalizació n que proviene del
tamaño de la proyección de ka sobre el corte ∑). Para cualquier vector υ a y el punto x, la
componente de curvatura extrínseca K ab υ a υ b (x) mide cuánto se aleja la superficie N de su
plano tangente, al segundo orden, a medida que uno se aleja de x en la dirección de υ una . Un
valor positivo significa que se curva alejándose de la dirección de movimiento de la superficie
nula,
El hecho de que M esté dentro de N ahora impone restricciones a la curvatura extrínseca de N
y M en g 0. Como N está fuera de M, N debe doblarse hacia afuera al menos tanto como M. Por
eso:

(15)
La expansión de una superficie nula está relacionada con la curvatura extrínseca nula de la
siguiente manera:

, (dieciséis)
donde A es el área infinitesimal cerca de un generador, y λ es un parámetro afín que satisface λ,
también conocido como = 1. La ecuación. (15) luego requiere que en la vecindad de g 0,

. (17)
QED
Si la desigualdad estricta θ (M)> θ (N) se cumple, entonces, por continuidad, la desigualdad
(17) también se cumple en una vecindad del punto g 0. En el límite clásico S out puede
despreciarse, por lo que θ da el cambio de entropía . En este caso especial, sigue el Teorema 1.
En el caso saturado donde θ (M) = θ (N), el Lema A no es suficiente. Para probar la versión clásica
del Teorema 1, es necesario alejarse una pequeña distancia del punto g 0:
Lema B:En cualquier vecindario pequeño de g 0, o hay un punto X en el que θ (M)> θ (N), o M y
N coinciden en todas partes en ese vecindario. En el primer caso, el área aumenta más rápido en
M que en N cuando ∑ se empuja hacia adelante en el tiempo lo suficientemente cerca del punto
X; en el último caso, el aumento de área es el mismo para M y N en todo el vecindario. De cualquier
manera, el Teorema 1 es clásico.
Comentario 1.1: El lema A es un caso especial del lema B y se probó por separado por razones
pedagógicas.
Prueba:En el corte espacial ∑, deje que la distancia adecuada más corta entre las superficies M
y N esté dada por una función f (M). Dado que los planos tangentes de N y M coinciden en g 0, f
desaparece a cero y primer orden cuando uno se aleja de g 0. Dado que f es solo distinto de cero
en segundo orden y superior, en una vecindad de escala de longitud e, . Debido a que la
distancia entre M y N es en este sentido pequeña, es posible identificar puntos en N y M, lo que
permite definir la función en cualquiera de las dos superficies nulas: f (N) = f (M).
Esta identificación de puntos en N y M también permite comparar los vectores generadores de
nulos ka en N y M (figura 8.3). Cuando el ka de N o M se proyecta sobre ∑, debe ser normal a esa
superficie, porque un frente de luz siempre viaja en la dirección perpendicular al frente mismo.
Entonces ka (∑) = cn a, donde na es un vector normal que apunta hacia afuera yc> 0 es una
constante arbitraria dependiendo de la normalización del parámetro afín λ en N y M. Para
comparar los vectores ka, λ será elegido de modo que c = 1 en todas partes en N y M.
Para ∇f pequeño, esto se puede usar para encontrar la diferencia entre ka en N y M.

(18)
donde hasta los términos de orden superior, Δk a se encuentra en la superficie D - bidimensional
M ∩ ∑ (o N ∩ ∑). La diferencia de curvatura extrı́nseca ahora se puede calcular a partir de la Ec.
(14):

, (19)
donde las derivadas covariantes son intrínsecas a la superficie ∑ ∩ N. Junto con Eq. (16) esto
implica

(20)
que es una derivada total. Sea M (o N) una coordenada r que represente la distancia adecuada
desde g 0, y sea dσ el elemento de volumen en el espacio dimensional (D - 3) de r constante en M
∩ ∑.
Definamos una función de Green G (y) en la bola de puntos y con r <R, para que sea la solución
a estas ecuaciones:

. (21)
Para un R suficientemente pequeño, la métrica h ab está muy cerca de ser una métrica euclidiana
plana, de modo que G ∝ (r D −4 - RD −4) / (D - 4) (o ln (R / r) en D = 4). En cualquier dimensión,
G (y)> 0 para r <R, y por lo tanto ∂ r G | r = R <0. Para un R suficientemente pequeño, estas
desigualdades deben continuar siendo válidas si la métrica se deforma ligeramente por una
curvatura distinta de cero. Ahora se puede usar G para integrar Δθ en la codimensión 2 bola B:

. (22)
donde hemos integrado por partes dos veces y usamos el hecho de que f (0) = 0.

Ahora bien (i) f = 0 en una vecindad de x, o bien (ii) uno puede encontrar valores
arbitrariamente pequeños de R tales que el lado derecho de la Ec. (22) es estrictamente positivo,
en cuyo caso Δθ también debe ser positivo para al menos algunos puntos arbitrariamente
cercanos a x. QED
El tema del tercer lema es el término de entropía exterior S out, sobre el que todavía no se ha
mostrado nada.
Lema C: Si las dos superficies N y M coinciden en una vecindad de g 0, y ∑ evoluciona hacia
adelante en el tiempo hasta ∑ ′ en esta vecindad, la entropía S out aumenta más rápido en M que
en N.
Prueba: Existe una cantidad teórica de información llamada información mutua I (B, C), definida
para dos sistemas separados B y C, que mide la cantidad por la cual la entropía deja de ser aditiva:

. (23)
La información mutua mide la cantidad de entrelazamiento entre los sistemas B y C. Para todos
los sistemas de mecánica cuántica, esta cantidad aumenta monótonamente a medida que se
aumenta el tamaño de uno de los sistemas agregando un tercer sistema D [40]:

. (24)
Esto tiene sentido intuitivamente, ya que se espera que la cantidad de entrelazamiento entre dos
sistemas solo se pueda aumentar cuando se amplía un sistema. Esta propiedad se puede
aprovechar estableciendo:

(25)

(26)

(27)
donde Δ∑ es el volumen del espacio-tiempo entre ∑ y ∑ ′. Vea la Fig. 8.4.
Figura 8.4(i) Dos superficies nulas M y N dibujadas en un segmento de tiempo ∑, donde N no está en ninguna parte dentro de M.
Coinciden en una vecindad de g 0. Esta es la misma situación que la figura 8.3, ilustrada con una elección diferente de M y N. La
línea de puntos es la sección transversal espacial utilizada para hacer (ii) un diagrama de espacio-tiempo de la misma situación. N
y M se mueven hacia afuera a la velocidad de la luz. El segmento de tiempo ∑ evoluciona hacia adelante en el tiempo a un nuevo
segmento de tiempo ∑ ′ cerca de g 0. Toda la informació n en Ext (M) ∩ ∑ está contenida en tres regiones: B, C y D. La eliminació n
de la región D solo puede disminuir la cantidad de entrelazamiento entre B y C, que se puede usar para mostrar que la entropía
fuera de M aumenta más rápido que la entropía fuera de N.

Ahora por Eq. (23),

(28)
Similar,

, (29)
donde la rebanada C ∪ D ha evolucionado hacia atrá s hasta la super icie ∑, utilizando el hecho
de que la evolución temporal unitaria conserva la entropía. Sustituyendo la ecuación. (28) y Eq.
(29) en la monotonicidad Eq. (24), se obtiene

, (30)
lo que muestra que la entropía exterior está aumentando tan rápido para M como para NQED
Prueba del teorema 1:En el límite semiclásico, cualquier efecto que sea de orden superior en ħ
estará dominado por cualquier efecto distinto de cero que sea de orden inferior en ħ. Sea la
contribución de orden principal a θ (M) −θ (N) de orden ħ p +1, que corresponde a una

contribución de orden ħ p a , ya que la entropía de Bekenstein-Hawking (9) tiene


una ħ en el denominador. El lema B dice que en cada orden en ħ, o N y M coinciden o bien

para una elección adecuada de ∑ evolución. Aplicando el Lema B al orden ħ

p +1, se obtiene que la contribución del orden ħ p a es positivo. Aplicando el Lema


B en el orden ħ p, se obtiene que N y M coinciden en el orden ħ p. Dado que Q es sublíder, no hay
una contribución de orden de ħ p procedente de ΔQ (M) - ΔQ (N).

Deje que la contribución de la orden principal a ser de orden ħ q. Si p ≤ q, entonces


el término de área domina sobre el término de entropía. Si p ≥ q, dado que en este orden las
superficies nulas coinciden, el lema C dice que S out aumenta más rápido para M que para N. De
cualquier manera, se sigue el teorema 1.
El único caso no cubierto por el argumento anterior es cuando ambos p = q = + ∞, es decir,
cuando N y M coinciden con todos los órdenes en ħ. Pero entonces su entropía generalizada es
idéntica a todos los órdenes y, por tanto, el Teorema 1 es verdadero. QED
Corolario 1.2:Al menos de manera semiclásica, uno puede extender la noción de un horizonte
causal hasta el límite del pasado de la unión de cualquier número de líneas de mundo similares
a la luz o al tiempo infinitas en el futuro. La razón es que cualquier punto en tal horizonte debe
estar en el horizonte de una de las líneas de mundo, y luego el Teorema 1 muestra que el GSL
para la unión se hereda del GSL para esa línea de mundo.
Corolario 1.3:Por otro lado, si se mide S en una región menor que todo el exterior de un
horizonte, no siempre se espera que la entropía aumente. En particular, en el estado de Hartle-
Hawking, la existencia de un entrelazamiento distinto de cero hará que la ecuación. (24) positivo,
lo que implica que cualquier región menor que todo el exterior tendrá una entropía decreciente,
como en la Ref. [41].
Comentario 1.4: La suposición semiclásica es innecesaria siempre que M y N coincidan en una
vecindad de g 0. Esto se debe a que el Lema C depende solo de las propiedades teóricas
puramente informativas de S out, por lo que solo es necesario saber que Ext (N) es un cuanto
subsistema de Ext (M).
Comentario 1.5: Con la posible excepción del resultado sin impulso de deformación en la
sección 4.3, los resultados de la sección 4 solo dependen de la parte clásica del teorema 1. Esto
se debe a que en esos casos, la superficie nula M a la que se aplica el teorema ya tiene una
disminución clásica de ħ − 1 en la entropı́a generalizada, y lo ú nico que debe probarse es que N
también tiene una entropía generalizada decreciente.
Teorema 2:Sea una región globalmente hiperbólica del espacio-tiempo R cortada por una
superficie nula N en dos regiones P y F, de modo que la información pueda ir de P a F al caer a
través de N, pero no al revés. Sean ∑ y ∑ ′ dos superficies de Cauchy de R, con la última en ninguna
parte del pasado de la primera. Vea la figura 8.5. Entonces, la entropía generalizada de P menos
la entropía generalizada de F no puede aumentar a medida que pasa el tiempo:

Figura 8.5 La región R está dividida por una superficie nula N en una región pasada P y una región futura F. Un segmento de tiempo
∑ de R evoluciona hacia adelante en el tiempo hasta ∑ ′. Toda la información en R se almacena en las tres regiones B, C y D. La
monotonicidad débil implica que la entropía generalizada de F aumenta más rápido que la entropía generalizada de P.
(31)
Prueba:La prueba dada en la Ref. [18] se resume aquí. Dado que las regiones I - (N) e I + (N)
comparten el mismo límite N en el interior de R, el cambio en la entropía del horizonte ΔS H es
el mismo para ambos. Además, cualquier divergencia en la entropía de entrelazamiento cerca
del límite debe ser la misma en ambos lados [18]. Entonces, la única cantidad que puede ser
diferente es la parte convergente de los términos S out. En todos los sistemas de mecánica
cuántica, la entropía de tres sistemas cuánticos disjuntos B, C, D obedece a la condición de
monotonicidad débil [42]:

. (32)
Intuitivamente, cuanto más se entrelaza un sistema con un sistema cuántico, menos se puede
entrelazar con otro. Establezca B = F ∩ ∑, C = P ∩ ∑ ′ y D = N ∩ Δ∑ (donde Δ∑ es la región entre
∑ y ∑ ′). La evolución unitaria en el tiempo se puede usar para hacer evolucionar el segmento B
∪ D hacia adelante en el tiempo hacia ∑ ′, y para evolucionar C ∪ D hacia atrá s en el tiempo hacia
∑, sin cambiar la entropía, por lo que la Ec. (32) evalúa a

, (33)
que luego implica la ecuación. (31). QED

Corolario 2.1: El GSL (de grano fino) y no se puede mantener en la misma superficie nula
N a menos que ambos estén saturados, y la monotonicidad débil también esté saturada. En un
estado adecuadamente genérico, estas desigualdades no estarán saturadas, por lo que N no
puede ser tanto un horizonte pasado como futuro.
Comentario 2.2:Para los Teoremas 1 y 2, al aplicar las propiedades de monotonicidad (24) o
(32), uno puede preocuparse de que el procedimiento de renormalización necesario para hacer
que S sea finito interfiera con la propiedad de monotonicidad. Sin embargo, siempre que las
cantidades infinitas restadas de la entropía de una región solo dependan de características
extensas e invariantes de Lorentz del límite de la región, los términos divergentes se combinan
de tal manera que se cancelan en el resultado final. Cf. Árbitro. [18] para una discusión más
detallada de este punto.
Comentario 2.3:Debido a que el teorema 2 se deriva de propiedades teóricas de la entropía
puramente informativas, no se requiere la aproximación semiclásica. Los únicos requisitos son
que las regiones B, C, D sean sistemas cuánticos disjuntos con entropía definida y que la
evolución temporal de ∑ a ∑ ′ sea unitaria y causal.

3.2 Superficies cuánticas atrapadas


La GSL, tal como se formula en la sección 2.2, se aplica solo a los horizontes causales. Siempre
existen algunas superficies nulas N para las que la entropía generalizada está disminuyendo (por
ejemplo, para N = ∂I - (p), donde p es un punto, la entropía generalizada siempre disminuye cerca
de p). Esto no contradice el GSL siempre que N no sea un horizonte. Por tanto, el GSL es
lógicamente equivalente a la afirmación de que cualquier superficie nula N con entropía
decreciente no es un horizonte causal.
Eso, a su vez, significa que no existe ninguna línea de mundo W fut que sea infinita para el
futuro y para la cual N sea el límite del pasado de ese observador. Esto se puede usar para
mostrar que ciertas superficies nulas deben terminar necesariamente:
Teorema 3:Sea N una superficie nula acronal, tal que g sea un generador nulo de N, y exista un
punto g 0 en g en el que la entropía generalizada de grano fino está disminuyendo. Es decir, existe
un segmento espacial ∑, tal que para cualquier vecindario alrededor de g 0, hay una forma de
empujar el segmento hacia adelante en el tiempo en ese vecindario a un nuevo segmento ∑ ′, de
modo que

. (34)
Por lo tanto, si N fuera un horizonte, el GSL de grano fino se violaría para la evolución en el tiempo
cerca de g 0.
Suponga que la aproximación semiclásica se mantiene cerca de g 0, mientras que para el resto
del espacio-tiempo solo asumimos que puede ser descrita por una variedad de Lorentz. Entonces
el GSL implica que el generador nulo g no se puede extender infinitamente en N (ya sea porque
sale de N, o porque el espacio-tiempo es nulo geodésicamente incompleto).
Prueba:Si g permanece en N durante una distancia afín infinita, entonces también debe ser
acronal. Además, tendrá un horizonte H en el que se satisface el GSL, ya que el GSL también debe
aplicarse a los horizontes de infinitos rayos nulos como se discutió en la sección 2.2. H debe estar
completamente en el pasado de N, porque el pasado de g debe ser un subconjunto del pasado de
N. Dado que g es similar a la luz y acronal, g debe ser un generador de H así como de N. Entonces
el teorema 1 implica que la entropía generalizada también está disminuyendo en H, lo que
violaría la GSL. QED

Si el espacio-tiempo es globalmente hiperbólico, entonces se puede mostrar un resultado más


fuerte para ciertas superficies.
Hiperbolicidad global: Un espacio-tiempo es globalmente hiperbólico si ambos a) no hay
curvas causales cerradas12 y b) para dos puntos cualesquiera pyq, J + (p) ∩ J - (q) es compacto.
La hiperbolicidad global implica que hay superficies de Cauchy que se cruzan cada línea
temporal similar a un tiempo exactamente una vez. Además, se puede encontrar un campo
vectorial suave similar al tiempo, cuyas curvas integrales deben intersecar cualquier superficie
de Cauchy exactamente una vez [6].
Superficie cuántica atrapada:Sea un corte de Cauchy conectado ∑, que contiene una superficie
compacta de codimensión 2 T que la divide en dos regiones Ext (T) e Int (T), de modo que Ext
(T) no es compacta. Supongamos que una superficie nula N se dispara desde T hacia afuera y
hacia el futuro; N puede definirse con mayor precisión como el límite futuro del dominio de
dependencia del exterior: ∂ + D [Ext (T)]. Tal límite es necesariamente acronal. Si la entropía
generalizada de grano fino de N disminuye con el tiempo para cada punto g 0 en T (en el sentido
descrito anteriormente en el Teorema 3), entonces T es una "superficie atrapada cuántica".
Comentario 4.1:En el límite clásico, la entropía generalizada se convierte en el área, y la
definición se reduce a la clásica habitual: una superficie T está atrapada clásicamente si el área
de la superficie N está disminuyendo en todas partes en T cuando se mueve hacia afuera hacia el
futuro. Por analogía con esto, T está atrapado cuánticamente si es una superficie compacta para
la cual la entropía generalizada está disminuyendo en todas partes en un N compacto que se
mueve hacia afuera, cerca de cada punto g 0 de T.
Comentario 4.2:La existencia de una superficie cuántica atrapada no viola necesariamente el
GSL, porque el GSL solo se aplica a horizontes futuros, y N no es necesariamente un horizonte.
Sin embargo, si una superficie cuántica atrapada fuera un horizonte, entonces violaría el GSL en
todas partes en T.
Teorema 4:Supongamos que existe un espacio-tiempo globalmente hiperbólico con una
superficie T atrapada cuántica, como se describió anteriormente. Deje que la aproximación
semiclásica sea válida cerca de T (pero no necesariamente en otro lugar). Entonces, el GSL de
grano fino requiere que el espacio-tiempo no sea nulo geodésicamente completo, es decir, que
haya una singularidad en alguna parte.
Prueba: Según el teorema 3, cada uno de los segmentos del generador nulo en N, es decir
,debe terminar en algún valor finito del parámetro afín λ, porque la entropía
generalizada está disminuyendo en él. A partir de este punto, el argumento es el mismo que el
teorema clásico de la singularidad de Penrose [6] que resumimos aquí:
Suponga por contradicción que la variedad es nula geodésicamente completa. En ese caso, cada
segmento puede extenderse al futuro más allá de N, y por lo tanto incluye su propio punto
final, como parte de N. Podemos cambiar la escala del parámetro afín de modo que λ = 0 en T y λ
= 1 en los puntos finales. Esto nos permite escribir N como el producto topológico T × [0, 1],
excepto que algunos de los puntos finales en λ = 1 pueden identificarse entre sí. Dado que T es
compacto y también lo es el segmento de línea cerrada [0, 1], se deduce que N es compacto.

Sin embargo, la hiperbolicidad global evita que un segmento espacial no compacto ∑


evolucione en el tiempo a un segmento espacial compacto N. Para ver esto, elija un campo
vectorial suave similar al tiempo ta cuyas curvas integrales se intersecan ∑ una vez. Como N es
acronal, las curvas integrales de ta intersecan a N como máximo una vez. ta se puede utilizar para
definir un homeomorfismo de N a parte de ∑. Dado que N es compacto y sin límite, debe
mapearse en un subespacio de ∑ que es en sí mismo compacto y sin límite, pero esto contradice
el hecho de que ∑ está conectado y no es compacto. Por tanto, el espacio-tiempo en realidad debe
ser nulo, geodésicamente incompleto. QED
Para obtener descripciones más detalladas de la prueba de Penrose, consulte la Ref. [6].
Comentario 4.3:Esto muestra que el teorema de la singularidad de Penrose se puede generalizar
a los espaciotiempos cuánticos siempre que se mantenga el GSL de grano fino. Esta idea de que
el GSL da lugar a un análogo de superficies atrapadas está implícita en el "límite cuántico de
Bousso" propuesto por Strominger y Thompson [44].

Comentario 5: Dado que por simetría de inversión del tiempo el debe ser tan cierto como
el GSL detallado, las inversiones de tiempo de los teoremas 1-4 también son válidas.

4 aplicaciones
4.1 Agujeros negros y bebés
Ahora aplicaremos el GSL de grano fino al caso del colapso de un agujero negro para mostrar que
debe haber una singularidad de agujero negro en alguna parte (o un horizonte de Cauchy debido
a la falla de la hiperbolicidad global). Esto requiere una "superficie atrapada cuántica" en la que

se está violando el GSL. Para un agujero negro con radio , el agujero negro debería
describirse normalmente mediante una métrica aproximadamente clásica. Por lo tanto, es
suficiente encontrar una superficie T que esté clásicamente atrapada (es decir, su área se contrae
antes de tener en cuenta cualquier efecto cuántico). Esta disminución de área implica entonces
una disminución de O (ħ − 1) en la entropı́a generalizada, que no puede ser compensada por el
aumento de O (ħ0) en S out. En consecuencia, la superficie T también está atrapada
cuánticamente, lo que según el Teorema 4 implica que debe ser nula, geodésicamente incompleta
o no globalmente hiperbólica, exactamente el mismo resultado obtenido por el teorema de la
singularidad de Penrose, pero ahora aplicable a ciertas situaciones de la mecánica cuántica.
Sin embargo, el hecho de que haya una singularidad en alguna parte no significa
necesariamente que deba haber una singularidad en todas partes. ¿Es posible evitar las
singularidades de alguna manera y terminar en un nuevo universo? Definamos con más cuidado
lo que queremos decir con un universo bebé: un universo bebé es una región del espacio-tiempo
que está 1) dentro del horizonte de eventos de un agujero negro, 2) contenida en el futuro del
exterior del agujero negro, y 3) puede durar un tiempo indefinidamente largo, medido por al
menos un observador. Es decir, debe poder existir una línea de mundo infinita en el futuro W fut
dentro del horizonte de sucesos. (Tenga en cuenta que si el universo bebé termina en una fase
de expansión tipo De Sitter, puede haber múltiples opciones de W fut que están separadas por
horizontes causales).
Proviso (1) asegura que el universo bebé es distinto del universo madre. Proviso (2) descarta
otros universos que no están formados completamente a partir de nuestro propio universo, pero
que tienen pasados que están causalmente desconectados con nuestro propio universo. En
particular, el universo bebé no debería haber surgido de una singularidad inicial propia. Por
ejemplo, Schwarzschild-de Sitter no sería un ejemplo de un espacio-tiempo del universo bebé.
Proviso (3) es necesario para distinguir un universo bebé de la imagen habitual del interior de
un agujero negro en el que todo debe terminar en una singularidad en un tiempo propio finito. 13
Suponga que el agujero negro está en un espacio-tiempo asintóticamente plano. Hay dos
coordenadas de tiempo diferentes que se pueden utilizar para parametrizar cualquier W fut. Sea
una gran esfera estacionaria alrededor del agujero negro con una coordenada de tiempo
adecuada t. La coordenada de tiempo avanzada υ (x) de cualquier punto x se define como el valor
máximo de t en esa parte de la esfera que está al pasado de x. Otra posible coordenada es el
tiempo adecuado τ de la línea de tiempo W fut dentro del universo bebé. Los universos bebés se
pueden clasificar por medio de la relación monótona entre las dos coordenadas de tiempo υ (τ)
de la siguiente manera (ver Fig. 8.6):

Figura 8.6 Ejemplos de diagramas de Penrose para universos bebés que se forman a partir de un agujero negro colapsado. Cada
universo bebé se muestra al futuro de una línea dentada que representa la singularidad clásica, y tiene una línea de mundo infinita
futura W fut cayendo en ella. Esta singularidad clásica puede resolverse en algunos lugares mediante efectos cuánticos, sin
embargo, el GSL requiere que las singularidades verdaderas también aparezcan en algún lugar del espacio-tiempo (también
mostrado por líneas dentadas). Además, impone restricciones sobre los tipos de universos bebés que son posibles. (i) Un universo
bebé viable, descartado por la GSL. Dado que el universo del bebé termina en una fase de De Sitter, se pueden seleccionar varios
horizontes futuros diferentes dependiendo de la elección de W fut. En el ejemplo que se muestra, el agujero negro se evapora por
completo, lo que resulta en un espacio desconectado. Sin embargo, el GSL también excluye a los bebés viables que permanecen
conectados al universo materno. (ii) Un universo bebé dependiente, permitido por la GSL. El agujero negro no puede evaporarse
por completo. (iii) Un universo bebé trascendental, descartado por la hiperbolicidad global. En τmax, la línea mundial W fut cruza
un horizonte de Cauchy. A medida que cruza, ve la historia completa del universo exterior, infinitamente cambiada de azul.

1. Bebés viables: los médicos consideran que un feto es viable cuando es capaz de existir por
sí solo sin más soporte vital del útero de la madre. Adaptando esta definición para los
universos bebés, definamos un “universo bebé viable” como un bebé que eventualmente
se vuelve capaz de existir causalmente por sí mismo sin el apoyo de la madre. Esto
requiere que exista al menos un W fut tal que τ → + ∞, υ → υ max para algún υmax finito.
Esto equivale a decir que W fut está en el futuro de una región espaciotemporal compacta.
2. Bebés dependientes: Un universo bebé es dependiente si requiere influencias causales
continuas provenientes del universo madre para seguir existiendo. Aparte de estas
influencias causales, el bebé solo puede durar un tiempo específico finito. Esto significa
que para todo W fut, τ → + ∞, υ → + ∞.
3. Bebés trascendentales: La posibilidad lógica restante es que para algunos W fut, τ → τ max
para algunos τmax initos, υ → + ∞. Esto signi ica que el universo bebé requiere un
período infinito de gestación para alcanzar un tiempo finito adecuado, ¡y luego pasa a ser
independiente! Este comportamiento muy extraño viola la hiperbolicidad global, porque
si uno toma un punto p fuera del horizonte, y un punto q ∈ W fut con τ> τ max), la región I
+ (p) ∩ I + (q) causalmente entre ellos no es compacto. Por tanto, W fut cruza un
horizonte de Cauchy en τmax. Por lo tanto, fallaría la capacidad de predicción a lo largo de
la superficie de Cauchy a menos que entrara en juego algún nuevo principio de física no
local. Un ejemplo de tal espacio-tiempo es la métrica de Reissner-Nordström
analíticamente continuada.

Un universo bebé comenzará a estar conectado al universo madre por un cordón umbilical a
través del horizonte de eventos del agujero negro. Sin embargo, un agujero negro dejado en el
vacío eventualmente irradiará su masa hasta que alcance la escala de Planck. Lo que sucede
después de eso depende de las suposiciones de cada uno sobre la gravedad cuántica. Si el agujero
negro se evapora por completo, entonces la conexión debe romperse a un valor finito de υ. Llame
al universo bebé resultante un bebé desconectado. (Supondremos que una vez que el universo
bebé se desconecta, permanece separado en lugar de reconectarse en un momento posterior).
Tales espaciotiempos cambiantes de topología no son hiperbólicos globalmente [45]. Sin
embargo, este tipo de violación de la hiperbolicidad global bien podría ser físicamente razonable,
ya que la pérdida de predictividad solo ocurre en un único punto de la variedad.
La alternativa es un bebé conectado, que siempre permanece conectado al universo madre, ya
sea porque queda un remanente de la evaporación del agujero negro o porque el agujero negro
está iluminado por suficiente materia que cae para evitar la evaporación total. También es
posible que un bebé conectado sea viable si, por ejemplo, entra en una fase de expansión de De
Sitter, de modo que se formen horizontes alrededor de las líneas de mundo futuras individuales.
Todos los bebés viables, ya sean globalmente hiperbólicos o no, son descartados por el GSL,
porque la condición de viabilidad asegura que W fut tenga un horizonte futuro espacialmente
compacto ∂I - (W fut) existente fuera del agujero negro, que separa los puntos que puede influir
causalmente en el universo bebé desde los puntos que no pueden. Sin embargo, cuando se traza
el horizonte ∂I - (W fut) hasta la región asintótica lejos del agujero negro, entonces su entropía
generalizada debe estar disminuyendo con el tiempo. Para mostrar esto, primero
consideraremos el caso simétrico esférico y luego generalizaremos al caso simétrico no esférico.
Supondremos que la aproximación semiclásica es válida en la región asintóticamente plana, lejos
del agujero negro.
En el caso de simetría esférica, el horizonte futuro se define por υ = υ max (el último momento
del tiempo avanzado desde el cual una señal puede llegar al universo bebé). Lejos del agujero
negro, el horizonte es, por tanto, una esfera que se contrae. Dado que el área de tales superficies
está disminuyendo en la métrica clásica de fondo de un agujero negro, la entropía del área de
Bekenstein-Hawking se está reduciendo en un término O (ħ − 1). Cualquier corrección cuántica
procedente de S out es O (ħ0), que es de orden inferior en la expansión semiclásica. En
consecuencia, la entropía generalizada de un horizonte futuro está disminuyendo,
contrariamente a la GSL.
Si el espacio-tiempo no es esféricamente simétrico, entonces ∂I - (W fut) puede mentir
parcialmente al pasado de υ = υ max. Sin embargo, sigue siendo cierto que ∂I - (W fut) llega hasta
el infinito nulo pasado, y que el área asintótica de ∂I - (W fut) ∩ I - es infinita. Por otro lado, el
área de una rebanada compacta de ∂I - (W fut) es finita cuando la rebanada se toma a una
distancia grande (pero finita) del agujero negro. Para pasar del área infinita al área finita, debe
existir algún punto g 0 lejos del agujero negro donde ∂I - (W fut) se contrae clásicamente. Pero
luego, por el mismo argumento que en el párrafo anterior, la entropía generalizada disminuye
en g 0.
Por lo tanto, si la GSL es verdadera, no puede existir tal W fut; en otras palabras, no hay un
universo bebé viable. Ésta es una generalización de un teorema de la relatividad general clásica
utilizando la condición de energía nula [8].
Hasta ahora no hemos asumido que el espacio-tiempo del bebé sea globalmente hiperbólico.
La hiperbolicidad global descartaría a los bebés trascendentales, así como a los bebés
desconectados. Pero de los dos, los bebés trascendentales parecen mucho más patológicos
debido al “infinito desplazamiento hacia el azul” de los modos de campo que atraviesan el
horizonte en tiempos tardíos. Entonces, incluso si se permiten eventos de cambio de topología,
todavía parece razonable rechazar a los bebés trascendentales. Eso excluiría el proceso de túnel
cuántico propuesto, descrito en la Ref. [46], así como el espacio-tiempo del universo bebé de Ref.
[24]. (Incluso si se permitieran bebés trascendentales, probablemente serían muy sensibles al
destino a largo plazo del universo, ya que solo pueden surgir dentro de agujeros negros que
tienen una probabilidad finita de nunca evaporarse por completo).
Por lo tanto, asumiendo tanto el GSL como la hiperbolicidad global, solo se permite la
posibilidad de bebés dependientes. La razón por la que la GSL no prohíbe a los bebés
dependientes es que I - (W fut) incluye todo el exterior del agujero negro. Por tanto, no hay
horizonte que separe los puntos que pueden influir en el bebé de los puntos que no pueden. Sin
embargo, debido a que los bebés deben ser dependientes, las oportunidades para la creación del
universo son limitadas.
En primer lugar, un universo bebé dependiente siempre debe permanecer conectado por su
cordón umbilical al universo madre para que no muera. Pero cualquier agujero negro que se deje
solo se evaporará debido a la radiación de Hawking. Entonces, a menos que se permitan los
remanentes, todo lo que está dentro del agujero negro debe ser destruido si el agujero negro deja
de alimentarse.
En segundo lugar, un universo bebé dependiente no puede tener una cosmología similar a
nuestro propio universo, que parece dirigirse a una fase de expansión de De Sitter. El espacio de
De Sitter tiene un horizonte de futuro compacto alrededor de cualquier línea de mundo infinita
futura W fut. Sea un segmento espacial ∑ en el que ∑ ∩ J - (W fut) es una región compacta.14 Para
cualquier bebé no trascendental, υ debe ser inito en todos los puntos de ∑ ∩ J - (W fut). Dado
que υ es una función continua, por compacidad, esto significa que υ tiene un límite superior en
la región ∑ ∩ J - (W fut). Esto significa que ninguna información puede llegar a W fut después de
un cierto tiempo avanzado υ; por tanto, el universo bebé es viable. En consecuencia, ningún
universo bebé dependiente puede terminar en una fase de expansión de De Sitter.
Entonces, la GSL requiere que cualquier universo bebé (y su progenie para siempre) debe
permanecer dependiente de este, y tener una cosmología diferente a la que parece tener nuestro
propio universo. (Las restricciones adicionales sobre la formación del universo vendrán dadas

por el en la siguiente sección.)


Reinicio de la inflación.Suponiendo el GSL y la hiperbolicidad global, el mismo argumento que
descarta los universos bebés también implica que no se puede reiniciar la inflación en un espacio
asintóticamente de Minkowski, ya que los horizontes de De Sitter del futuro compacto violarían
el GSL en la región del espacio-tiempo de Minkowski. En otras palabras, cualquier región
inflacionaria se convertiría en un universo bebé viable y, por tanto, quedaría descartada. Esto
corresponde a un resultado clásico utilizando la condición de energía nula [8]. También está de
acuerdo con el argumento AdS / CFT de la Ref. [47]. Por otro lado, la prohibición de los universos
bebés parece entrar en conflicto con los cálculos instantáneos semiclásicos [48] de las
probabilidades de túnel cuántico para reiniciar la inflación. Sin embargo, estos cálculos
instantáneos corresponden a variedades euclidianas sobre métricas degeneradas. Su validez es
controvertida [49].
Agujeros de gusano transitables.De manera similar, no puede haber agujeros de gusano
atravesables entre dos regiones distantes del espacio-tiempo, porque cualquier línea de mundo
que cruzara desde el infinito nulo pasado de una región hasta el infinito nulo futuro de la otra,
tendría que tener un horizonte futuro de contracción clásica en la primera región. Nuevamente,
este resultado es análogo a un resultado clásico usando la condición de energía nula [7].
De Sitter y Anti-de SitterLos argumentos de esta sección también se pueden aplicar al espacio-
tiempo asintóticamente anti-de Sitter, y más generalmente a cualquier espacio-tiempo en el que
se contraigan grandes superficies nulas entrantes. (Por lo tanto, no importa que el espacio Anti-
de Sitter viole la hiperbolicidad global debido a su límite en el infinito espacial). En el caso de
agujeros de gusano entre dos espaciotiempos de AdS asintóticamente, la prohibición de
atravesar el agujero de gusano está de acuerdo con AdS / CFT [50]. Dado que tales espaciotiempo
tendrían dos límites conformes disjuntos, no hay forma de que la información pueda transmitirse
causalmente de un CFT al otro.
En el caso del espacio de De Sitter, las superficies nulas entrantes se contraen solo si son lo
suficientemente pequeñas. Por lo tanto, la GSL solo restringe los universos bebés y las regiones
inflacionarias en el espacio de De Sitter si sus horizontes están en una escala de distancia más
corta que el radio de De Sitter. Puede ser que esto imponga limitaciones a los escenarios de
inflación eterna. Sin embargo, para abordar la inflación eterna es necesario considerar
cuidadosamente el papel de las fluctuaciones de la entropía (véase la sección 5.1, nota al pie 19).

4.2 Big bangs y comienzos


¿El universo tuvo un comienzo en el tiempo? Ya hemos discutido dos argumentos incompletos
que lo hicieron: a) En la sección 2.1, el OSL de grano grueso se usó para argumentar que si la
flecha termodinámica del tiempo siempre apunta hacia adelante, solo puede haber una cantidad
finita de producción de entropía en nuestro pasado. . Sin embargo, el argumento falló para
sistemas gravitacionales como la relatividad general debido a la posibilidad de que la entropía
pudiera aumentar sin límite, permitiendo sistemas con entropía infinita pero creciente. b) En la
relatividad general clásica, se puede utilizar el teorema de la singularidad de Penrose para
argumentar que si el universo es espacialmente infinito, debe haber habido una singularidad
inicial. Pero este teorema usa la condición de energía nula, que falla para los campos cuánticos. 15
En esta sección utilizaremos termodinámica generalizada para probar los análogos cuánticos
de (a) y (b). Supongamos que, aunque el universo primitivo puede haber sido cuántico y no
homogéneo, en épocas tardías y en escalas de gran distancia, el universo es descrito por alguna
cosmología clásica de Friedmann-Robertson-Walker (FRW) en expansión. La aplicación del
teorema clásico de Penrose a la cosmología del Big Bang utiliza el hecho de que una esfera T
suficientemente grande en una cosmología FRW en expansión es una superficie anti-atrapada,
es decir, incluso la superficie nula que se mueve hacia adentro generada a partir de T se está
expandiendo. Cuando, en cambio, estos rayos se rastrean hacia atrás en el tiempo, se contraen y
se mueven hacia afuera. Suponiendo hiperbolicidad global, al menos un rayo debe ser nulo
geodésicamente incompleto, lo que implica una singularidad.
Para generalizar este resultado al caso cuántico, tenga en cuenta que si las superficies anti-
atrapadas están en una región semiclásica del espacio-tiempo, el hecho de que T sea
clásicamente anti-atrapada significa que también es cuántica anti-atrapada, lo que significa que
la entropía generalizada de este horizonte pasado decrece cuando uno va al pasado. Usando el

grano fino , se sigue del Teorema 4 que el espacio-tiempo tiene una singularidad inicial, si
el espacio-tiempo es globalmente hiperbólico y el espacio no es compacto. No importa si la
cosmología FRW tiene pequeñas perturbaciones no homogéneas porque las pequeñas
perturbaciones no pueden eliminar las superficies anti-atrapadas.
Al igual que en el caso del agujero negro, el mero hecho de que exista una singularidad inicial
no necesariamente nos dice que no hay líneas de mundo infinitas pasadas W pasadas que eviten
la singularidad. Pero se pueden imponer algunas restricciones a esta posibilidad asumiendo que
existe tal W pasado y luego aplicando el lo. Supongamos que existe un horizonte pasado ∂I
+ (W pasado) en el universo actual. Debido a la expansión del universo, tal horizonte debería ser

ahora un objeto grande, casi clásico. Y por el no debe expandirse en todas partes. En una
cosmología FRW en expansión, esto solo es posible si cada componente conectado del horizonte
pasado es compacto y suficientemente pequeño. Por lo tanto, la totalidad del universo infinito
compartiría una historia pasada común, excepto posiblemente por un conjunto de burbujas, cada
una con un volumen espacial finito.dieciséis
Esto está en marcado contraste con la cosmología de FRW de Big Bang caliente estándar, en la
que regiones espaciales suficientemente distantes nunca han estado en contacto casual entre sí.
Pero no es muy diferente de la cosmología inflacionaria, en la que la expansión exponencial del
universo hace que regiones distantes compartan un pasado causal. Una forma de proporcionar
al espacio-tiempo la propiedad requerida sería si hubiera un período infinito de inflación en el
pasado del universo infinito. Tal espacio-tiempo tendría líneas de mundo infinitas en el pasado,
pero también sería nulo geodésicamente incompleto debido al hecho de que un universo inflado
infinito ocupa solo una parte del espacio de De Sitter.
De manera similar, un universo espacialmente finito puede tener fácilmente todos los puntos
en su fase FRW eventualmente en contacto causal, y ni siquiera necesita ninguna singularidad
inicial para hacerlo. Un ejemplo sería una cosmología A-FRW con rebote.
Para analizar las propiedades termodinámicas de tal modelo infinito pasado, ahora invocamos
el GSL de grano grueso. Suponiendo, de acuerdo con las observaciones actuales, que el universo
terminará en una fase de expansión similar a la de De Sitter, habrá líneas de mundo infinitas en
el futuro W fut comenzando en la Tierra que terminarán rodeadas por un horizonte futuro
compacto, que contiene una cantidad finita de entropía generalizada (aproximadamente A / 4ħG
del horizonte). Suponiendo una hiperbolicidad global, este horizonte futuro debe permanecer
compacto a medida que se traslada al pasado, e incluye en particular todo el pasado de la Tierra.
Esto significa que 1) la entropía generalizada dentro del horizonte ha aumentado desde valores
arbitrariamente negativos, o 2) solo hay una cantidad finita de procesos de producción de
entropía en nuestro cono de luz pasado,
La opción (1) no es posible si la entropía generalizada tiene una interpretación de conteo de
estado directo en términos de grados de libertad discretos en la escala de Planck y, en cualquier
caso, parece algo extraña. La opción (2) implicaría que el universo esté en un estado cercano al
equilibrio durante la primera "mitad" de la eternidad y luego, por alguna razón inexplicable,
salga de este equilibrio. La opción (3), aunque de apariencia extraña, surge naturalmente si las
“condiciones iniciales” de baja entropía del universo se imponen realmente en un intervalo de
tiempo finito (cf. sección 2.1). En este escenario, se puede decir que el universo tiene un
comienzo en un sentido termodinámico incluso si no tiene un comienzo en un sentido
geométrico.
La opción (3) funciona mejor si el universo es espacialmente finito. En un universo
espacialmente finito, el horizonte de W fut puede, cuando se traza hacia atrás en el tiempo,
cruzarse y desaparecer por completo en un tiempo t *. (En el caso de un universo espacialmente
infinito, globalmente hiperbólico, el horizonte solo puede desaparecer por completo al chocar
con una singularidad inicial). Dado que antes de t * no hay horizonte, la entropía generalizada de
grano fino es simplemente una constante, igual a la fina. -entropía arraigada del universo total.
Esto explica por qué la entropía de grano fino no disminuye indefinidamente cuando uno
retrocede en el tiempo. Pero si el horizonte retrocede en el tiempo para siempre, uno tendría
problemas con el GSL de grano fino. Dado que el GSL de grano fino no depende de una flecha de
tiempo (véase la sección 2.2),
Poniendo todas estas consideraciones juntas, si el GSL es una ley de la naturaleza válida,
sugiere fuertemente que o el universo tuvo un comienzo finito en el tiempo, o es espacialmente
finito y la flecha del tiempo se invirtió antes del Big Bang.17 En el último caso, aún podría decirse
que el universo tuvo un comienzo en un sentido termodinámico, porque ambas ramas de la
cosmología estarían al futuro termodinámico del Big Bang.

4.3 Discos de deformación y objetos de masa negativa


El GSL de grano fino también se puede utilizar para descartar ciertos tipos de espacio-tiempos
de impulsión de urdimbre. Consideraremos espaciotiempos M que son asintóticamente planos y
globalmente hiperbólicos, pero que tienen en su interior algunos campos gravitacionales que son
capaces de doblar los conos de luz para permitir el viaje superlumínico. Ver ref. [51] para
discusiones sobre tales espaciotiempos.
Dado que las posiciones de los conos de luz dependen de la elección de las coordenadas, es
necesario proporcionar una definición invariante de difeomorfismo de viaje superluminal.
Llegar a una definición sensata es complicado, ya que los difeomorfismos pueden moverse
alrededor de los puntos de inicio y finalización. Para abordar esto, en esta sección solo se
considerará el caso de los impulsos warp asintóticos, que aceleran la propagación de los rayos
de luz en relación con la estructura asintótica del espacio-tiempo.
El enfoque aquí está inspirado en la Ref. [10], que definió una bandeja de luz como
superluminal si viaja entre un cierto par de 2 superficies más rápido que cualquier bandeja de
luz cercana. Sin embargo, en lugar de mirar el viaje entre dos superficies 2 separadas por una
distancia finita, consideraré una luz g viajando desde el límite conforme pasado I - al límite
conforme futuro I +.
Intuitivamente, un espacio-tiempo es un impulso de deformación si existe una región
compacta D ∈ M tal que las señales de velocidad de la luz que pasan a través de D avanzan en un
tiempo finito en relación con las señales que "giran" en M - D (Ver Fig. 8.7.)
Figura 8.7 Este diagrama muestra señales de luz que viajan a través del espacio desde un origen pasado asintótico L - hasta un
destino futuro asintótico L +. Un impulso de deformación se define como una región compacta D del espacio-tiempo, de manera
que alguna curva nula g que pasa por D avanza en un tiempo finito en relación con cualquier curva gʹ que no pasa por g.

Más precisamente, definamos un "impulso warp" como una región espaciotemporal compacta
D ∈ M, con la propiedad de que existen puntos L - ∈ I - y L + ∈ I + tales que (ver Fig. 8.8):

Figura 8.8 i) Un diagrama de espacio-tiempo del impulso warp. La curva nula g pasa a través de la región D para conectar los
puntos L - y L + en el límite conforme. Existen puntos p hacia el futuro nulo de L + a los que no se puede acceder desde L - sin pasar
por la región D. La curva nula g se encuentra tanto en el horizonte futuro H fut = ∂I - (L +) como en el horizonte pasado H pasado =
∂I + (L -). Sin embargo, estos horizontes no tienen por qué coincidir excepto en g. ii) Una imagen de un corte espacial que atraviesa
el punto g 0. Los dos horizontes definen tres regiones, F al futuro de g, P al pasado de g, y la otra región O separada en forma de
espacio.Suponiendo que la aproximación semiclásica es válido en g 0, los teoremas 1 y 2 se pueden aplicar para mostrar una
violación de la GSL o.

L - y L + son acronales (es decir, no están conectados por ninguna curva temporal),
Existe una curva nula g que viaja de L - a L + pasando por la región D, pero
En el espacio-tiempo parcial M - D, cualquier curva nula que viaje de L - a I + se retrasa en un
tiempo finito. En otras palabras, para cualquier otro punto p ∈ I +, si p es nulo separado
de L +, y si p está lo suficientemente cerca de L +, entonces no es posible enviar una señal
de L + ap.

Para resumir esta definición, L + y L - están separados como la luz en M, pero separados como
el espacio en M - D. Esto indica que las curvas nulas que viajan a través de D avanzan en un tiempo
finito en comparación con las que giran alrededor de D.
Algunos comentarios sobre esta definición: Primero, las condiciones 1 y 2 requieren
implícitamente que g sea una curva nula acronal, lo que a su vez implica que es una geodésica
“más rápida posible” que conecta I - e I +. La existencia de una curva con la máxima velocidad
posible se deriva de la hiperbolicidad global para cualquier espacio-tiempo de impulso warp, ya
que el espacio de curvas causales entre dos subconjuntos compactos cualesquiera de un espacio-
tiempo globalmente hiperbólico es en sí mismo compacto [52].
Los puntos L - y L + deben estar en direcciones espaciales diametralmente opuestas, ya que
todos los demás puntos en I + son crónicos a cualquier L -. Esta es la razón por la que la condición
3 anterior restringe la atención a los puntos en I + que son nulos separados por L +.
Uno podría ingenuamente que incluso en el espacio-tiempo plano, una región D podría
satisfacer esta definición simplemente bloqueando el camino más corto entre L - y L +, y forzando
así cualquier luz que conecte L - y L + en M - D a recorrer un camino más largo . Sin embargo,
debido a que L - y L + están infinitamente lejos, las bandejas de luz solo necesitan doblarse una
pequeña cantidad para sortear D, lo que lleva a un retraso que puede hacerse arbitrariamente
pequeño, lo que significa que la condición 3 no se cumple.
Finalmente, esta definición se aplica solo a los impulsores warp que conducen a un avance
finito para las bandejas de luz que viajan a una distancia infinita. El resultado no se aplica a los
casos en los que hay una aceleración solo en una distancia finita.

Ahora mostraremos una contradicción entre la termodinámica generalizada y la existencia de


impulsos warp como se definió anteriormente. Dado que existen infinitas líneas de mundo que
comienzan en L - o terminan en L +, estos puntos definen horizontes similares a Rindler que
atraviesan el espacio-tiempo M. Estos dos horizontes cortan M en tres regiones, P = I - (L +), F =
I - (L +), y el resto O = M - F - P (P y O no pueden superponerse o L - y L + serían más parecidos al
tiempo que a la luz). Se requiere que g se encuentre tanto en la región causal del pasado J - (L +)
como en la región causal del futuro J + (L -). Sin embargo, no puede estar en el interior de ninguna
de las regiones, o habría una curva temporal que va de L - a L +. En consecuencia, debe ser una
geodésica nula situada en el límite de estas regiones, tanto en el horizonte futuro H fut = ∂I - (L

+) como en el horizonte pasado H pasado = ∂I + (L -). , ahora es posible derivar una


contradicción.
Aunque los campos pueden no ser semiclásicos en la región D, debería existir al menos un
punto g 0 ∈ g en el que el límite semiclásico se mantenga en la región asintóticamente plana lejos
de cualquier excitación significativa de la materia. En este punto g 0, se puede invocar el teorema
1 para mostrar que si el GSL se mantiene en F, también se cumple en F + O. Además, el corolario

2.1 (elegir R = M) implica que si el GSL se mantiene en F + O y los se mantiene en P, entonces


el estado no es genérico. Pero si hay algún espacio-tiempo de impulsión warp, también hay
genéricos, ya que si un lighttray avanza un tiempo finito viajando a través de D (condición 3),
una perturbación genérica infinitesimal del espacio-tiempo debe preservar esta propiedad. De
ello se deduce que no hay espacio-tiempos de impulsión warp (asintóticamente planos,

globalmente hiperbólicos), o bien el GSL o son violados.


Este resultado es una generalización de los teoremas clásicos de las Refs. [10, 11, 13].

Teorema de la energía positiva. Un corolario inmediato es que el GSL y juntos implican


un teorema de energía positiva, según los principios descritos en la Ref. [14]. Supongamos que
tenemos un espaciotiempo asintóticamente plano que contiene un objeto compacto aislado con
algo de masa ADM. Ahora, un objeto con una masa ADM positiva hace que las bandejas de luz que
atraviesan su campo gravitacional asintótico se retrasen. Para un objeto de masa negativa, este
"retraso" de Shapiro es en realidad un avance. Por lo tanto, un objeto con masa negativa podría
usarse para la comunicación superluminal, como un tipo de impulso warp. Por tanto, está
prohibido por el resultado anterior.
El teorema clásico [14] tiene una limitación importante que debe tenerse en cuenta: requiere
que el espacio-tiempo sea asintóticamente plano en el infinito nulo, no solo en el infinito espacial.
En otras palabras, el espacio-tiempo debe permanecer lo suficientemente estable como para que
su masa pueda ser probada por un rayo de luz que va desde el infinito nulo pasado al infinito
nulo futuro. Por ejemplo, existen espaciotiempos de Kaluza-Klein con masa ADM negativa en la
que una “burbuja de nada” se contrae y luego se expande, acercándose asintóticamente a la
velocidad de la luz [53]. Esto no es una contradicción porque la burbuja de la nada golpea el
infinito nulo y evita que sea asintóticamente plana. Surgen problemas similares para las burbujas
del espacio AdS dentro de un "vacío falso" con constante cosmológica cero.
Para soluciones asintóticamente de Schwarzschild en 4 dimensiones, también se puede derivar
un resultado inverso parcial: cualquier solución con masa positiva no es un espacio-tiempo de
impulso de deformación. Debido a que el potencial gravitacional cae con una distancia como 1 /
r, el retardo de tiempo integrado es logarítmicamente divergente y, por lo tanto, el retardo de
Shapiro del campo gravitacional asintótico es + ∞. Esto supera cualquier avance inito de Shapiro
proveniente del interior del espacio-tiempo. Desafortunadamente, esto hace que el resultado de
no-warp-drive sea algo trivial en este caso, ya que no descarta ninguna solución asintóticamente
de Schwarzschild con masa positiva.
Sin embargo, el resultado no es tan trivial para D ≥ 5 espacio-tiempos, donde el retraso de
Shapiro para Schwarzschild es finito. Tampoco es trivial para los espaciotiempos
asintóticamente Anti-de Sitter, que consideramos a continuación.
Causalidad en Anti-de Sitter.Los resultados anteriores se pueden generalizar directamente al
caso en el que el espacio-tiempo es asintóticamente AdS, eligiendo L + y L - para que se
encuentren en el límite de AdS. La prueba del resultado es análoga, a pesar de que el espacio anti-
de Sitter viola técnicamente la hiperbolicidad global. (La única razón por la que el Teorema 2
necesitaba la hiperbolicidad global era asegurar que la región del espacio-tiempo tuviera buenas
propiedades de causalidad. Pero el espacio AdS tiene propiedades de causalidad igualmente
buenas después de que uno impone condiciones de frontera en el infinito espacial). Esto
generaliza los teoremas clásicos de Ref. [12, 13].
Esto también encaja muy bien con lo que se sabe sobre la conjetura de AdS / CFT. Para que una
teoría de la gravedad tenga una teoría de campo dual viviendo en su límite, es esencial que entre
dos ubicaciones espaciales A y B en el límite, sea imposible ir de A a B más rápido cuando se viaja
a través de la masa, que al dar la vuelta al límite. De lo contrario, sería posible enviar señales más
rápido que la luz en el CFT [54]. El GSL es un principio físico plausible que hace cumplir este
requisito.

4.4 Máquinas del tiempo


La aplicación final de la GSL de grano fino será descartar las máquinas del tiempo, lo que de
nuevo es una generalización de los resultados clásicos [9]. Hasta ahora, hemos asumido que el
espacio-tiempo es globalmente hiperbólico. Pero la hiperbolicidad global descarta las curvas
cerradas en forma de tiempo (CTC) por definición, lo que hace que cualquier prueba sea trivial.
Entonces, en esta sección, asumiremos en cambio que a) todas las CTC en el espacio-tiempo son
para el futuro de algún punto p, que a su vez es para el futuro de I -, b) para dos puntos
cualesquiera pyq, J + ( p) ∩ J + (q) es compacto (es decir, el otro componente de la hiperbolicidad
global [43]), yc) el espacio-tiempo es asintóticamente plano.
El objetivo será demostrar que nunca se puede formar un CTC. Dado que un CTC es una línea
de mundo infinita envuelta alrededor de los mismos puntos periódicamente, ∂I - (CTC) es un
horizonte futuro.18 Excluyendo el futuro de p, el espacio-tiempo es globalmente hiperbólico, por
lo que no hay problemas para definir cortes completos para la entropía generalizada. Al aplicar
la condición (b) al punto py cualquier punto del CTC, ∂I - (CTC) debe tener cortes compactos en
la parte globalmente hiperbólica de la variedad. Por lo tanto, la entropía generalizada debería
aumentar hacia el futuro en ∂I - (CTC) en un segmento compacto.
Pero por planitud asintótica, este horizonte compacto debe contraerse en tiempos tempranos,
violando el GSL por la misma razón que los universos bebés en la sección 4.1. En consecuencia,
asumiendo el GSL y la condición b (que es la otra mitad de la hiperbolicidad global), es imposible
para cualquier experimentador sentado en un punto p en un universo asintóticamente plano
organizar la formación de una CTC. De manera similar, el tiempo inverso del argumento anterior

usando muestra que si existen actualmente máquinas del tiempo, es imposible que se
destruyan.

5 ¿Sigue funcionando para la gravedad cuántica?


Los resultados anteriores se han probado bajo el supuesto de que el espacio-tiempo puede
aproximarse mediante una variedad de Lorentziana uniforme, globalmente hiperbólica, sujeta a
una pequeña perturbación cuántica, de modo que el espacio-tiempo resultante satisface
exactamente el GSL. La pregunta es si esperamos que el resultado se mantenga incluso si se
relajan algunos de estos supuestos. En particular, surgen las siguientes preguntas:
¿Qué pasa con las fluctuaciones termodinámicas que hacen que la entropía disminuya
temporalmente, lo que hace que el GSL no sea exacto? ¿Las fluctuaciones cuánticas en la métrica
hacen que el GSL esté mal definido en el régimen de gravedad cuántica? ¿Y qué hay de la
hiperbolicidad global y las otras suposiciones involucradas en los resultados de no ir de la
sección 4?

5.1 Fluctuaciones de entropía


Todos los sistemas termodinámicos tienen fluctuaciones, ya que siempre es posible que los
grados de libertad en un sistema complejo, por casualidad, entren temporalmente en una
configuración poco probable. Cuando la entropía se define como la entropía de Boltzmann S = ln
N, donde N es el número de microestados en un macroestado, esto puede conducir a una
disminución temporal de la entropía. Sin embargo, en el enfoque de la segunda ley que se utiliza
aquí, la entropía de los campos cuánticos se define en la Ec. (2) usando la entropía de Gibbs S =
−tr (ρ ln ρ). Como se muestra en la sección 2.1, se puede probar que esta entropía no es
exactamente decreciente. En el caso del GSL también se tiene el término de área. He argumentado
en otra parte [28] que se puede tomar una interpretación similar de la entropía generalizada si
se define el GSL usando el valor esperado 〈A〉, como se sugiere en la Ref. [55].
Sin embargo, cambiar la definición de entropía no puede cambiar la física subyacente, y las
fluctuaciones de entropía todavía están presentes y son físicamente importantes. En la
interpretación de Gibbs, estas fluctuaciones de entropía aparecen cuando se invoca la
interpretación de probabilidad de la matriz de densidad ρ. Por ejemplo, considere el espín de un
electrón que tiene dos estados, arriba y abajo. Si el sistema está en una matriz de densidad
uniformemente mezclada con diagonal (1/2, 1/2), la entropía es In 2. Pero esta matriz de
densidad solo representa nuestra ignorancia; el electrón bien puede estar realmente en el estado
hacia arriba. Y es fácil mostrar que la máxima entropía asociada con cualquier estado puro es 0.
El siguiente silogismo superficialmente válido es, por lo tanto, falaz:

1. Si el electrón está en estado ascendente, S = 0.


2. La entropía del electrón es S = ln 2,
3. Por lo tanto, el electrón no está en estado ascendente.

La conclusión correcta es que el electrón podría no estar en estado ascendente, una afirmación
muy diferente.
De manera similar, si la entropía generalizada disminuye en algún lugar de una superficie nula
N, la conclusión adecuada a extraer no es que N no sea un horizonte, sino que N podría no ser un
horizonte. Tomemos como ejemplo específico el resultado de los agujeros de gusano no
atravesables de la sección 4.1. Un viajero espacial lo suficientemente aventurero podría no verse
disuadido de intentar cruzar un agujero de gusano simplemente porque no está seguro de si lo
logrará o no. Supongamos entonces que nuestro intrépido héroe vive en un universo
asintóticamente plano con el estado Ψ, y luego salta al agujero de gusano aunque solo tenga una
probabilidad 1> p> 0 de alcanzar con éxito el otro lado. Suponiendo que llegue al otro lado, es
apropiado, al menos en el futuro, proyectar el estado del universo en un nuevo estado Ψ ′ en el
que ciertamente ocurre el salto del agujero de gusano,

(35)
donde χ es algún estado ortogonal.
Aquí hay que tener cuidado. Como es habitual en la medición de la mecánica cuántica, el estado
Ψ ′ no será una buena descripción del estado del universo antes del momento de la medición. De
hecho, dado que la rama adicional χ de la superposición se define usando una condición de
frontera futura, por los argumentos de la sección 2.1, se espera que la entropía ordinaria de grano
grueso de χ disminuya con el tiempo antes del acto de medición. Sin embargo, no es necesario
insistir en que Ψ ′ es el verdadero estado del universo, o que el colapso de la función de onda es
la interpretación correcta de las mediciones de la mecánica cuántica. Solo se requiere que Ψ ′ sea
un estado bien definido en la teoría, al que, por lo tanto, se debe aplicar el GSL de grano fino. Se
espera que Ψ ′ sea asintóticamente plano ya que esta condición de frontera no debería verse
afectada por nada que suceda en el interior del espacio-tiempo. Entonces Ψ ′ es un espacio-
tiempo asintóticamente plano en el que existe un agujero de gusano atravesable con
probabilidad 1, lo que contradice el resultado de la sección 4.1. Argumentos similares se aplican
a los otros resultados prohibidos de superficie atrapada en la sección 4. 19
Por lo tanto, se deduce del GSL que la probabilidad de formar un universo bebé, un agujero de
gusano atravesable o reiniciar la inflación en un espacio-tiempo asintóticamente plano o AdS, es
exactamente cero. Esto es un poco sorprendente porque uno podría haber pensado que estas
cosas podrían ocurrir a través de un túnel cuántico [48, 46]. Sin embargo, está de acuerdo con la
observación de la Ref. [47] que no se puede reiniciar la inflación en los espaciotiempos de AdS
en el contexto de AdS / CFT.

5.2 Geometrías cuánticas


Dado que las singularidades son regiones donde los efectos de la gravedad cuántica pueden
llegar a ser importantes, una cuestión fundamental es si el GSL (como se define en la sección 2.2)
sigue estando bien definido y es verdadero en el régimen de gravedad cuántica. De lo contrario,
el teorema de la singularidad cuántica podría fallar justo cuando sea necesario, aunque muchas
de las otras aplicaciones del teorema de Penrose seguirían siendo útiles. Considere la siguiente
jerarquía de tratamientos cada vez más "cuánticos" del espacio-tiempo:

1. Perturbaciones semiclásicas débiles. Este régimen es simplemente la teoría cuántica de


campos en el espacio-tiempo curvo, más correcciones infinitesimales debido a la
deformación gravitacional de la materia. (Este régimen justifica la 'expansión semiclásica'
utilizada en los Teoremas 1, 3 y 4 de la sección 3.)
2. Fuertes efectos semiclásicos. En este régimen, uno permite que los campos cuánticos
tengan grandes efectos gravitacionales, pero descuida cualquier fluctuación cuántica en la
métrica, de modo que el espacio-tiempo todavía se describe mediante una variedad
Lorentziana suave. Este régimen puede justificarse en algunos casos cuando hay un gran
número N de campos de materia y uno toma ħ → 0 mientras se mantiene Nħ ijo. Esto
suprime los bucles de gravitón en relación con los bucles de materia.
3. Variedad cuántica de Lorentz. En este régimen se tienen en cuenta las fluctuaciones en la
métrica, tratando la métrica como un campo cuántico que vive en un espacio topológico
fijo y continuo. Algunas de las cantidades geométricas ahora no se pueden conmutar. Este
régimen incluye espacio-tiempos que pueden describirse mediante gravedad cuántica
perturbativa. Incluso es posible, si el escenario de seguridad asintótico es cierto, que este
régimen pueda abarcar una teoría completa de la gravedad cuántica [57].
4. Algo nuevo. Los ejemplos incluyen conjuntos causales [58], los espaciotiempos discretos
de la gravedad cuántica de bucles [59] o la teoría de matrices [60], etc. Aquí no se puede
decir nada no especulativo excepto asumiendo un modelo específico.

¿Cuál de estos regímenes es físicamente relevante para los resultados de no ir?


No todos los resultados de este artículo requieren probar el régimen de gravedad cuántica. Por
ejemplo, la ausencia de agujeros de gusano atravesables (sección 4.1) o impulsos warp (sección
4.3) es interesante incluso perturbadoramente, en el régimen semiclásico débil (# 1). Eso es
porque existen soluciones clásicas que están al borde de violar estos resultados, por lo que una
violación podría verse incluso de manera perturbador. (Para los impulsos de deformación,
considere las perturbaciones a la solución de vacío. Para los agujeros de gusano atravesables,
perturbe el agujero negro eterno).20
Pero la utilidad de los resultados de no ir con respecto a los teoremas de la singularidad y los
universos bebés (secciones 4.1–4.2) depende de su aplicabilidad a la región cercana a la
singularidad. Considere un espacio-tiempo cuya evolución clásica tiene una singularidad, y
suponga que fuera posible alguna resolución de la singularidad. Necesariamente, cualquier
resolución de la singularidad tendría que involucrar efectos no perturbadores, y por lo tanto el
régimen semiclásico débil (# 1) será insuficiente para resolver la singularidad. 21
Sin embargo, todavía hay esperanzas de obtener un resultado útil. La clave a tener en cuenta
es que estos resultados involucran dos ubicaciones distintas en la misma superficie nula N,
separadas por algún intervalo nulo Δλ. La región X cerca de la superficie atrapada cuántica puede
estar débilmente acoplada, incluso mientras que la región Y clásicamente singular está
fuertemente acoplada. Cerca de X, se puede mostrar que la entropía generalizada está
disminuyendo en algún lugar de la superficie nula. Entonces el GSL implica que N no puede ser
un horizonte causal. Cerca de Y, usamos el hecho de que N no es un horizonte para mostrar que
no puede haber una línea de mundo infinita W en Y.
Por ejemplo, en el caso del resultado del Big Bang, la región Y es la región cercana 22 la
pretendida singularidad inicial clásica cuando el universo era muy caliente y denso, mientras que
X puede tomarse como la cosmología actual, que está muy bien descrita por la relatividad general
clásica. Por lo tanto, el análisis de la región X por sí misma se puede realizar íntegramente en el
régimen semiclásico débil (# 1). Por tanto, las aplicaciones de los teoremas 1 y 2 a la región X
son insensibles a los efectos de la gravedad cuántica. X es también la única ubicación en la que
usamos una fórmula para la entropía generalizada S gen, por lo que las correcciones de gravedad
cuántica a la fórmula para S gen son irrelevantes para la validez del resultado.

Esto deja el análisis de la región Y fuertemente acoplada, que podría estar en cualquiera de los
regímenes # 2 - 4. Para que el GSL esté bien definido, es necesario que el concepto de horizonte
causal aún exista. La noción está claramente definida en el régimen semiclásico fuerte (# 2)
debido a la existencia de un espacio-tiempo lorentziano. Para una variedad Lorentziana cuántica
(# 3), la estructura causal se vuelve borrosa y, por lo tanto, uno podría preocuparse por si el
horizonte causal está definido. Supongamos los siguientes principios de correspondencia: A) que
el requisito en relatividad general de que las coordenadas sean suaves es meramente por
conveniencia técnica y que, por lo tanto, uno puede formular consistentemente la relatividad
general como covariante bajo la elección de coordenadas continuas arbitrarias, no solo
difeomorfismos,
Sea algún lugar geométrico de los puntos L definido por alguna prescripción generalmente
covariante. Entonces, ∂I - (L) es una superficie continua (pero no necesariamente lisa) de
codimensión 1. Por el supuesto A anterior, es consistente con la relatividad general de calibre
fijo usando un sistema de coordenadas en el que una coordenada x satisface x = 0 en ∂I - (L). En
este sistema de coordenadas, la ubicación del horizonte está en una posición fija y bien definida
en el espacio y, por lo tanto, no fluctúa en su posición. Si se toma L como una línea de mundo
infinita en el futuro definida por cualquier prescripción invariante de coordenadas, esto muestra
que la noción de un horizonte futuro está bien definida. Entonces, el GSL puede definirse para
requerir que cualquier horizonte causal futuro tenga una entropía no decreciente, al menos en
la región semiclásica X donde sabemos cómo definir S gen.
Incluso si la geometría del espacio-tiempo es descrita por alguna nueva estructura discreta (#
4), todavía parece razonable creer que la noción de un horizonte futuro puede estar bien
definida, si esta estructura discreta tiene una noción fundamental de causalidad incorporada. Se
puede pensar en la ubicación de un horizonte causal como definido por la forma en que divide
los puntos del espacio-tiempo en regiones exteriores e interiores. El exterior de un horizonte
futuro se puede definir como J - (W fut), el pasado causal de una línea de mundo infinita en el
futuro. Una línea de mundo W se puede definir como una cadena de puntos en secuencia causal.
La única parte de la definición que depende de cualquier otra cosa que no sea una estructura
causal, es el requisito de que W futuro sea infinito. Pero esto se puede definir naturalmente en
una geometría discreta al requerir que W consista en un número infinito de puntos.
Entonces, si la geometría cuántica del universo es un conjunto causal discreto o algo más rico,
la noción de un horizonte futuro debería estar bien definida y debería ser posible preguntarse si
la GSL es verdadera. Por supuesto, podría resultar falso. Por ejemplo, si la gravedad cuántica
viola la invariancia de Lorentz, entonces los argumentos de Ref. [61] sugieren que la GSL no será
válida.
Sin embargo, parece más elegante que el GSL sea cierto en la gravedad cuántica. Esto explicaría
el éxito de la termodinámica del horizonte en la relatividad general semiclásica. No solo eso, sino
que, por los resultados de las secciones 4.3 y 4.4, también garantizaría que la teoría tenga
energías positivas y buena causalidad.
Hiperbolicidad global.Aproximadamente la mitad de los resultados en la sección 4 asumen
hiperbolicidad global, ya sea directamente o mediante el uso de los teoremas 2 o 4. Esto incluye
la generalización del teorema de la singularidad de Penrose (secciones 4.1 y 4.2), parte de la
discusión sobre el comienzo termodinámico de la universo (4.2) y la prohibición de impulsos
warp y objetos de masa negativa (4.3). Por otro lado, las prohibiciones sobre universos bebés
viables, agujeros de gusano atravesables y reiniciar la inflación (4.1) usan solo el GSL, mientras
que el resultado de las máquinas sin tiempo (4.4) usa una forma debilitada de hiperbolicidad
global.
Si la teoría de la gravedad cuántica es completamente predictiva, se espera que algún análogo
de la hiperbolicidad global sea cierto, pero puede que no tenga las mismas implicaciones que en
la relatividad general. El hecho de que el cambio de topología esté prohibido para las variedades
hiperbólicas globales continuas [45] no significa necesariamente que no pueda ocurrir en
espaciotiempos discretos. Por tanto, es necesario examinar si se espera que los teoremas 2 y 4
sigan siendo válidos. El teorema 2 solo depende de la hiperbolicidad global en la medida en que
sea necesaria para identificar subsistemas causales; por lo tanto, es probable que se mantenga
en cualquier teoría con causalidad.
El teorema 4 depende de la hiperbolicidad global de una manera más sutil. El supuesto básico
de causalidad que subyace al Teorema 4 es que una superficie causal que se mueve hacia afuera
en una porción espacial no compacta no puede llegar a su fin sin encontrar un límite del espacio-
tiempo. Esto podría suceder de dos formas diferentes: (a) un espacio no compacto podría
volverse compacto como resultado de la evolución del tiempo, o (b) un espacio no compacto
podría dividirse en dos regiones, una de ellas compacta y la otra no compacta. Parece poco
probable que el cambio de topología cuántica pueda permitir (a), ya que requeriría un evento de
túnel "infinitamente grande". El escenario (b) es el escenario del universo bebé desconectado,
que está prohibido por GSL sin utilizar la hiperbolicidad global.23 Aceptando estos argumentos
en contra de (a) y (b), no es improbable que un análogo del Teorema 4 pueda aplicarse en plena
gravedad cuántica.
Por tanto, existe una posibilidad razonable de que el teorema de la singularidad de Penrose
pueda demostrarse incluso en el contexto de la gravedad cuántica total. Esto iría en contra de la
sabiduría convencional de que las singularidades son un síntoma de lo incompleto de la teoría
clásica y se resuelven mecánicamente cuánticamente. Sin embargo, debe señalarse que el hecho
de que haya singularidades en el sentido de que el espacio-tiempo llega a su fin en algunos
lugares, no significa que haya cantidades físicas que se vuelvan infinitas en la singularidad. Una
geometría discreta aún podría resolver la singularidad en el último sentido cortando el espacio-
tiempo a distancias más cortas que la escala de Planck.

6. Conclusión
Se ha demostrado anteriormente que, bajo el supuesto de que el espacio-tiempo es una variedad
Lorentziana hiperbólica globalmente, el GSL de grano fino requiere que los agujeros negros y los
universos FRW infinitos tengan singularidades, y impone severas restricciones a los universos
bebés y cualquier cosmología anterior al Big Bang. . Además, evita que los espaciotiempos
asintóticamente planos tengan masas ADM negativas, impulsos de deformación o agujeros de
gusano transitables, o que desarrollen máquinas del tiempo o regiones de inflado. En todos estos
casos, los teoremas de la relatividad general clásica se han extendido a escenarios semiclásicos
utilizando el GSL como premisa en lugar de la condición de energía nula. La noción de una
"superficie atrapada" aún persiste en este escenario cuántico y asegura que estas características
cualitativas de la gravedad semiclásica son las mismas que las de la relatividad general clásica.
También hay algunos indicios, necesariamente especulativos, de que estos resultados podrían
ser válidos en una teoría completa de la gravedad cuántica. Aunque la aproximación semiclásica
se usó para derivar algunos de los resultados de no-go, solo se usó en regiones casi clásicas, ya
sea a una gran distancia o a un largo tiempo de distancia de las regiones de gravedad cuántica de
alta curvatura. Aparte del GSL en sí, las únicas suposiciones sobre la región de alta curvatura
fueron que el espacio-tiempo continúa teniendo algunas de las mismas propiedades primitivas
que un espacio-tiempo de Lorentz: una noción de causalidad usada para definir horizontes, una
noción de predictividad análoga a la hiperbolicidad global, distinciones entre longitudes finitas
e infinitas, y regiones compactas y no compactas. Dados los éxitos de la termodinámica del
horizonte, es natural suponer que el GSL se mantiene incluso en el nivel de gravedad cuántica,
El argumento mecánico estadístico para un comienzo en el tiempo, basado en el hecho de que
la entropía disminuye cuando se va al pasado, también se generalizó a un argumento del GSL de
grano grueso. Junto con el teorema de la singularidad, esto conduce a un argumento prima facie
de que el tiempo tuvo un verdadero comienzo en el Big Bang hace unos 13.700 millones de años.
En la sección 4.2, para hacer una cosmología plausible que satisfaga GSL con un pasado infinito,
fue necesario postular tanto que el cosmos es espacialmente finito como que la flecha del tiempo
se invirtió antes de algún tiempo t 0. Este tipo de rebote evade tanto las restricciones de la flecha
termodinámica como la singularidad, pero todavía tiene en cierto sentido un "comienzo"
termodinámico en el tiempo en el momento de la entropía más baja. Es decir, tanto el pasado
como el futuro se explicarían en términos del estado de baja entropía en t 0, mientras que el
estado en t 0 en sí mismo no tendría explicación en términos de nada para el futuro o el pasado.
(Por lo tanto, el momento t 0 parecería suscitar el mismo tipo de preguntas filosóficas que
cualquier otro tipo de comienzo en el tiempo).
El hecho de que los resultados prohibidos prohíben varios procesos con probabilidad 0 es
interesante porque va en contra de la experiencia habitual en la teoría cuántica de campos de
que todo lo que no esté prohibido por la cinemática o las leyes de conservación debe ocurrir con
alguna probabilidad distinta de cero. Esto sugiere que puede haber una formulación de
geometría cuántica basada en la termodinámica del horizonte en la que estas restricciones
parecen más naturales.
La noción de una superficie cuántica atrapada del Teorema 4 puede ser una pista aquí. Si
pensamos que la termodinámica del horizonte funciona debido a la mecánica estadística de los
grados de libertad de la gravedad cuántica cerca o en el horizonte, ¿qué deberíamos hacer con el
hecho de que en ciertas superficies la entropía sí disminuye? Es como si cada superficie nula
debiera elegir ser un horizonte causal y comportarse en ciertos aspectos como un sistema
cerrado, o bien violar la segunda ley y ser castigada por llegar a su fin en un tiempo finito. ¿Puede
explicarse esta dicotomía básica de alguna manera desde la perspectiva de los grados de libertad
del horizonte microscópico?

Expresiones de gratitud
Este trabajo fue apoyado por las subvenciones de la NSF PHY-0601800 y PHY-0903572, el Centro
de Física Fundamental de Maryland, el Instituto Perimetral de Física Teórica y la Fundación
Simons. Agradezco las conversaciones con Ted Jacobson, William Donnelly, Sudipta Sarkar,
Latham Boyle, Rob Myers, Don Marolf, Robert Brandenberger, Netta Engelhardt, Ed Witten y los
comentarios detallados de árbitros anónimos.

Apéndice
Este apéndice demostrará un teorema utilizado en la sección 2.1 para demostrar que la entropía
aumenta en el contexto de la termodinámica ordinaria. Allí, el enfoque fue modelar nuestra
incertidumbre sobre la evolución del tiempo utilizando una mezcla de posibles operadores
unitarios, actuando en cualquier Espacio de Hilbert separable.
Sea dU una distribución de probabilidad sobre el espacio de posibles operadores unitarios, de
manera que la probabilidad total sea 1:

(36)
Entonces la operación a realizar en el estado ρ es

(37)
Tes un mapa lineal desde el espacio de todas las matrices de densidad a sí mismo. Hay algunas
consecuencias del hecho de que el mapa es solo una suma de operadores unitarios: a) Por
conservación de probabilidad, T debe preservar la traza de ρ. b) Dado que las probabilidades no
pueden ser negativas, T debe mapear estados con autovalores no negativos a otros estados con
autovalores no negativos. Además, c) Dado que toda U conserva el estado de identidad I, T (I) =
I.
Tales mapas no pueden disminuir la entropía, un hecho que se ha derivado de la teoría de
mezcla de Uhlmann [20], por medio de una afirmación aún más fuerte sobre los valores propios
de probabilidad: es decir, que no hay forma de transferir la probabilidad de un valor propio más
pequeño a uno más grande. uno.
Más precisamente, para todos los números naturales i, la suma del i-ésimo valor propio más
grande de la matriz de densidad final no debe ser mayor que el i-ésimo valor propio más grande
de la matriz de densidad inicial. En otras palabras, si consideramos el espectro de autovalores de
probabilidad de ρ, un autovalor de probabilidad solo puede aumentar de valor si lo hace a
expensas de autovalores con mayor probabilidad. Esta declaración más fuerte es más poderosa
que simplemente afirmar que la entropía aumenta, porque produce una declaración separada
para cada número i.
Uno podría preocuparse por cómo interpretar “la suma de los iésimos vectores propios más
grandes” si ρ es degenerado. Entonces existe una ambigüedad en cuanto a a) qué base usar para
contar los vectores propios, yb) cómo ordenar los valores propios, ya que algunos de ellos son
iguales. Sin embargo, debido a que, por definición, todos los valores propios degenerados tienen
el mismo valor, no hay diferencia en la suma de cómo dividimos los estados degenerados siempre
que hagamos alguna elección.
A continuación se muestra una prueba de este resultado:
Definiciones:
ρ es la matriz de densidad,
T() es el mapa lineal positivo que conserva el rastro y la identidad,
I es la matriz de identidad,
M = ρ - p i I, donde pi es el i-ésimo valor propio más grande,
PAG se proyecta en el i-ésimo valor propio más grande de ρ, y
Q se proyecta sobre el i-ésimo valor propio más grande de T (ρ).
Teorema 5: El teorema que se va a demostrar ahora se puede enunciar de la siguiente manera:

(38)
Prueba: Dado que P conmuta con ρ y, por tanto, M, podemos escribir

(39)
donde A y B son manifiestamente positivos. Ahora por positividad,

(70)
dado que un rastro parcial de una matriz positiva no puede dar más que el rastro completo,
mientras que

(41)
porque cada operación conserva la positividad. Por tanto, por linealidad,

(42)
lo que muestra que la suma de los i valores propios más grandes solo puede disminuir. Pero M y
ρ solo difieren en I = T (I), por lo que el resultado también es válido para ρ. QED
Corolario 5.1:Cualquier cantidad expresable como tr (f (ρ)), donde f es cualquier función
convexa, no es decreciente. Esto está implícito en el hecho de que los valores propios de
probabilidad solo pueden evolucionar hacia la ecualización [20].
Esta afirmación más fuerte sobre los valores propios de probabilidad es equivalente a decir
que cualquier función convexa de los valores propios de probabilidad no es decreciente. Elija la
función convexa:

(43)

(44)

Esta función debe satisfacer

(45)
lo que implica que los valores propios de probabilidad solo se pueden igualar.

NOTAS
1 Un conjunto es acronal si no hay dos puntos conectados por curvas temporales.
2 No pudieron probar ningún teorema de singularidad, porque estos típicamente requieren que la condición de energía nula
promediada se mantenga en un rayo nulo semi-infinito con un punto final, una condición que puede ser violada por campos
cuánticos.
3 Si bien se espera que los efectos de la gravedad cuántica sean importantes cerca de las singularidades, otras aplicaciones del
teorema de Penrose no los requieren (véase la sección 5.2).
4 O más generalmente, simetría CPT.
5También es necesario no hacer ninguna restricción sobre el estado final del universo. Si hubiera una suposición de baja

entropía tanto para el estado inicial como para el final, no sería correcto calcular solo desde la condición inicial, ya
que eso ignoraría información adicional relevante. Esta suposición está implícita en el argumento para el OSL dado
anteriormente.
6Aquí estamos hablando de la entropía ordinaria del interior del agujero negro, no de la entropía generalizada de su horizonte
(que es el tema de la siguiente sección). Este último está limitado a cualquier energía finita; lo primero podría no serlo,
dependiendo de las opiniones que uno tenga sobre los límites de la entropía y la pérdida de información de los agujeros
negros. Mis afirmaciones en este artículo no requieren tomar una posición sobre esta controversia, ya que se basarán en la
entropía generalizada en lugar de en la entropía ordinaria.
8Técnicamente, las leyes de la física son invariantes bajo CPT, no T por sí mismas. Esto no afecta el argumento porque la
entropía generalizada es invariante bajo C y P. Pero si las leyes de la gravedad cuántica violaran el CPT, el GSL y su tiempo
inverso podrían ser independientes entre sí.
9 Esto es diferente de la aproximación semiclásica que involucra un gran número de N de especies, en la que Nħ se mantiene
fijo cuando se toma el límite ħ → 0, que se discutirá en la secció n 5.2.
10Una superficie nula típica desarrollará cúspides donde sus generadores entran o salen de la superficie, y en estos puntos la
superficie no será lisa. En un espacio-tiempo uniforme, estas partes no lisas de la superficie nula suelen ser de menor
dimensión, por lo que esta suposición es razonable si el punto g 0 es genérico.
11 Se supone que tanto ∑ como ∑ ′ son aproximadamente constantes a lo largo de la escala de longitud establecida por la
distancia adecuada f; de lo contrario, se podría satisfacer el teorema 1 simplemente evolucionando hacia adelante en el
tiempo en solo una de las dos superficies nulas N o M.
12 Tradicionalmente, la hiperbolicidad global también requiere que el espacio-tiempo satisfaga una fuerte causalidad, pero esta
forma aparentemente más fuerte de hiperbolicidad global se ha probado recientemente a partir de la definición que se da
aquí [43].
13Técnicamente, esta definición excluye los universos bebés que eventualmente terminan en un Big Crunch sin generar nuevos
universos por sí mismos. Sin embargo, el teorema de no ir posiblemente podría extenderse a tales casos argumentando así:
mientras el universo bebé se expanda durante mucho tiempo sin volver a colapsar, existen W futuros aproximados en forma
de líneas de mundo que existen durante mucho tiempo. sin colapso. Dado que la GSL es válida para W fut infinito, por
continuidad debería haber algún sentido en el que la GSL sea muy cercana a la verdadera para líneas de mundo muy largas
pero finitas.
14 J - se ha utilizado en lugar de I - para cerrar esta región.
15También hay teoremas de singularidad que se aplican a universos espacialmente finitos [6], pero estos teoremas utilizan la
condición de energía fuerte. Esta condición puede ser violada incluso por campos escalares clásicos, mínimamente acoplados
(y fue violada en el universo temprano, si la cosmología inflacionaria es cierta). Hay pocas razones para creer que estos
teoremas o algún análogo cuántico se apliquen al universo temprano.
dieciséisSegún la condición genérica utilizada en el Corolario 2.1, estas burbujas están delimitadas por superficies atrapadas en
el futuro. Según el Teorema 3, eventualmente deben contraerse hasta desaparecer. Si la cosmología FRW no tiene una
singularidad final, esto debe suceder simplemente por el cruce de las bandejas de luz. Por lo tanto, existe un segmento
espacial completo ∑ en la cosmología de FRW con la propiedad de que todo ∑ se encuentra en el futuro de cualquier línea de
mundo infinita W pasado.
17 En un escenario de rebote, no es lógicamente necesario que el momento de menor entropía sea el mismo que el momento
de menor tamaño, pero parece natural hacer esta identificación.
18 Si cree que una línea de mundo circular no debería contar como "infinita" en el sentido relevante, simplemente considere
una línea ligeramente ondulada cerca del CTC que nunca se cruza exactamente a sí misma.
19Por el contrario, las fluctuaciones de entropía son relevantes cuando se aplica el GSL a la cosmología inflacionaria. En un
escenario inflacionario, hay un campo escalar Φ con algún potencial V (Φ), que da lugar a energía de vacío y una expansión
exponencial similar a la de De Sitter. A medida que este campo escalar reduce el potencial, la inflación se detiene. El
argumento de la inflación eterna es que las fluctuaciones cuánticas a veces empujan el campo hacia arriba del potencial y,
por lo tanto, aumentan en lugar de disminuir la energía del vacío [56]. Dado que una fluctuación ascendente da como
resultado una disminución en el área del horizonte, ingenuamente parecería que el GSL prohíbe este proceso también. Si es
así, la energía del vacío no aumentaría con el paso del tiempo. Y si no puede aumentar, generalmente se esperaría que
disminuya y, finalmente, salga de la inflación en todas partes. Evaluar la validez de este argumento requiere una
consideración cuidadosa de las fluctuaciones del vacío. El argumento anterior de que las fluctuaciones de entropía no
importan se aplica a espaciotiempos asintóticamente planos. El espacio de De Sitter es diferente por dos razones: a) En el
espacio de De Sitter hay un valor máximo de la entropía generalizada; por lo que la fluctuación descendente necesaria ΔS de
la entropía del horizonte es finita en lugar de infinita. b) Para tener inflación eterna, no es necesario que ninguna región
preseleccionada del espacio-tiempo permanezca inflando, sino solo que exista alguna región que continúe haciéndolo. Si,
durante un intervalo de tiempo dado, un volumen de Hubble aumenta en volumen en un factor de N, solo es necesario tener
una probabilidad de aproximadamente 1 / N de que la inflación continúe en cada volumen de Hubble para mantener la
inflación en algún lugar. Si ln N> ΔS, entonces uno esperaría que ocurriera la fluctuación de entropía necesaria en una de las
N regiones. Sería interesante comprobar si esta condición impone restricciones importantes a los escenarios de inflación
eterna.
20 Por supuesto, si estos resultados continúan siendo incluso en más espaciotiempos cuánticos (regímenes # 2-4), por las
razones sugeridas a continuación, tanto mejor.
21Como hecho matemático general, cuando se resuelven singularidades en alguna función, la resolución tiende a ser no
perturbativa. En cualquier orden finito en la teoría de la perturbación, la singularidad normalmente se vuelve más divergente
en lugar de menos divergente. Un ejemplo simple: si Taylor expande la función f (x) = 1 / (x 2 + a 2) en a alrededor de a = 0,
cada término en la serie de Taylor es progresivamente más divergente con respecto a x, pero en finito positivo valores de a,
no hay singularidad. Me gustaría agradecer a Ed Witten por señalar este problema.
22 Y antes, si se resuelve la singularidad.
23Además, (b) plantea problemas potenciales de causalidad. Si uno ejecuta el proceso en tiempo inverso, se encuentra que dos
regiones del espacio-tiempo completamente no relacionadas se unen espontáneamente. Esto parece ser una violación
extrema de la localidad. Pero vea la Ref. [62] para una posible forma de eludir este argumento.

Referencias
[1] BS DeWitt, “Teoría cuántica de la gravedad. I. La teoría canónica ”, Phys. Rev. 160, 1113 (1967); CW Misner, KS Thorne,
JA Wheeler, Gravitation, WH Freeman and Company 1973.
[2] G. Veneziano, “Cosmología de cuerdas: el escenario anterior al Big Bang”, arXiv: hep-th / 0002094v1 (2000); J. Khoury,
BA Ovrut, N. Seiberg, PJ Steinhardt, N. Turok, “Del Big Crunch al Big Bang”, Phys. Rev. D 65, 086007 (2002), arXiv: hep-
th / 0108187; M. Gasperini, G. Veneziano, “El escenario anterior al Big Bang en cosmología de cuerdas”, Phys. Rept. 373,
1 (2003), arXiv: hep-th / 0207130.
[3] M. Bojowald, "Ausencia de una singularidad en la cosmología cuántica de bucles", Phys. Rev. Lett. 86, 5227 (2001), arXiv:
gr-qc / 0102069; A. Ashtekar, "Resolución de singularidad en la cosmología cuántica de bucles: una breve descripción";
J. Phys. Conf. Ser. 189, 012003 (2009), arXiv: 0812.4703v1.
[4] RH Brandenberger, “Cosmology of the Very Early Universe”, arXiv: 1003.1745v1, y citas en el mismo.
[5] RD Sorkin, “Sobre la entropía del vacío fuera de un horizonte”, charla pronunciada en las actas de la conferencia GR10 en
Padua, 1983; V. Frolov, I. Novikov, "Origen dinámico de la entropía de un agujero negro", Phys. Rev. D 48, 4545 (1993),
arXiv: gr-qc / 9309001; L. Susskind, J. Uglum, "La entropía del agujero negro en la gravedad cuántica canónica y la
teoría de supercuerdas", Phys. Rev. D 50, 2700 (1994), arXiv: hep-th / 9401070; T. Jacobson, “Entropía del agujero
negro y gravedad inducida” (1994), arXiv: gr-qc / 9404039; AO Barvinsky, VP Frolov, AI Zelnikov, "Función de onda de
un agujero negro y el origen dinámico de la entropía", Phys. Rev. D 51, 1741 (1995), arXiv: gr-qc / 9404036; VP Frolov,
DV Fursaev, AI Zelnikov, "Origen estadístico de la entropía del agujero negro en la gravedad inducida", Nucl. Phys. B
486, 339 (1997), arXiv: hep-th / 9607104.
[6] SW Hawking, GFR Ellis, La estructura a gran escala del espacio-tiempo, Cambridge University Press 1973. Véase también
RM Wald, General Relativity, University of Chicago Press 1984.
[7] MS Morris, KS Thorne, U. Yurtsever, "Agujeros de gusano, máquinas del tiempo y la condición de energía débil", Phys.
Rev. Lett. 61, 1446 (1988); JL Friedman, K. Schleich, DM Witt, "Censura topológica", Phys. Rev. Lett. 71, 1486 (1993),
arXiv: gr-qc / 9305017v2;
[8] E. Farhi, AH Guth, "Un obstáculo para crear un universo en el laboratorio" Phys. Letón. B 183, 149 (1987).
[9] FJ Tipler, “Violación de la causalidad en espacio-tiempos asintóticamente planos”, Phys. Rev. Lett. 37, 879 (1976); SW
Hawking, “Conjetura de protección cronológica”, Phys. Rev. D 46, 603 (1992).
[10] KD Olum, “El viaje superlumínico requiere energías negativas”, Phys. Rev. Lett. 81, 3567 (1998), arXiv: gr-qc /
9805003v2.
[11] M. Visser, BA Bassett, S. Liberati, “Censura superluminal”, Nucl. Phys. Proc. Supl. 88, 267 (2000), arXiv: gr-qc /
9810026v2. 20.
[12] E. Woolgar, "La Positividad de la Energía para el Espacio-Tiempo Asintóticamente Anti-de Sitter", Clase. Quant. Grav.
11, 1881-1900 (1994), arXiv: gr-qc / 9404019.
[13] S. Gao, RM Wald, "Teoremas sobre el retardo de tiempo gravitacional y cuestiones relacionadas", Clase. Quant. Grav. 17,
4999 (2000), arXiv: gr-qc / 0007021.
[14] R. Penrose, RD Sorkin, E. Woolgar, "Un teorema de masa positiva basado en el enfoque y el retardo de geodésicas
nulas", arXiv: gr-qc / 9301015v2.
[15] LS Brown, GJ Maclay, “Tensión de vacío entre placas conductoras: una solución de imagen”, Phys. Rev. 184, 1272
(1969); H. Epstein, V. Glaser, A. Jaffe, “No positividad de la densidad de energía en teorías de campo cuantificadas”,
Nuovo Cim. 36, 1016 (1965); SA Fulling, PCW Davies, “Radiación de un espejo móvil en espacio-tiempo bidimensional:
anomalía conforme”, Proc. R. Soc. Lond. A 348, 393 (1976); PCW Davies, SA Fulling, “Radiación de espejos en
movimiento y de agujeros negros”, Proc. R. Soc. Lond. A 356, 237 (1977). Para el descubrimiento de SL Braunstein de
que los estados comprimidos de campos electromagnéticos pueden tener densidad de energía negativa, ver MS Morris,
KS Thorne, “Agujeros de gusano en el espacio-tiempo y su uso para viajes interestelares: una herramienta para enseñar
la relatividad general”, Am. J. Phys 56, 5 (1988).
[16] JB Bekenstein, “Cosmologías relativistas generales no singulares”, Phys. Rev. D 11, 2072 (1975); C. Barceló, M. Visser,
“¿Crepúsculo para las condiciones energéticas?”, Int. J. Mod. Phys. D 11, 1553 (2002), arXiv: gr-qc / 0205066v1.
[17] N. Graham, KD Olum, “Condición de energía nula promediada acrónica”, Phys. Rev. D 76, 064001 (2007), arXiv:
0705.3193v2.
[18] AC Wall, “Demostración de la condición de energía nula promediada acrónica a partir de la segunda ley generalizada”,
Phys. Rev. D 81, 024038 (2010), arXiv: 0910.5751v2.
[19] M. Delbrück, G. Molière, Abhand. Preuss. Akad. Wiss. Phys. Matemáticas. 1, 25 (1936), citado por LW Bruch, H. Falk,
"Desigualdad de Gibbs en la mecánica estadística cuántica", Phys. Rev. A 2, 1598 (1970). Véase también H. Falk, E. Adler,
"Contraparte cuántica del teorema de Gibbs sobre la entropía y la dependencia estadística", Phys. Rev. 168, 185 (1968).
[20] Uhlmann, A., Wiss. Z. Karl-Marx-Univ. Leipzig 20, 633 (1971), id. 21, 427 (1972), id. 22, 139 (1973), citado por A. Wehrl,
"Propiedades generales de la entropía", Rev. Mod. Phys. 50, 221 (1978); A. Wehrl, "¿Cuán caótico es el estado de un
sistema cuántico?" Representante de matemáticas. Phys. 6, 15 (1974).
[21] SM Carroll, J. Chen, “La inflación espontánea y el origen de la flecha del tiempo” (2004), arXiv: hep-th / 0410270v1.
[22] TM Fiola, J. Preskill, A. Strominger, SP Trivedi, “Termodinámica de agujeros negros y pérdida de información en dos
dimensiones”, Phys. Rev. D 50, 3987 (1994), arXiv: hep-th / 9403137.
[23] JA Wheeler, 1974. “Más allá del fin de los tiempos”, en M. Rees, R. Ruffini, JA Wheeler, Agujeros negros, ondas
gravitacionales y cosmología: una introducción a la investigación actual., Gordon y Breach 1974.
[24] Vicepresidente Frolov, MA Markov, MA Mukhanov. “¿A través de un agujero negro hacia un nuevo universo?”, Phys.
Letón. B 216, 272 (1989).
[25] L. Smolin, "¿Evolucionó el universo?" Clase. Quantum Grav. 9, 173 (1992), "El destino de las singularidades de los
agujeros negros y los parámetros de los modelos estándar de física de partículas y cosmología" (1994), arXiv: gr-qc /
9404011, "El estado de la selección natural cosmológica" (2006) , arXiv: hep-th / 0612185v1.
[26] J. Khoury, BA Ovrut, PJ Steinhardt, N. Turok, "Universo ekpyrotic: Branes en colisión y el origen del big bang caliente",
Phys. Rev. D 64, 123522 (2001), arXiv: hep-th / 0103239v3.
[27] WG Unruh, RM Wald, “Radiación de aceleración y segunda ley generalizada de la termodinámica”, Phys. Rev. D 25, 942
(1982); "Límites de entropía, radiación de aceleración y la segunda ley generalizada", Phys. Rev. D 27, 2271 (1983); MJ
Radzikowski, WG Unruh, "Corrección de 'Radiación de aceleración y la segunda ley generalizada de la termodinámica'",
Phys. Rev. D 37, 3059 (1988); D. Marolf, R. Sorkin "Sobre el estado de los objetos altamente entrópicos" Phys. Rev. D 69,
024014 (2004), arXiv: hep-th / 0309218; D. Marolf, R. Roiban, "Nota sobre los estados vinculados y el límite de
Bekenstein", JHEP 08, 033 (2004), arXiv: hep-th / 0406037; DN Page, “Radiación de Hawking y termodinámica de
agujeros negros”, New J. Phys. 7, 203 (2005), arXiv: hep-th / 0409024.
[28] AC Wall “Diez pruebas de la segunda ley generalizada”, JHEP 0906, 021 (2009), arXiv: 0901.3865v2, y referencias.
[29] AC Wall "Una prueba de la segunda ley generalizada para los horizontes de Rindler en rápida evolución", Phys.Rev. D
82, 124019 (2010), arXiv: 1007,1493; AC Wall, “Una prueba de la segunda ley generalizada para campos que cambian
rápidamente y cortes de horizonte arbitrarios”, Phys. Rev. D 85, 104049 (2012), arXiv: 1105.3445v2.
[30] RM Wald, “La entropía del agujero negro es una carga de Noether”, Phys. Rev. D 48, 3427 (1993), arXiv: gr-qc /
9307038; V. Iyer, RM Wald, "Algunas propiedades de la carga de Noether y una propuesta para la entropía dinámica del
agujero negro", Phys.Rev. D 50, 846 (1994).
[31] SW Hawking, “Creación de partículas por agujeros negros”, Commun. Matemáticas. Phys. 43, 199 (1975).
[32] DV Fursaev, SN Solodukhin, "Sobre la renormalización de un bucle de la entropía de agujero negro", Phys. Letón. B 365,
51 (1996), arXiv: hep-th / 9412020; J.-G. Demers, R. Lafrance, RC Myers, “Entropía y renormalización del agujero
negro” (1995), arXiv: gr-qc / 9507042; SN Solodukhin, "Renormalización de un bucle de la entropía del agujero negro
debido a materia no mínimamente acoplada", Phys. Rev. D 52, 7046 (1995), arXiv: hep-th / 9504022; SP de Alwis, N.
Ohta, “Termodinámica de campos cuánticos en fondos de agujeros negros”, Phys. Rev. D 52, 3529 (1995), arXiv: hep-th
/ 9504033; E. Winstanley, “Entropía de agujero negro renormalizada en el espacio anti-de Sitter a través del método de
la 'pared de ladrillos'”, Phys. Rev. D 63, 084013 (2001), arXiv: hep-th / 0011176. Para obtener algunos resultados
bidimensionales, consulte VP Frolov, DV Fursaev, AI Zelnikov, “Black Hole Entropía: termodinámica, procedimiento
estadístico-mecánico y de resta ”, Phys. Letón. B 382, 220 (1996), arXiv: hep-th / 9603175; eid. “Entropía del agujero
negro: fuera de la cáscara vs dentro de la cáscara”, Phys. Rev. D 54, 2711 (1996), arXiv: hep-th / 9512184v2. Para una
aparente discrepancia para los campos escalares en dimensiones impares, ver Kim, Kim, Soh, Yee, “Entropía
termodinámica renormalizada de agujeros negros en dimensiones superiores”, Phys. Rev. D 55, 2159 (1997), arXiv: gr-
qc / 9608015v3.
[33] D. Kabat, “Entropía de agujero negro y entropía de entrelazamiento” Nucl. Phys. B 453, 281 (1995), arXiv: hep-th /
9503016; F. Larsen, F. Wilczek, “Renormalización de la entropía del agujero negro y de la constante de acoplamiento
gravitacional”, Nucl. Phys. B 458, 249 (1996), arXiv: hep-th / 9506066; DV Fursaev, G. Miele, "Conos, espines y granos
de calor", Nucl. Phys. B 484, 697 (1997), arXiv: hep-th / 9605153; W. Donnelly, AC Wall, "¿Contribuyen realmente los
campos de calibre negativamente a la entropía del agujero negro?", Phys. Rev. D 86, 064042 (2012), arXiv: 1206.5831.
[34] TA Jacobson, R. Parentani, “Entropía del horizonte”, Encontrado. Phys. 33, 323 (2003), arXiv: gr-qc / 0302099.
[35] Véase el apéndice B de la ref. [22], y discusión en la Ref. [28].
[36] RD Sorkin, “Diez tesis sobre la entropía del agujero negro”, Stud. Hist. Philos. Modificación. Phys. 36, 291 (2005), arXiv:
hep-th / 0504037.
[37] Ted Jacobson, Robert C. Myers, “Entropía de los agujeros negros de Lovelock”, Phys. Rev. Lett. 70, 3684 (1993); T. Liko,
Phys. Rev. D 77, 064004 (2008), arXiv: 0705.1518; S. Sarkar, AC Wall, título provisional "Violaciones de la segunda ley
en la gravedad de Lovelock", de próxima publicación.
[38] T. Jacobson, G. Kang, RC Myers, "Aumento de la entropía del agujero negro en una mayor curvatura de gravedad", Phys.
Rev. D 52, 3518 (1995), arXiv: gr-qc / 9503020.
[39] CP Burgess, "La gravedad cuántica en la vida cotidiana: la relatividad general como una teoría de campo eficaz", Living.
Rev. Rel. 7, 5 (2004), arXiv: gr-qc / 0311082.
[40] H. Casini, M. Huerta, “Una entropía de entrelazamiento finito y el teorema c”, Phys. Letón. B 600, 142 (2004), arXiv:
hep-th / 0405111v3.
[41] T. Shimomura, T. Okamura, T. Mishima, H. Ishihara, "¿Se cumple la segunda ley generalizada en forma de expresión
derivada del tiempo?", Phys.Rev. D 62 044036 (2000), arXiv: gr-qc / 9902029v1.
[42] N. Pippenger, "Las desigualdades de la teoría cuántica de campos", IEEE Trans. en Info. Teoría, 49, 773 (2003).
[43] AN Bernal, M. Sánchez, “Los espaciotiempos globalmente hiperbólicos se pueden definir como 'causales' en lugar de
'fuertemente causales'”, Class. Quant. Grav. 24, 745 (2007), arXiv: gr-qc / 0611138v1.
[44] A. Strominger, D. Thompson, "A Quantum Bousso Bound", Phys. Rev. D 70, 044007 (2004), arXiv: hep-th / 0303067.
[45] RP Geroch, “Topología en relatividad general”, J. Math. Phys. 8, 782 (1967).
[46] N. Sakai, K. Nakao, H. Ishihara, M. Kobayashi, "¿Es posible crear un universo a partir de un monopolo en un
laboratorio?", Phys. Rev. D 74, 024026 (2006), arXiv: gr-qc / 0602084v3.
[47] B. Freivogel, VE Hubeny, A. Maloney, RC Myers, M. Rangamani, S. Shenker, “Inflation in AdS / CFT”, JHEP 0603, 007
(2006), arXiv: hep-th / 0510046v4.
[48] S. Coleman, F. De Luccia, "Efectos gravitacionales sobre y del decaimiento del vacío", Phys. Rev. D 21, 3305 (1980); W.
Fischler, D. Morgan, J. Polchinski, "Nucleación cuántica de burbujas de vacío falso" Phys. Rev. D 41, 2638 (1990); E.
Farhi, AH Guth, J. Guven, "¿Es posible crear un universo en el laboratorio mediante túneles cuánticos?", Nucl. Phys. B
339, 417 (1990); EI Guendelman, J. Portnoy, “¿El universo a partir de una partícula elemental?”, Clase. Quant. Grav. 16,
3315 (1999), arXiv: gr-qc / 9901066v1.
[49] T. Banks, “Herejes del falso vacío: efectos gravitacionales sobre y del decaimiento del vacío 2”, arXiv: hep-th /
0211160v2; A. Aguirre, MC Johnson, “Dinámica e inestabilidad de las falsas burbujas de vacío”, Phys. Rev. D 72, 103525
(2005), arXiv: gr-qc / 0508093v2.
[50] G. Galloway, K. Schleich, D. Witt, E. Woolgar, "La conjetura de correspondencia AdS / CFT y la censura topológica", Phys.
Letón. B 505, 255 (2001), arXiv: hep-th / 9912119v2.
[51] M. Alcubierre, “El impulso warp: viaje hiperrápido dentro de la relatividad general”, Clase. Quant. Grav. 11, L73 (1994),
arXiv: gr-qc / 0009013; Allen E. Everett, "Impulso warp y causalidad", Phys. Rev. D 53, 7365 (1996); MJ Pfenning, LH
Ford, "La naturaleza no física de 'Warp Drive'", Clase. Quant. Grav. 14, 1743, (1997), arXiv: gr-qc / 9702026; WA
Hiscock, “Efectos cuánticos en el espacio-tiempo warp drive de Alcubierre”, Clase. Quant. Grav. 14, L183 (1997), arXiv:
gr-qc / 9707024; C. Van Den Broeck, “Un 'motor warp' con requisitos de energía total más razonables”, Clase. Quant.
Grav. 16, 3973 (1999), arXiv: gr-qc / 9905084; FSN Lobo, M. Visser, “Limitaciones fundamentales en los tiempos de
espacio de la 'unidad warp'”, Clase. Quant. Grav. 21, 5871 (2004), arXiv: gr-qc / 0406083; FSN Lobo, "Soluciones
exóticas en relatividad general: agujeros de gusano atravesables y espacio-tiempo de 'impulsión warp'", Investigación
de gravedad clásica y cuántica, ed. MN Christiansen, TK Rasmussen, Nova Sci. Pub. 2008, arXiv: 0710.4474; S. Finazzi, S.
Liberati, C. Barceló, “Inestabilidad semiclásica de impulsiones warp dinámicas”, Phys. Rev. D 79, 124017 (2009), arXiv:
0904.0141.
[52] RD Sorkin, E. Woolgar, “Un orden causal para los espaciotiempos con métricas de Lorentzian C0: prueba de la
compacidad del espacio de las curvas causales”, Clase. Quant. Grav. 13, 1971 (1996), arXiv: gr-qc / 9508018v3.
[53] E. Witten, "Inestabilidad del vacío de Kaluza-Klein", Nucl. Phys. B 195, 481.
[54] DN Page, S. Surya, E. Woolgar, “Masa positiva por causalidad holográfica”, Phys.Rev.Lett. 89, 121301 (2002), arXiv: hep-
th / 0204198.
[55] RD Sorkin, D. Sudarsky, "Grandes fluctuaciones en el área del horizonte y lo que pueden decirnos sobre la entropía y la
gravedad cuántica", Clase. Quant. Grav. 16, 3835 (1999), arXiv: gr-qc / 9902051.
[56] A. Vilenkin, Phys. Rev. D 27, 2848 (1983); A. Linde, "Universo inflanationary caótico que se reproduce a sí mismo
eternamente existente", Phys Lett. B 175, 395 (1986); A. Linde, D. Linde, A. Mezhlumian, “De la teoría del Big Bang a la
teoría de un universo estacionario” Phys. Rev. D 49, 1783 (1984), gr-qc / 9306035.
[57] M. Niedermaier, M. Reuter, "El escenario de seguridad asintótica en la gravedad cuántica", Liv. Rev. Relativity, 9, 5
(2006),http://www.livingreviews.org/lrr-2006-5.
[58] P. Wallden, “Conjuntos causales: gravedad cuántica desde un espacio-tiempo fundamentalmente discreto”, J. Phys. Conf.
Ser. 222, 012053 (2010), arXiv: 1001.4041v1.
[59] H. Sahlmann, “Gravedad cuántica de bucles - una breve reseña”, arXiv: 1001.4188v1.
[60] F. Hacquebord, “Simetrías e interacciones en la teoría de cuerdas matriciales”, arXiv: hep-th / 9909227v1.
[61] SL Dubovsky, SM Sibiryakov, “Ruptura espontánea de la invariancia de Lorentz, agujeros negros y perpetuum mobile
del segundo tipo”, Phys. Letón. B 638, 509 (2006), arXiv: hep-th / 0603158; C. Eling, BZ Foster, T. Jacobson y AC Wall,
“Violación de Lorentz y movimiento perpetuo”, Phys. Rev. D 75, 101502 (R) (2007), arXiv: hep-th / 0702124; T.
Jacobson, AC Wall, "Termodinámica del agujero negro y simetría de Lorentz", encontrado. Phys. 40, 1076 (2010), arXiv:
0804.2720; D. Blas, S. Sibiryakov, “Gravedad de Horava versus termodinámica: el caso del agujero negro”, arXiv:
1202.4497; P. Berglund, J. Bhattacharyya, D. Mattingly, “Mecánica de horizontes universales”, arXiv: 1202.4497. Véase
también el uso explícito de la invariancia de Lorentz en la Ref. [29].
[62] S. Coleman, “Agujeros negros como pistas falsas: fluctuaciones topológicas y pérdida de coherencia cuántica”, Nucl.
Phys. B 307, 867 (1988).
Conclusión

Por tanto, el universo tiene una causa


9
La agencia libertaria y el debate Craig / Grünbaum
sobre la explicación teísta de la singularidad inicial
JP Moreland

Aunque algunos objetarían, hoy se reconoce ampliamente que el universo físico espacio-
temporal tuvo un comienzo. Hay al menos dos modelos clásicos del Big Bang de la singularidad
inicial del tiempo t = 0. El primer modelo representa un intervalo de tiempo que se cierra en t =
0. En este modelo, t = 0 es un evento singular, temporalmente primero, del espacio-tiempo físico.
El segundo modelo presenta un intervalo de tiempo que es finito, abierto en el pasado y excluye
t = 0 como un punto del espacio-tiempo. Más bien, t = 0 se construye como un límite del espacio-
tiempo. En ambos modelos, no hay un instante de tiempo anterior a la singularidad inicial. Ahora,
varios teístas han aprovechado el reconocimiento de que el universo tuvo un comienzo para
revivir el antiguo argumento cosmológico kalām a favor de la existencia de Dios. El defensor del
argumento cosmológico kalām presenta tres dilemas exhaustivos y trata de establecer el cuerno
relevante de cada uno: (1) O el universo tuvo un comienzo o no lo tuvo. (2) Si el universo tuvo
un comienzo, entonces fue causado o no. (3) Si el comienzo del universo fue causado, la causa fue
personal o impersonal.
No hace falta decir que el argumento del kalām ha sido muy controvertido. Concedamos que el
pasado es temporalmente finito y que el universo tuvo un comienzo. En los últimos años, William
Lane Craig y Adolf Grünbaum se han involucrado en un estimulante y acalorado debate sobre el
dilema (3).1Para comprender este intercambio, comencemos por hacernos esta pregunta: si el
origen del universo no debe tomarse como un hecho bruto, ¿qué tipo de explicación deberíamos
dar? Por al menos dos razones, Craig ha argumentado que es obvio que una explicación causal
del evento no será suficiente.2Primero, ya sea que t = 0 sea el primer evento en el tiempo o el
límite del tiempo y, por lo tanto, no sea un evento, se da el caso de que (i) si la prioridad causal
implica prioridad temporal, entonces no puede haber causa de evento para t = 0 , y (ii) si la
prioridad causal no implica una prioridad temporal (es decir, una causa puede ser simultánea
con su efecto), entonces la causa del evento para t = 0 sería en sí misma el primer evento
(explicativo), en lugar de la singularidad inicial y, a su vez, se necesitaría una explicación del
evento causal, ad infinitum.3En segundo lugar, Craig ha afirmado que la causa del comienzo del
universo debe ser sin causa, eterna e inmutable (sin la creación). Además, la causa debe ser
personal “[p] o la única forma en que un efecto temporal podría originarse a partir de una causa
eterna e inmutable parecería ser si la causa es un agente personal que elige eternamente crear
un efecto en el tiempo. Una causa inmutable que opera mecánicamente produciría un efecto
inmemorial o ninguno en absoluto; pero un agente dotado de libre albedrío [libertario] puede
tener una determinación eterna de operar causalmente en un (primer) momento de tiempo y
por lo tanto producir un primer efecto temporal.4
Desde el punto de vista de Craig, entonces, no solo una explicación causal del evento es
inadecuada para el comienzo del universo, sino que una explicación personal es adecuada.
Grünbaum ha arremetido contra una explicación personal del comienzo del universo y ha
planteado una serie de objeciones contra Craig que buscan mostrar la ininteligibilidad o
insuficiencia de una explicación personal teísta para la singularidad inicial. El propósito de este
artículo es mostrar que una vez que se aclaran los recursos conceptuales de la agencia libertaria
y la causalidad del agente, estos recursos son suficientes para refutar las objeciones planteadas
por Grünbaum contra Craig y para inclinar la balanza de su limitado debate a favor de Craig. No
buscaré justificar el argumento cosmológico kalām en su totalidad, ni argumentaré que la
agencia libertaria y la causación del agente son, de hecho, el modelo correcto de acción humana,
aunque creo que ese es el caso. Comenzaré discutiendo la causa del evento y el agente y las
formas de explicación apropiadas para cada uno. A esto le seguirá una aplicación de la causalidad
del agente y la explicación personal a la tarea de refutar los cinco argumentos clave presentados
por Grünbaum contra Craig.
Causa del evento, causa del agente y explicación: La causalidad de eventos es un modelo de
causalidad eficiente ampliamente utilizado en la ciencia. Supongamos que un ladrillo rompe un
vaso. En general, la causalidad del evento se puede definir de esta manera: un evento del tipo K
(el movimiento del ladrillo) en circunstancias del tipo C (el vidrio está en un estado sólido y no
líquido) que ocurre en una entidad del tipo E (el objeto de vidrio en sí) hace que se produzca un
evento de tipo Q (la rotura del vidrio). Aquí, todas las causas y efectos son eventos que
constituyen cadenas causales interpretadas de manera determinista (las condiciones causales
son suficientes para que se obtenga un efecto) o probabilísticamente (las condiciones causales
son suficientes para fijar las posibilidades de que se obtenga un efecto). Asociado con la
causalidad de un evento hay un modelo de explicación de la ley de cobertura según el cual algún
evento (el explanandum) se explica dando un argumento deductivo o inductivo correcto para
ese evento. Tal argumento contiene dos características en su explanans: una ley de la naturaleza
(universal o estadística) y las condiciones causales iniciales.
Algunos filósofos —compatibilistas, por ejemplo— describen las acciones humanas en
términos de causalidad de eventos y emplean un modelo de ley de cobertura para explicar tales
acciones. Los defensores de la libertad libertaria objetan y han desarrollado diferentes versiones
de un modelo alternativo de acción humana. Una comprensión ampliamente aceptada de la
agencia libertaria identifica el componente central de la acción intencional como esfuerzo
intencional, es decir, ejercer un poder para tratar de producir algún efecto por una razón. 5Como
veremos más adelante, algunos libertarios ofrecen versiones ligeramente modificadas de acción
intencional. Pero por ahora, podemos incorporar esta caracterización de la acción intencional en
la siguiente descripción de la agencia libertaria: La persona P ejerce la agencia libertaria, y libre
e intencionalmente provoca algún evento e solo en el caso 1) P es una sustancia que tiene el
poder activo de provocar e; 2) P ejerció su poder como primer motor (un "originador") para
producir e; 3) P tenía la capacidad categórica de abstenerse de ejercer su poder para producir e;
4) P actuó en aras de una razón que sirve como causa final o meta teleológica por la que P actuó.
Tomados solos, 1-3 establecen las condiciones necesarias y suficientes para un acto voluntario
puro. Las proposiciones 1 a 4 establecen las condiciones necesarias y suficientes para un acto
intencional.
Por "sustancia" me refiero a un miembro de una especie natural, un particular esencialmente
caracterizado que mantiene la igualdad absoluta a través del cambio (accidental) y que posee
una unidad primitiva de partes, propiedades y capacidades / poderes a la vez. El “poder activo”
es una noción epistémicamente primitiva que tiene un sentido que finalmente se entiende
ostensivamente en actos de conciencia introspectiva en primera persona de la propia iniciación
del cambio.6Una marca característica del poder activo es la capacidad de iniciar el movimiento,
de provocar algo. La potencia activa es una habilidad dual. Así entendido, es imposible que un
ejercicio de poder activo sea causado causalmente por eventos previos. Un "primer motor" es
una sustancia que tiene poder activo. La noción de "capacidad categórica" en 3) tiene dos
aspectos importantes. Primero, expresa el tipo de habilidad que posee un primer motor que
puede ejercer el poder activo y, como tal, contrasta con la habilidad condicional que emplean los
compatibilistas. En segundo lugar, la capacidad categórica es una capacidad dual; si uno tiene la
capacidad de ejercer su poder para hacer (o voluntad de hacer) A, entonces también tiene la
capacidad de abstenerse de ejercer su poder para hacer (o querer hacer) A. Finalmente, 4)
expresa una visión de razones como irreductibles, objetivos teleológicos por los que actúa una
persona. En general, podemos caracterizar esto diciendo que la persona S Φ 'd (por ejemplo, fue
a la cocina) para Ψ (por ejemplo, tomar café o satisfacer el deseo de S de tomar café). Esta
caracterización de la acción, según 4), no puede reducirse a una teoría causal de la acción que
utiliza la causalidad del evento creencia / deseo.
Se deben mencionar tres cosas sobre esta definición de agencia libertaria. Primero, hay dos
escuelas de pensamiento básicas con respecto a la cuestión de si los agentes causan o no sus
acciones. Los defensores de la primera escuela se aferran a la causalidad del agente y, por lo
tanto, creen que el primer motor en 2) causa sus acciones. Por ejemplo, Roderick Chisholm
afirma que una teoría adecuada de la agencia debería incluir la noción de que “hay un cierto
evento o situación que un agente causó o provocó ('Jones mató a su tío' implica que la muerte del
tío de Jones fue causado o provocado por Jones ... ”). 7De manera similar, Marilyn Adams afirma
que “[nosotros] los adultos con problemas de libertad somos responsables de nuestras
decisiones. . . en el sentido de que somos los agentes causantes de ellos ". 8Los defensores de la
segunda escuela aceptan una visión no causal de la agencia en la que las acciones de los
impulsores inmóviles son eventos no causados realizados por razones como causas finales. Tales
razones proporcionan explicaciones para actos libres, pero no lo hacen citando la razón misma
o al agente como causa eficiente del acto. Stewart C. Goetz es un gran defensor de la teoría no
causal de la agencia libertaria: “En la visión no causal de la agencia que estoy desarrollando, la
causalidad no juega un papel positivo en la explicación de la realidad. . . de libertad. . . . Las
acciones con respecto a las cuales un agente es libre y responsable son eventos no causados ".9
De cualquier manera, los libertarios están de acuerdo en que un motor inmóvil es un agente que
puede actuar sin condiciones causales suficientes que requieran que el agente actúe; el agente es
la fuente absoluta de sus propias acciones.

En segundo lugar, los teóricos de la agencia libertaria están divididos sobre el papel o las
razones en una teoría general de la agencia. Las teorías no causales de la agencia son claras al
ver las razones como causas finales, metas teleológicas por las cuales alguien actúa. Los
defensores de la causalidad del agente aceptan esta visión de las razones o sostienen que las
razones son condiciones causales necesarias (eficientes) que, junto con el propio ejercicio activo
del poder del agente (y, quizás, otras condiciones), causan la acción. 10Por lo tanto, algunos
agentes causalistas ajustarían 4) en consecuencia. En tercer lugar, es lógicamente imposible que
una persona sea obligada a causar algo como agente. Los actos libertarios son espontáneos en el
sentido de que no existen antecedentes causales suficientes para determinar que un agente actúa
con libertad libertaria.
Los defensores de la agencia libertaria emplean una forma de explicación personal que
contrasta con un modelo de ley de cobertura. Para comprender esta forma de explicación,
primero debemos mirar una distinción que es parte de la teoría de la acción: la diferencia entre
una acción básica y no básica. Para captar la diferencia entre una acción básica y no básica,
observe primero que a menudo se logra más de una cosa en un solo ejercicio de agencia. Algunas
acciones se realizan haciendo otras; por ejemplo, realizo el acto de ir a la tienda a comprar pan
al entrar en mi coche y conducir hasta la tienda. Las acciones básicas son fundamentales para el
desempeño de todos los demás, pero no se realizan haciendo otra cosa. En general, el Φ-ing de S
es básico si y solo si no hay otra descripción de acción no equivalente 'S Ψ-ing' tal que sea cierto
que S Φ-ed por Ψ-ing. Mi esfuerzo por mover mi brazo para obtener mis llaves es una acción
básica. Una acción no básica contiene acciones básicas que son parte y medio de la intención
última por la cual se realizó la acción no básica. Para cumplir con una intención no básica, debo
formar un plan de acción: un cierto conjunto ordenado de acciones básicas que tomo para ser un
medio eficaz de lograr mi intención no básica. El plan de acción que consiste en ir a la tienda a
comprar pan incluye los actos de recoger mis llaves y caminar hasta mi coche. un cierto conjunto
ordenado de acciones básicas que tomo para ser un medio eficaz de lograr mi intención no básica.
El plan de acción que consiste en ir a la tienda a comprar pan incluye los actos de recoger mis
llaves y caminar hasta mi coche. un cierto conjunto ordenado de acciones básicas que tomo para
ser un medio eficaz de lograr mi intención no básica. El plan de acción que consiste en ir a la
tienda a comprar pan incluye los actos de recoger mis llaves y caminar hasta mi coche. 11
En mi opinión, una acción es algo contenido totalmente dentro de los límites del agente. Por lo
tanto, estrictamente hablando, los resultados de una acción no son partes propias de esa acción.
Un resultado básico de una acción es un efecto intencionado provocado inmediatamente por la
acción. Si intento mover el dedo con éxito, el resultado básico es el movimiento del dedo. Los
resultados no básicos son efectos pretendidos más remotos causados por resultados básicos o
cadenas de resultados básicos más efectos pretendidos más remotos. El disparo del arma o el
asesinato de Lincoln son ilustraciones respectivas de este tipo de resultados no básicos.
Teniendo esto en cuenta, una explicación personal (divina o de otro tipo) de algún resultado
básico R provocado intencionalmente por la persona P, donde esta provocación de R es una
acción básica A, citará la intención I de P de que R ocurra y la El poder B que P ejerció para
producir R. P, I y B proporcionan una explicación completa de R: el agente P provocó R al ejercer
el poder B para realizar la intención I como una meta irreductiblemente teleológica. Para
ilustrarlo, suponga que estamos tratando de explicar por qué Wesson simplemente movió su
dedo (R). Podríamos explicar esto diciendo que Wesson (P) realizó un acto de esforzarse por
mover su dedo (A) en el sentido de que ejerció su capacidad para mover (o voluntad de mover)
su dedo (B) con la intención de mover el dedo (I) . Si Wesson moviendo su dedo fue una expresión
de la intención de mover un dedo para disparar un arma y matar a Smith, entonces podemos
explicar los resultados no básicos (el disparo del arma y el asesinato de Smith) diciendo que
Wesson (P) realizó un acto de matar a Smith (I3) al intentar mover su dedo (A) intencionalmente
(I1) ejerciendo su poder para hacerlo (B), con la intención de disparar el arma (I2) para matar a
Smith. Una explicación de los resultados de una acción no básica (como ir a la tienda a comprar
pan) incluirá una descripción del plan de acción.12
Explicación personal, acción divina y crítica de Grünbaum: Ahora estamos en condiciones de
discutir la explicación personal y la acción divina. 13 Los teístas difieren sobre la naturaleza
precisa de la propia actividad causal del mundo, pero quiero dejar de lado estas disputas y
concentrarme en explicar la diferencia entre los actos milagrosos causales primarios de Dios en
el mundo natural y el uso de causas secundarias por parte de Dios.14En el curso ordinario de los
eventos naturales, los patrones climáticos o las reacciones químicas, por ejemplo, Dios sostiene
las entidades naturales en existencia junto con sus propios poderes causales, pero esas entidades
tienen disposiciones causales para producir cambios por sí mismas si se ven afectadas de ciertas
maneras. En las cadenas causales ordinarias, Dios no mueve a las entidades naturales,
simplemente las sostiene. En tales casos, Dios no es directamente responsable de los cambios de
estado de cosas en las cosas, y la causación del evento, junto con un modelo de explicación de ley
que lo cubra, es apropiado, incluso si Dios emplea secuencias causales naturales para asegurar
una intención divina. Sin embargo, cuando se trata de actos milagrosos directos y causales
primarios de Dios para producir cambios en el mundo (dividir el Mar Rojo, crear el universo de
la nada, por ejemplo), Dios ejerce la agencia libertaria como causa principal. Algunos han
concebido una actividad como la de Dios, ya sea trayendo algo a la existencia ex nihilo o
proporcionando momentáneamente a las entidades naturales nuevos poderes causales
diferentes de sus poderes normales, lo que, a su vez, desencadena una reacción en cadena de
divergencia en el universo. Independientemente de la naturaleza precisa de la actividad causal
primaria Divina, sin embargo, al menos los resultados básicos de tales actos son causados por un
ejercicio de la agencia libertaria Divina y deben ser explicados por una explicación teísta
personal.
Por lo que puedo decir, la refutación de Adolf Grünbaum del empleo de Craig de la explicación
teísta personal para la singularidad inicial se reduce a cinco argumentos clave:

(1) La noción de un agente Divino causa de la singularidad inicial es incoherente porque la


causalidad es esencialmente una actividad o relación temporal en la que la causa debe ser
temporalmente anterior a su efecto. Ahora bien, si Dios fuera el agente causante de la
singularidad inicial, entonces como no hubo tiempo anterior a esa singularidad, esto
significaría que Su acto causal creativo y el efecto físico, es decir, la singularidad inicial,
tendrían que ocurrir simultáneamente. Pero la noción de causalidad simultánea es
ininteligible. Grünbaum dice: "Considero que la noción de causalidad simultánea, aplicada
a la supuesta creación del tiempo, es ininteligible o, en el mejor de los casos,
incoherente".15 En otra parte, agrega, "Precisamente la hipótesis de que t = 0 simplemente
no tuvo un predecesor temporal obvia la búsqueda equivocada de la causa elusiva". dieciséis
(2) La noción de un agente Divino causa de la singularidad inicial es demasiado inescrutable,
misteriosa y oscura para hacer un trabajo explicativo. Según Grünbaum, cualquier
apelación a la agencia divina como creador, conservador o interventor es una apelación a
“la inescrutabilidad dinámica inherentemente irremediable de la causación divina. . .
"17También afirma que “en lo que respecta a la causalidad divina, se nos dice. . . que una
agencia X intrínsecamente esquiva y misteriosa produce inescrutablemente el efecto ". 18
(3) La explicación personal divina es inferior a la explicación científica porque la primera no
proporciona lo que ofrece la segunda: una especificación de procesos causales
intermedios, vínculos causales mediadores que conectan causas (divinas o de otro tipo)
con sus efectos. Dice Grünbaum, “. . . la invocación de un creador divino para
proporcionar explicaciones causales en cosmología adolece de un defecto fundamental
con respecto a la explicación científica: como sabemos por dos mil años de teología, la
hipótesis de la creación divina ni siquiera prevé, y mucho menos, especifica, un proceso
causal intermedio apropiado que vincularía la presencia de la supuesta agencia divina
(causal) con los efectos que se le atribuyen. . . . En física, 19
(4) Grünbaum sostiene que no se sigue de la premisa causal "todo lo que comienza a existir
tiene una causa" que la primera causa sea un agente consciente. Entonces, incluso si
admitimos que hay una primera causa de la singularidad inicial, tal admisión no implica
que la primera causa sea un Dios personal.20
(5) Solo los eventos pueden calificar como los efectos momentáneos de otros eventos o de
las acciones de los agentes y si la singularidad t = 0 se toma como un no evento, entonces
la singularidad no se puede tomar como un efecto de ninguna causa: “Sea Doy por
sentado el punto de vista completamente razonable de que solo los eventos pueden
calificar como efectos momentáneos de otros eventos o de la acción de una agencia. Dado
que la singularidad del Big Bang es técnicamente un no-evento, y t = 0 no es un momento
genuino de su ocurrencia, la singularidad no puede ser el efecto de ninguna causa en el
caso de causalidad par o causalidad de agente por igual ". 21

Parte de la respuesta de Craig a Grünbaum, especialmente a (1), es la especificación de tres


modelos convincentes de creacionismo teológico, de los cuales dos son relevantes para mis
preocupaciones. Modelo 1: El Creador puede concebirse como causal, pero no temporalmente,
anterior al origen del universo, de modo que el acto de hacer que el universo comience a existir
es simultáneo con su comienzo a existir. El Creador, sin el universo, existe sin cambios y (muy
probablemente) sin tiempo y en la singularidad crea tanto el universo como el tiempo. Modelo
2: Se puede concebir que el Creador exista atemporalmente y que cause sin tensión el origen del
universo en la singularidad del Big Bang.
Una mayor reflexión sobre la naturaleza de la agencia libertaria, espero, respaldará la
inteligibilidad de los modelos de Craig y proporcionará más refutaciones de las objeciones de
Grünbaum. En aras de la brevedad, supongamos por ahora sin argumento una teoría volitiva de
la acción según la cual las acciones normales, como levantar el brazo, deben analizarse de la
siguiente manera: el movimiento corporal es causado por un tipo específico de evento: una
volición (esforzarse), que, a su vez, es provocada de una forma u otra por el propio agente.
Ahora bien, existe una cierta dificultad para la teoría libertaria de la agencia si admitimos que
todo lo que tiene un comienzo tiene una causa. El levantamiento del brazo es un evento con un
comienzo y es causado por otro evento: una voluntad. Pero la volición es un evento con un
comienzo y también tiene una causa, es decir, el agente. Ahora bien, ¿qué hace el agente para
provocar su voluntad? Si el agente hace algo, ¿es lo que hace en sí mismo un evento y, de ser así,
necesita una causa? La afirmación de que el agente causa una jerarquía infinita de eventos al
causar su voluntad es inadecuada. ¿Qué otras soluciones hay disponibles? Hay tres que han sido
más reconocidos.22
AC I:El agente no hace nada para provocar su voluntad. La volición es un acto básico producido
directamente por el agente sin ejercer ningún poder para producirlo. El agente es simplemente
el primer relatum que se encuentra en una relación causal primitiva con el segundo relatum, el
evento volitivo. Se ha planteado la siguiente objeción contra AC I: si la volición ocurre en un
momento particular t1 y la causa es una sustancia duradera que existió durante algún tiempo
antes de t1, entonces ¿por qué ocurrió la volición cuando ocurrió? Una razón por la que surge
este problema es que en los casos de agencia libertaria, ningún conjunto de condiciones dentro
de un agente es suficiente para producir una volición. Puede haber condiciones necesarias
(motivos, creencias y deseos, por ejemplo), pero pueden existir en un agente durante un período
de tiempo prolongado sin que se produzca la voluntad. Si el agente no hace algo para causar la
volición, ¿por qué ocurre en t1? Por lo que puedo ver, salvo abandonar AC I, la mejor solución al
problema es trabajar con el segundo relatum. Un agente no solo causa una volición simpliciter,
digamos una volición a ϕ. El agente provoca una volición a ϕ-en-t1 (o ahora).
AC II:El agente hace algo para provocar su voluntad, es decir, ejerce un poder. Según este punto
de vista, la relación causal entre un agente y su voluntad no es primitiva; se basa en un ejercicio
de poder. En el CA II, deberíamos revisar el principio causal y reconocer que un ejercicio de poder
no es un evento en el sentido relevante para este principio revisado. El principio causal debería
decir "toda sustancia que comienza a existir o cada cambio que sufre una sustancia tiene una
causa". Ahora bien, un ejercicio de poder es simplemente el ejercicio de un poder que se mueve
a sí mismo o un principio de autodeterminación que no es en sí mismo un cambio sufrido por el
agente. En los actos libertarios, los agentes no se mueven o son los primeros en moverse. No
experimentan primero un cambio (un ejercicio de poder) antes de que puedan causar un cambio
(una volición). Más bien, agentes, qua sustancias, causan directamente sus voliciones en virtud
de poseer y ejercer su poder para hacerlo. Dado que un ejercicio de poder no es un cambio
sufrido por un agente (ni el advenimiento de una sustancia), no es un evento con un comienzo
en el sentido relevante para el principio causal, aunque hubo un tiempo antes. y luego de lo cual
el agente provocó sus voliciones. Además de existir, solo los cambios (internos o relacionales)
necesitan una causa.
CA III:El principio causal correcto es "todo evento que, en términos generales, puede tener una
causa, tiene una causa". Como vimos anteriormente, en términos generales es lógicamente
imposible que alguien sea causado por un agente, causando algo más, una voluntad, por ejemplo.
Entonces, si admitimos que un ejercicio de poder es un evento (es decir, un cambio dentro del
agente), cuando reconocemos que tal ejercicio es simplemente el evento de un agente que causa
directamente su voluntad (el ejercicio del poder no es t un evento causado por el agente que, a
su vez, el evento causa la volición), se hace evidente que no tiene una causa eficiente porque no
puede (aunque puede tener una razón que sirve como la causa final del ejercicio del poder ).

Apliquemos estas ideas a las críticas de Grünbaum a la causalidad del agente divino. Resulta
que sus objeciones en realidad hacen una excepción a la causalidad del agente y no a la acción
divina per se. Con respecto a la objeción (1), la noción de causalidad del agente divino no es
incoherente en absoluto. Existe una literatura bien desarrollada sobre la causalidad del agente,
así como su aplicación a la acción divina, y la mayoría de los filósofos que rechazan la causalidad
del agente no lo hacen basándose en que es incoherente. Además, la primera respuesta de Craig
a la acusación de incoherencia (el acto de Dios de causar el origen del universo fue simultáneo
con su comienzo) es bastante plausible. La voluntad de Dios (CA I-III) o su ejercicio de poder y
su voluntad (CA III) podrían tomarse como simultáneos o coincidentes con el resultado básico
de la voluntad de Dios: la creación de la singularidad inicial. AC I-III hacen inteligible la noción
de que un Dios intemporal sin creación podría producir espontáneamente la singularidad inicial.
En AC I, Dios causa atemporalmente la volición-para-crear-el-universo-en-t = 0 y esta volición es
simultánea o coincidente con la singularidad inicial. AC II describe el ejercicio del poder de Dios
como algo provocado por Dios, pero que no es en sí mismo un cambio dentro de Dios. De modo
que se vuelve inteligible suponer que Dios podría existir sin cambios y ejercer Su poder para
producir una volición para causar la-creación-del-universo-en-t = 0. Nuevamente, la volición
sería simultánea o coincidente con la singularidad inicial. Si Dios pudiera hacer esto sin cambios,
No veo ninguna razón para negar que también podría hacerlo atemporalmente porque la
temporalidad es relevante para la causalidad eficiente en gran parte porque a veces se piensa
erróneamente que un ejercicio de causalidad eficiente implica cambio, y el cambio es temporal.
En AC III, el ejercicio del poder de Dios sería simplemente el evento sin causa de que el agente
directamente provocara su voluntad para producir la singularidad inicial. Tal ejercicio no estaría,
de hecho, no podría ir precedido de un evento anterior que lo haya provocado. En este sentido,
tal ejercicio lo realiza un agente de forma espontánea. de hecho, no podría ser precedido por un
evento anterior que lo provocó. En este sentido, tal ejercicio lo realiza un agente de forma
espontánea. de hecho, no podría ser precedido por un evento anterior que lo provocó. En este
sentido, tal ejercicio lo realiza un agente de forma espontánea.
El segundo modelo de Craig (Dios existe atemporalmente y sin tensión causa la singularidad
inicial) también es plausible (dejando de lado los problemas de reconciliar este modelo con una
visión del tiempo en serie A) si dejamos de lado la teoría volitiva de la acción: un agente produce
un efecto. sin hacerlo por medio de un cambio volitivo interno dentro del agente. En AC I, Dios
podría causar eternamente desde la eternidad el-comienzo-del-universo-en-t = 0. En AC II, un
ejercicio de poder produciría la singularidad inicial, pero el ejercicio de poder no sería en sí
mismo un evento. AC III no sería aplicable al segundo modelo de Craig porque describe un
ejercicio de poder como un evento dentro del agente.
La objeción (2) también está fuera de lugar. Por un lado, la creación divina de la singularidad
inicial es precisamente análoga a los actos libertarios humanos, por ejemplo, ambos involucran
a los primeros que inician el cambio. No hay nada particularmente misterioso o inescrutable en
este último; de modo que, en ausencia de una buena razón para pensar que existe algún problema
específico con la creación Divina inicial, la acusación de inescrutabilidad es incuestionable.
Además, entendemos los ejercicios de poder principalmente a partir de la conciencia
introspectiva de nuestros propios actos libertarios, y utilizamos el concepto de acción así
derivado para ofrecer explicaciones en tercera persona del comportamiento de otras personas
humanas. No hay nada oscuro en tales explicaciones de los efectos producidos por otras personas
finitas, y no veo ninguna razón para pensar que este enfoque sea ilícito en el caso de la creación
inicial Divina. De hecho, naturalistas como John Searle, John Bishop y Thomas Nagel admiten que
nuestro concepto básico de acción en sí mismo es libertario. 23Searle llega incluso a decir que
nuestra comprensión de la causalidad de los eventos se deriva conceptualmente de nuestra
experiencia en primera persona de nuestra propia causalidad. Existe una tradición importante
en la filosofía de que la causalidad del agente es más clara y más básica que la causalidad de un
evento, y en realidad puede ser que si algún tipo de causalidad es inescrutable, sea la causalidad
del evento. Al afirmar que Dios creó la singularidad inicial, queremos decir que (1) no hubo
suficiente antecedente causal para la singularidad inicial (temporal o de otro tipo) aparte de (i)
Dios causó directamente la singularidad inicial sin hacer algo primero (AC I) o (ii) un ejercicio
del poder Divino para producir la singularidad inicial (CA II o III); (2) en un acto libertario básico,
Dios provocó libre y espontáneamente una voluntad que causó t = 0 como resultado básico.
La objeción (3) también está fuera de lugar. Un acto libertario básico que produce un resultado
básico no tiene vínculos causales intermedios entre el acto y el resultado. El resultado básico se
produce directamente. Además, el tipo de explicación personal que acompaña a las acciones
libertarias básicas y los resultados básicos no emplea vínculos causales intermedios en sus
explicaciones. Como vimos anteriormente, los ejemplos de este tipo de explicación hacen
referencia al agente mismo, la intención del agente y el poder básico ejercido. Dado que los
teístas describen la creación de la singularidad inicial como un acto Divino básico en el que un
Primer Motor provocó la iniciación del cambio, dando como resultado la singularidad inicial
como resultado básico, no existe un intermediario causal.
En filosofía de la ciencia, se reconoce ampliamente que, dados dos paradigmas en competencia,
a veces un rival considerará un fenómeno básico y que no necesita una solución, empírica o de
otro tipo. Por lo tanto, puede rechazar preguntas sobre cómo o por qué ocurre ese fenómeno y,
por lo tanto, difícilmente se puede culpar por no ser fructífero al sugerir líneas de investigación
empírica para procesos causales cuya existencia no postula la teoría. Como ha señalado Nicholas
Rescher,
[u] na manera en que un conjunto de conocimientos S puede abordar una pregunta es, por
supuesto, respondiéndola. Sin embargo, otra forma diferente e importante en la que S puede
abordar una pregunta es rechazándola. S rechaza [Q] cuando hay alguna presuposición de Q
que S no aprueba: dado S, simplemente no estamos en posición de elevar Q. 24

No sólo no es un vicio que una explicación personal teísta no cite un proceso causal intermedio;
también es una virtud que la explicación teísta no requiere tal proceso causal. Lo que sea que
haya causado t = 0 no podría haberlo hecho por medio de un proceso causal temporal intermedio
del tipo que Grünbaum anuncia como una virtud de la explicación científica, ya que t = 0 es el
primer evento o el límite inicial a partir del cual se derivan los eventos. De cualquier manera, no
hay eventos antes de t = 0 y, por lo tanto, una explicación causal del evento que cita un proceso
causal que conduce a t = 0 está fuera de discusión. Así, el modelo teísta es superior al modelo
científico de Grünbaum como explicación de la singularidad inicial porque el primero evita pero
el segundo requiere un vínculo causal intermedio.

En mi opinión, esta tercera objeción no es más que una afirmación que plantea preguntas de
que si las explicaciones causales del agente no se ajustan a las ofrecidas por las explicaciones
causales del evento, entonces las primeras son inferiores como estrategias explicativas
generales. Así entendida, la tercera objeción de Grünbaum no está realmente dirigida
principalmente a una explicación teísta. En cambio, es un ataque a la agencia libertaria y el tipo
de explicación asociada con ella. Parecería, entonces, que esta tercera objeción no es muy
impresionante. Algunos filósofos pueden pensar que los modelos compatibilistas de libertad son
preferibles a los modelos libertarios,
Con respecto a (4), hasta donde sabemos, solo los agentes conscientes se esfuerzan o quieren
algo. Entonces, incluso si es lógicamente posible que la Primera Causa no fuera consciente, no es
epistémicamente posible a la luz de lo que sabemos sobre los tipos de agentes que son capaces
de una acción libertaria. Si el origen del universo espacio-temporal no debe tomarse como un
hecho bruto, entonces, como hemos visto, la teoría de la agencia libertaria divina proporciona
una explicación para la singularidad inicial y las explicaciones causales del evento no pueden
proporcionar tal explicación. Ahora, no conozco ningún ejemplo de un agente libertario
esforzado que no fuera consciente. Grünbaum debe hacer algo más que afirmar la mera
posibilidad lógica de que la Primera Causa no fuera consciente. Debe demostrar que es
epistémicamente plausible pensar que tal agente podría ejercer un poder y hacer que la
singularidad inicial se materialice y, sin embargo, no sea consciente. Y este Grünbaum no lo ha
hecho.
Además, John Bishop ha argumentado que dada la naturaleza del naturalismo científico
contemporáneo, “la idea de un agente responsable, con la capacidad 'originaria' de iniciar
eventos en el mundo natural, no encaja fácilmente con la idea de [un agente como] un organismo
natural ".25En otra parte, Bishop señala que “. . . el problema de la agencia natural es un problema
ontológico, un problema sobre si la existencia de acciones puede admitirse dentro de una
perspectiva científica natural. . . . [A] gentes relaciones causales no pertenecen a la ontología de
la perspectiva natural. El naturalismo no emplea esencialmente el concepto de una relación
causal cuyo primer miembro está en la categoría de persona o agente (o incluso, para el caso, en
la categoría más amplia de continuante o "sustancia"). Todas las relaciones causales naturales
tienen primeros miembros en la categoría de evento o estado de cosas ". 26 Si admitimos que los
objetos abstractos no tienen poderes causales eficientes, entonces las observaciones de Bishop,
si son correctas, parecerían implicar que la causa eficiente de la singularidad inicial no es sólo
consciente, sino también sobrenatural.
Finalmente, a la luz de lo que hemos visto en nuestro análisis de la agencia libertaria y la
explicación personal, la objeción (5) es simplemente falsa o suplica. Los agentes provocan sus
propios ejercicios de poder y, en virtud de nuestro análisis del CA II, estos pueden
razonablemente tomarse como no eventos. Dado AC II, la afirmación de Grünbaum de que solo
los eventos pueden calificar como efectos momentáneos de otros eventos o acciones de agentes
no es correcta. Además, en las acciones no básicas, los agentes son los primeros que generan una
cadena de eventos. Si consideramos que un ejercicio de poder o una voluntad es el primer evento
en tal cadena, el agente provocó este evento. Sin embargo, si consideramos que una acción no
básica es el inicio de una secuencia causal temporal a seguir, de modo que el ejercicio de poder
/ volición forma un límite inicial para esa secuencia, el agente aún provocó el ejercicio del poder
/ volición. En la medida en que los agentes libertarios son los primeros en moverse, cuando
realizan acciones no básicas, la secuencia causal de eventos provocados por tales agentes tiene
un límite inicial de una manera exactamente análoga al origen del universo espacio-temporal. En
el caso de las acciones no básicas libertarias normales, el agente provoca el límite temporal inicial
de la secuencia de eventos, así como el resto de la cadena subsiguiente. En principio, entonces,
no hay ninguna dificultad con la idea de que un agente libertario Divino provoque t = 0, así como
el resto de los eventos que siguen. Entonces, incluso si admitimos que t = 0 no es un evento, la
teoría de la acción libertaria tiene los recursos para permitir que podría ser un efecto de un acto
creativo libre, Divino. En la medida en que los agentes libertarios son los primeros en moverse,
cuando realizan acciones no básicas, la secuencia causal de eventos provocados por tales agentes
tiene un límite inicial de una manera exactamente análoga al origen del universo espacio-
temporal. En el caso de las acciones no básicas libertarias normales, el agente provoca el límite
temporal inicial de la secuencia de eventos, así como el resto de la cadena subsiguiente. En
principio, entonces, no hay ninguna dificultad con la idea de que un agente libertario Divino
provoque t = 0, así como el resto de los eventos que siguen. Entonces, incluso si admitimos que t
= 0 no es un evento, la teoría de la acción libertaria tiene los recursos para permitir que podría
ser un efecto de un acto creativo libre, Divino. En la medida en que los agentes libertarios son los
primeros en moverse, cuando realizan acciones no básicas, la secuencia causal de eventos
provocados por tales agentes tiene un límite inicial de una manera exactamente análoga al origen
del universo espacio-temporal. En el caso de las acciones no básicas libertarias normales, el
agente provoca el límite temporal inicial de la secuencia de eventos, así como el resto de la
cadena subsiguiente. En principio, entonces, no hay ninguna dificultad con la idea de que un
agente libertario Divino provoque t = 0, así como el resto de los eventos que siguen. Entonces,
incluso si admitimos que t = 0 no es un evento, la teoría de la acción libertaria tiene los recursos
para permitir que podría ser un efecto de un acto creativo libre, Divino. la secuencia causal de
eventos provocados por tales agentes tiene un límite inicial de una manera exactamente análoga
al origen del universo espacio-temporal. En el caso de las acciones no básicas libertarias
normales, el agente provoca el límite temporal inicial de la secuencia de eventos, así como el
resto de la cadena subsiguiente. En principio, entonces, no hay ninguna dificultad con la idea de
que un agente libertario Divino provoque t = 0, así como el resto de los eventos que siguen.
Entonces, incluso si admitimos que t = 0 no es un evento, la teoría de la acción libertaria tiene los
recursos para permitir que podría ser un efecto de un acto creativo libre, Divino. la secuencia
causal de eventos provocados por tales agentes tiene un límite inicial de una manera
exactamente análoga al origen del universo espacio-temporal. En el caso de las acciones no
básicas libertarias normales, el agente provoca el límite temporal inicial de la secuencia de
eventos, así como el resto de la cadena subsiguiente. En principio, entonces, no hay ninguna
dificultad con la idea de que un agente libertario Divino provoque t = 0, así como el resto de los
eventos que siguen. Entonces, incluso si admitimos que t = 0 no es un evento, la teoría de la acción
libertaria tiene los recursos para permitir que podría ser un efecto de un acto creativo libre,
Divino. el agente provoca el límite temporal inicial de la secuencia de eventos, así como el resto
de la cadena subsiguiente. En principio, entonces, no hay ninguna dificultad con la idea de que
un agente libertario Divino provoque t = 0, así como el resto de los eventos que siguen. Entonces,
incluso si admitimos que t = 0 no es un evento, la teoría de la acción libertaria tiene los recursos
para permitir que podría ser un efecto de un acto creativo libre, Divino. el agente provoca el
límite temporal inicial de la secuencia de eventos, así como el resto de la cadena subsiguiente. En
principio, entonces, no hay ninguna dificultad con la idea de que un agente libertario Divino
provoque t = 0, así como el resto de los eventos que siguen. Entonces, incluso si admitimos que t
= 0 no es un evento, la teoría de la acción libertaria tiene los recursos para permitir que podría
ser un efecto de un acto creativo, libre y divino.
En resumen, en su intercambio sobre la adecuación de la explicación teísta personal para la
singularidad inicial, ni Craig ni Grünbaum aclaran la naturaleza de la agencia libertaria y la
causación del agente para arrojar luz sobre su intercambio. He tratado de hacer avanzar este
debate haciendo precisamente eso. Por lo que hemos visto, independientemente de la opinión
que uno tenga sobre la idoneidad del argumento cosmológico kalām en general, los argumentos
de Grünbaum contra el empleo de Craig de la explicación teísta personal no logran ser
persuasivos.

NOTAS
1William Lane Craig, “El origen y la creación del universo: una respuesta a Adolf Grünbaum”, British Journal for the Philosophy
of Science 43 (1992): 233–40; “Cosmología y cosmología del Big Bang”, Philosophia naturalis 31 (1994): 217–24; "Profe.
Grünbaum sobre la creación ”, Erkenntnis 40 (1994): 325–41; “Una respuesta a Grünbaum sobre la creación y la cosmología
del Big Bang”, Philosophia naturalis 31 (1994): 237–49; Adolf Grünbaum, "El pseudo-problema de la creación en cosmología
física", Filosofía de la ciencia 56 (1989): 373-94; "La creación como una pseudoexplicación en la cosmología física actual",
Erkenntnis 35 (1991): 233–54; “Algunos comentarios sobre 'Creación y cosmología del Big Bang' de William Craig”,
Philosophia naturalis 31 (1994): 225–36.
2 Asumo aquí que no existe un tiempo metafísico anterior al tiempo físico.
3Si la singularidad inicial se toma como un evento, entonces la causa del evento sería simultánea con la singularidad inicial en
el sentido de ser al mismo tiempo que la singularidad. Si la singularidad inicial se toma como un límite de tiempo, entonces la
causa, estrictamente hablando, no sería un evento (en cuyo caso, la causalidad del evento no sería aplicable), pero aún podría
ocurrir de manera coincidente en que tanto la causa como el efecto ocurren en t = 0. Para obtener más información sobre esto,
consulte William Lane Craig, "Creation and Big Bang Cosmology", Philosophia naturalis 31 (1994): 222.
4 Craig, "Cosmología y cosmología del Big Bang", pág. 219.
5Esto no es del todo correcto porque, a veces, un agente realiza una acción intencional simplemente permitiendo que ocurra
una determinada secuencia de eventos. Aquí, un agente da una especie de permiso pasivo y no hace nada para detener una
secuencia de eventos que cumplen la intención del agente. El agente se abstiene de esforzarse.
6Timothy O'Connor sostiene que el elemento primitivo y central de nuestro concepto de causalidad es el de la "producción" o
"provocación" de un efecto. Véase Timothy O'Connor, “Agent Causation”, en Agents, Causes, & Events, ed. por Timothy
O'Connor (Nueva York: Oxford University Press, 1995), 175–78. Para O'Connor, este elemento central es un género en el que
el agente y la causa del evento son especies distintas. Mi afirmación de que el poder activo es epistémicamente primitivo es
coherente con la afirmación de O'Connor en este sentido. A través de la conciencia introspectiva de mis propios actos libres,
soy consciente de mi propio poder activo. Reflexionando, puedo formar un concepto de poder activo. Reflexionando sobre el
concepto de poder activo, puedo formar un concepto de producción causal per se eliminando de mi concepto de poder activo
el componente de poder abstenerse.
7Roderick M. Chisholm, "El agente como causa", en Action Theory, ed. por Myles Brand y Douglas Walton (Dordrecht, Holanda:
D. Reidel, 1976), 199.
8Marilyn McCord Adams, "El problema del infierno: un problema del mal para los cristianos", en Fe razonada, ed. Eleonore
Stump (Ithaca: Cornell University Press, 1993), 313.
9Stewart C. Goetz, "Una teoría no causal de la agencia", Filosofía e investigación fenomenológica 49 (1988): 311; ver también
su “Libertarian Choice”, Faith and Philosophy (de próxima publicación). Compárese con Alan Donagan, Choice: The Essential
Element in Human Action (Nueva York: Routledge & Kegan Paul, 1989); Richard Taylor, Acción y propósito (Englewood Cliffs,
Nueva Jersey: Prentice-Hall, 1966).
10Cf. Randolph Clarke, “Toward a Creible Agent-Causal Account of Free Will”, Noûs 27 (1993): 191–203.
11Existe cierto debate sobre si cada una de estas acciones básicas requiere su propia intención. Richard Swinburne sostiene
que al realizar acciones que toman mucho tiempo (escribir un capítulo), no ejercemos una voluntad separada para cada
acción intencional (por ejemplo, querer escribir la primera oración) que es parte del acto a largo plazo. Más bien, solo
pretendemos producir el efecto a largo plazo provocando una serie de eventos generalmente concebidos y el cuerpo
selecciona inconscientemente una rutina particular para lograr ese efecto. Véase Richard Swinburne, The Evolution of the
Soul (Oxford: Clarendon Press, 1986), 94–95. Dejo el asunto abierto, excepto para señalar que en la medida en que una acción
no básica contenga subactos de naturaleza discontinua (recoger las llaves, subir a un automóvil frente a una serie de pasos
para dar una caminata de una hora),
12 Así, vemos que hay al menos tres tipos de acciones intencionales: acciones básicas con una intención básica (simplemente
mover mi dedo intencionalmente), acciones básicas con intenciones no básicas (intenciones últimas que tienen otras
intenciones como medios, por ejemplo, intencionalmente apretar mi dedo para disparar un arma y matar a Smith), y acciones
no básicas (aquellas que contienen subactos, subesfuerzos e intenciones, como partes, por ejemplo, ir a la tienda a comprar
pan).
13 Para obtener excelentes tratamientos de la acción divina relevantes para este artículo, véanse los capítulos de Jonathan
L.Kvanvig y Hugh J. McCann, Philip L. Quinn, Peter van Inwagen y William P. Alston en Divine & Human Action: Essays in the
Metaphysics of Teísmo (Ithaca, NY: Cornell University Press, 1988).
14Los puntos de vista principales de la actividad causal del mundo en relación con la de Dios son el punto de vista de la
causalidad secundaria completa (Dios sostiene el mundo en existencia, pero en el curso normal de las cosas, las entidades
del mundo ejercen sus propios poderes causales y tales esfuerzos son suficientes para producir cambios en el mundo),
ocasionalismo (no hay poderes causales autónomos y distintos que posean los objetos creados; Dios es la única causa
verdadera y las entidades naturales no provocan ningún efecto en la naturaleza), y concurrencia (cada causa de evento tiene
a Dios colaborando con la entidad causal natural, cooperando con su actividad causal ratificando esa actividad). Mi propia
opinión es la primera posición.
15Grünbaum, "La creación como una pseudoexplicación en la cosmología física actual", 244. Cf. “Algunos comentarios sobre
'Creación y cosmología del Big Bang' de William Craig”, págs. 231–35.
dieciséis Grünbaum, "La creación como una pseudoexplicación en la cosmología física actual", 239.
17 Ibíd., 235.
18 Ibíd., 235. En la misma página, Grünbaum confiesa: "Yo, por mi parte, me quedo en blanco cuando me dicen que Dios creó
los fotones".
19 Ibíd., 234–35.
20Grünbaum, "El pseudo-problema de la creación en cosmología física". Compárese con William Lane Craig, “El origen y la
creación del universo: una respuesta a Adolf Grünbaum”, British Journal for the Philosophy of Science 43 (1992): 233–35.
21 Grünbaum, “Algunos comentarios sobre 'Creación y cosmología del Big Bang' de William Craig”, 237.
22 William Rowe, Thomas Reid sobre la libertad y la mortalidad (Ithaca, NY: Cornell University Press, 1991), 30–40, 145–61.
23En Searle, Minds, Brains and Science (Cambridge, Mass .: Harvard University Press, 1984), 98; John Bishop, Agencia Natural
(Cambridge: Cambridge University Press, 1989), 58, 69, 72, 95–96, 103–104, 126–127, 140–141, 144; Thomas Nagel, The
View From Nowhere (Nueva York: Oxford University Press, 1986), 110–37.
24 Nicholas Rescher, Los límites de la ciencia (Berkeley: University of California Press, 1984), 22.
25 Agencia natural, 1. La propia solución de Bishop evita la agencia libertaria a favor de una versión de la teoría causal de la
acción.
26Ibíd., 40. Una implicación interesante del punto de vista de Bishop es que el naturalismo no puede permitir que haya un
primer evento en el sentido absoluto de no estar precedido por otros eventos porque todos los eventos son causados por
eventos anteriores o simplemente no son causados. En el último caso, la llegada del evento no puede ser “natural” ya que es
solo un hecho bruto. En el primer caso, esto significa que si el argumento cosmológico de kalām es correcto y hubo un
comienzo para el universo, entonces el comienzo en sí no fue un evento natural ni fue su causa si tuvo uno. Para obtener más
información sobre esto, consulte William Lane Craig y Quentin Smith, Theism, Atheism, and Big Bang Cosmology (Oxford:
Clarendon, 1993).
10
La causalidad y la imposibilidad lógica de una causa
divina1
Quentin Smith

1. Introducción
Se arroja alguna luz interesante sobre la naturaleza de la causalidad, el origen del universo y los
argumentos a favor del ateísmo si abordamos la pregunta: ¿Es lógicamente posible que el
universo tenga una causa divina originaria?
Creo que prácticamente todos los teístas, agnósticos y ateos contemporáneos creen que esto
es lógicamente posible. De hecho, la principal tradición filosófica desde Platón hasta el presente
ha asumido que la oración "Dios es la causa originaria del universo" no expresa una
contradicción lógica, aunque muchos filósofos han argumentado que esta oración es sintética y
sin sentido (por ejemplo, los positivistas lógicos), o afirma una falsedad sintética y a priori (por
ejemplo, Kant y Moore), o afirma una falsedad sintética y a posteriori (por ejemplo, los
defensores contemporáneos del argumento probabilístico del mal).
Creo que la prevalencia de esta suposición se debe al hecho de que los filósofos no han
emprendido el tipo de investigación metafísica necesaria sobre la naturaleza de la causalidad.
Esta investigación es el propósito de este artículo; específicamente, argumentaré que la tesis de
que el universo tiene una causa divina originaria es lógicamente inconsistente con todas las
definiciones existentes de causalidad y con un requisito lógico sobre estas y todas las posibles
definiciones o teorías de causalidad válidas. Concluiré que los argumentos cosmológicos y
teleológicos a favor de una causa del universo pueden tener cierta fuerza, pero que estos
argumentos, tradicionalmente entendidos como argumentos a favor de la existencia de Dios, son
de hecho argumentos a favor de la inexistencia de Dios.

2 Definiciones causales y la noción de causa divina originaria


Algo es una causa continua del universo si y solo si causa cada estado del universo. Algo es una
causa originaria del universo si y solo si causa el estado más temprano del universo. Si el tiempo
es continuo, "el estado más temprano" puede referirse a un estado instantáneo o (si la historia
del universo está medio abierta en la dirección anterior) a un estado extendido temporalmente
de una longitud determinada.
Si la cosmología del Big Bang es cierta, el universo comenzó a existir hace unos quince mil
millones de años con el Big Bang. El big bang es el estado más temprano del universo; "El big
bang" se puede tomar para referirse a una singularidad que constituye el primer estado
instantáneo del universo o (si uno "corta" la singularidad) a una explosión que constituye el
primer estado semiabierto de una breve duración, p. Ej. , la longitud de Planck, 10-43 segundos.
En mi discusión, trataré el Big Bang como un ejemplo lógicamente posible de un estado primitivo
del universo.
Las consideraciones sobre la causalidad del agente no son pertinentes a nuestra discusión;
nuestro tema es la causa del comienzo de la existencia del universo, no la causa del acto de
voluntad de Dios de que el universo comience a existir. No estamos examinando la relación entre
Dios (el agente) y su acto de querer (el efecto), sino la relación entre su acto de querer (un
evento) y el comienzo del universo (otro evento). Por tanto, las definiciones de causalidad del
agente son irrelevantes para nuestros argumentos; sólo nos interesan las definiciones de
causalidad de eventos, donde la causa y el efecto son ambos eventos.

Definición de causa de Hume


La definición más famosa e influyente de una causa es la definición de Hume; de hecho, la
mayoría de las definiciones contemporáneas incluyen condiciones que son similares en algún
aspecto a al menos una de las tres condiciones incluidas en la definición de Hume:
La contigüidad en el tiempo y el lugar es, por tanto, una circunstancia necesaria para el
funcionamiento de todas las causas. . . . La prioridad en el tiempo es. . . otra circunstancia
necesaria en todos los casos. . . . [Una] tercera circunstancia [es] la de la conjunción constante
entre la causa y el efecto. Todo objeto como la causa produce siempre algún objeto como el
efecto. Más allá de estas tres circunstancias de contigüidad, prioridad y conjunción constante,
no puedo descubrir nada en esta causa.2

La definición de Hume incluye tres condiciones para ser causa: prioridad temporal, contigüidad
espacio-temporal y relación nomológica (“todo objeto como la causa produce siempre algún
objeto como el efecto”).

(a) Prioridad temporal


Si el tiempo comenzó a existir con el universo, la condición de “prioridad temporal” de la
definición de Hume implica que no se puede hacer que el universo comience a existir, ya que no
existe un tiempo anterior en el que la causa pudiera ocurrir.
Incluso si hay tiempo antes del universo, la condición de “prioridad temporal” descarta una
causa divina originaria si todos los actos divinos son atemporales.
Sin embargo, la condición de “prioridad temporal” solo muestra que el universo no puede tener
una causa divina originaria si el tiempo comenzó a existir con el universo o si todos los actos
divinos son atemporales. Es lógicamente posible que el tiempo haya precedido al comienzo del
universo, incluso si no se conocen leyes de la física según las cuales la variable física t pueda
tomar valores anteriores al momento en que el espacio y la masa-energía comenzaron a existir.
Además, es lógicamente posible que Dios exista en el tiempo y que un tiempo preuniversitario
esté ocupado por la vida mental de Dios, que incluye sus voliciones. Por lo tanto, es lógicamente
posible que una voluntad divina cumpla con la condición de "prioridad temporal" de la definición
de Hume. Los problemas intratables comienzan con las otras dos condiciones.

(b) Continuidad espacio-temporal


La definición de Hume y muchas otras definiciones de causalidad requieren que el evento causal
esté espacialmente en contacto con, o esté espacialmente cerca, del efecto. Se dice que Dios es
omnipresente, pero esto significa que ella es consciente y está en una relación volitiva con cada
particular físico. No significa que las voliciones divinas, que no son físicas, toquen o estén en la
vecindad espacial de los particulares físicos que son los objetos de estas voliciones.
El acto de voluntad de Dios de que ocurra el Big Bang no es espacio-temporal contiguo al Big
Bang, ya que este acto de querer no tiene coordenadas espaciales. Dos particulares cy e son
espacio-temporales contiguos solo si las coordenadas espaciales x, y, z que ubican c en una
variedad son idénticas a las coordenadas espaciales x ¢, y ¢, z ¢ de e o ubican c en la vecindad de
e.

(c) Relación nomológica


La tercera característica de la definición de Hume, la condición nomológica (“todo objeto como
la causa produce siempre algún objeto como el efecto”), también es común a muchas definiciones
de causalidad. La definición de Hume pertenece a la línea de definiciones reductivas que definen
las causas en términos de leyes de la naturaleza y un conjunto de relaciones no causales (como
la prioridad temporal y la contigüidad espacio-temporal) entre dos particulares cy e.3De acuerdo
con estas definiciones, c es una causa de e solo si existe una ley de la naturaleza L que permita
deducir un enunciado de que e ocurre de las premisas de que c ocurre y que la ley L. obtiene. Por
ejemplo, Carl Hempel escribe:
[Una] “causa” debe permitirse que sea un conjunto más o menos complejo de circunstancias
o eventos, que podrían describirse mediante un conjunto de declaraciones C1, C2,. . ., Ck.
Por tanto, la explicación causal afirma implícitamente que existen leyes generales,
digamos, L1, L2,. . ., Lk — en virtud de lo cual la ocurrencia de los antecedentes causales
mencionados en C1, C2,. . ., Ck es una condición suficiente para que se produzca el evento
explicativo.4

También se puede permitir una ley probabilística L, en cuyo caso "ser deducido de" sería
reemplazado por "ser apoyado inductivamente por".
Sin embargo, la condición nomológica para ser una causa es lógicamente inconsistente con una
causa divina del Big Bang, ya que Dios por definición es un ser sobrenatural y sus acciones no
están gobernadas por leyes de la naturaleza. Además, el hecho de que la voluntad de Dios sea
omnipotente hace que “el big bang ocurra” sea deducible de “Dios quiere que ocurra el big bang”
solo, sin necesidad de ninguna premisa nomológica suplementaria, lo que viola la condición de
que una premisa nomológica es una lógica necesaria. condición para la derivación de la
conclusión de que el efecto existe a partir de premisas, una de las cuales es que ocurre el evento
causal.
En este punto, ya hemos descartado prácticamente todas las definiciones existentes de
causalidad, ya que la mayoría de las definiciones incluyen la condición de contigüidad espacio-
temporal o la condición nomológica. Nos quedamos con definiciones de causalidad de no
contigüidad y singularistas.
Una definición de no contigüidad no menciona la contigüidad espacio-temporal y no requiere
que la causa sea temporal y espacialmente contigua al efecto; Las variantes de las definiciones
de no contigüidad pueden permitir actos divinos atemporales y / o actos divinos temporales que
no están espacialmente cerca o en contacto con el efecto. Una definición singularista permite que
un evento cause un efecto en un solo caso, sin que la causa y el efecto necesiten instanciar alguna
ley. Sin embargo, las formulaciones existentes que son singularistas y / o definiciones de no
contigüidad son pocas y distantes entre sí y resultan problemáticas para un defensor de la
posibilidad lógica de una causa divina originaria.

Definición singularista de causa de Ducasse


La definición singularista más famosa de una causa es la de CJ Ducasse. Concepción de Ducasse
define la causa de un evento particular en términos de una sola ocurrencia del mismo y, por
lo tanto, de ninguna manera implica la suposición de que él, o uno similar, haya ocurrido
antes o volverá a ocurrir. La suposición de recurrencia es, por tanto, totalmente irrelevante
para el significado de causa; esa suposición es relevante sólo para el significado de la ley. 5

Dado que la condición nomológica se rechaza explícitamente, parece que esta definición se aplica
a la voluntad de Dios de que ocurra el Big Bang.
Sin embargo, una inspección más profunda de la definición de Ducasse muestra que no se
aplica, ya que su definición requiere contigüidad espacio-temporal. Ducasse afirma que la causa
c es una condición suficiente del efecto e y que c es suficiente para e si (i) c es un cambio que
ocurrió durante un tiempo y en todo un espacio que termina en un instante i en una superficie s
de un objeto ; (ii) el cambio e ocurrió durante un tiempo ya través de un espacio comenzando en
el instante i en la superficie s; (iii) ningún cambio que no sea c ocurrió durante el tiempo y a
través del espacio de c; y (iv) ningún cambio que no sea e ocurrió durante el tiempo y durante el
espacio de e.6Por lo tanto, la explicación de Ducasse cumple con el criterio singularista pero no
con el criterio de no contigüidad. (Aunque Ducasse llama a su relato una "definición" de una
causa, es solo una definición parcial, ya que comienza su definición con "si", no "si y solo si").

La definición de transferencia de una causa


Otro posible candidato para una definición singularista y de no contigüidad se basa en la
definición transferencial de causalidad, ofrecida por Héctor-Neri Castañeda, Galen Strawson,
David Fair, Jerrold Aronson y otros.7 Castañeda afirma que “el corazón de la producción, o
causalidad, parece ser, pues, transferencia o transmisión”.8En el mundo actual, lo que se
transfiere es energía (según Castañeda), pero usa la palabra “causidad” como término genérico
para todo lo que se puede transferir. ¿Puede la voluntad de Dios transferir la causalidad al Big
Bang?
La teoría completa de Castañeda implica una definición que incluye la condición nomológica:
c es una causa de e si y solo si (i) hay una transferencia de causidad de un objeto O 1 a un objeto
O 2 en una circunstancia x, con el evento c siendo la transmisión de causalidad de O 1 y el evento
e siendo la adquisición de causidad de O 2; (ii) todo evento de la misma categoría que c que se
encuentra en una circunstancia de la misma categoría que x se combina con un evento de la
misma categoría que e.
La condición (ii) pretende ser una condición nomológica y, por lo tanto, descarta las causas
sobrenaturales. Pero, ¿podemos aislar (i), "el corazón de la causalidad", y argumentar con éxito
que una condición singularista, de no contigüidad y de transferencia se satisface por una
voluntad divina? Parece que no, ya que existe un problema de causalidad. La causidad no puede
ser idéntica a la energía (la afirmación de Castañeda sobre la identidad real de la causidad), ya
que no hay energía en Dios (Dios no es físico). De hecho, la causalidad no puede ser física, ya que
Dios no es físico. Tampoco la causidad puede ser algo no físico, ya que el Big Bang es totalmente
físico. Por tanto, no parece haber ningún candidato viable para la causalidad transferida.

Definiciones contrafácticas de causalidad


La definición de David Lewis incorpora condiciones contrafactuales en la definición de
causalidad y parece prestarse a una concepción singularista y de no contigüidad. Según Lewis, c
causa e si y solo si (i) c y e son eventos y ambos ocurren y se da el caso de que (ii) si c no hubiera
ocurrido, e no hubiera ocurrido, o (iii) hay una cadena causal que une cy cada eslabón d de la
cadena es tal que si d no hubiera ocurrido, entonces e no habría ocurrido. Dado que no existe una
cadena causal entre una voluntad divina y el big bang, la condición (iii) es inaplicable y podemos
concentrarnos en (i) y (ii).9
¿Son la voluntad divina y el big bang ambos eventos? Según Jaegwon Kim, un evento es una
sustancia que ejemplifica una propiedad n-ádica a la vez.10Incluso si no hay un tiempo anterior al
universo, esto no debe descartar la aplicabilidad de la definición de Kim a la voluntad de Dios, ya
que podemos interpretar la voluntad de Dios como simultánea con el Big Bang. También
podemos seguir a Brian Leftow y admitir que la posición lógica ocupada por "en el momento t"
puede ser ocupada por "en la eternidad" o "atemporalmente". 11 Alternativamente, podríamos
seguir a Davidson y tomar un evento como un particular que no es más definible, permitiendo
así que la voluntad divina sea un evento incluso si es atemporal.12 Tomando una de estas rutas, o
siguiendo a Wolterstorff y otras,13tomar un evento como la ejemplificación de algo de una
propiedad n-ádica (sin una especificación de tiempo), nos permitiría considerar la voluntad
divina como un evento que es atemporal, simultáneo o anterior al big bang. (En estas diversas
definiciones, "evento" y "estado" pueden tomarse como sinónimos).
Sin embargo, la definición contrafactual de Lewis no está ejemplificada por una voluntad
divina del Big Bang. Sea c la voluntad divina del big bang y sea e el big bang. Si e no hubiera
ocurrido, entonces c no habría ocurrido. Pero esto implica la falsa proposición de que e es la
causa de c, ya que c es contrafácticamente dependiente de e. En este caso (para usar las palabras
de Lewis sobre un problema que generalmente observa), "tenemos una dependencia causal
inversa espúrea de c sobre e, que contradice nuestra suposición de que e no causó c".14
Lewis resuelve este problema negando el contrafactual "si e no hubiera ocurrido, c no habría
ocurrido". Lewis sostiene que, en cambio, es cierto que "c habría ocurrido tal como sucedió, pero
no habría podido causar e".15Pero esto implica que la definición de Lewis no puede ser
ejemplificada por la voluntad de Dios del big bang, ya que si c hubiera ocurrido (si Dios hubiera
querido el big bang), entonces necesariamente habría causado e (el big bang); Dios es
omnipotente y su voluntad es necesariamente eficaz.
En resumen, las consideraciones anteriores sugieren que no existen definiciones de causalidad
que se satisfagan con la voluntad de Dios de que ocurra el Big Bang; Creo que un estudio de otras
definiciones existentes mostraría que la mayoría de ellas incluyen al menos una de las
condiciones mencionadas anteriormente (contigüidad, una condición nomológica, etc.),
condiciones que son violadas por la voluntad divina. Las definiciones que no incluyen una de las
condiciones antes mencionadas incluyen alguna otra condición que es violada por la voluntad
divina; por ejemplo, la definición de John Mackie de una condición INUS implica que una causa c
no es necesaria ni suficiente para su efecto e, sino que es una parte insuficiente y no redundante
de una condición innecesaria pero suficiente para e.dieciséis Sin embargo, si Dios quiere, el Big Bang
es suficiente para que ocurra y, por lo tanto, viola la condición "no es necesario ni suficiente para
su efecto".

3 Causas y condiciones lógicamente suficientes


Se puede responder en esta coyuntura que el hecho de que la creación del Big Bang por Dios no
satisfaga cualquiera de las definiciones existentes de causalidad no implica que el acto volitivo
de Dios no sea una causa del Big Bang. Es posible que aún no se haya descubierto la definición
correcta de causalidad y que, por voluntad de Dios, el Big Bang satisfaga esta definición correcta
y no descubierta. Mi argumento de que Dios no puede ser una causa del universo es, en el mejor
de los casos, un "argumento inductivo débil" basado en las definiciones que se han formulado
hasta el momento actual.
Además, las consideraciones precedentes sugieren una cierta definición de causalidad que se
satisface por la voluntad divina originaria, independientemente de si esta definición ha sido
defendida por alguien. Esta definición dice: c es una causa de e si y solo si c es una condición
suficiente de e y c es anterior a e. Esta definición incluye la condición de "prioridad temporal" de
Hume, pero es tanto singularista como no contigua. (Una definición es contigua sólo si incluye la
contigüidad tanto espacial como temporal.) Esta definición no puede ser satisfecha por una
volición divina originaria si todas las voliciones divinas son atemporales o si no hay tiempo antes
del comienzo del universo.
También se puede decir que no necesitamos confiar en la suposición de que la voluntad divina
debe satisfacer una definición de causa para ser una causa. Se puede argumentar que la
causalidad es una relación simple, un primitivo conceptual y, por lo tanto, no existe una
definición que pueda capturar su naturaleza.17
Estas tres respuestas a mi discusión en la parte 2 quizás no sean irrazonables; de hecho, al
menos la primera respuesta (que la parte 2 presenta un "argumento inductivo" basado sólo en
definiciones existentes) contiene algo de verdad.
Sin embargo, las tres respuestas son inútiles ante el siguiente hecho crucial: existe una relación
de implicación entre "c es una causa de e" y "c no es una condición lógicamente suficiente de e".
Es el caso que:

(1) Para dos eventos o estados particulares cualesquiera xey, si x es una condición
lógicamente suficiente de y, entonces x no es una causa de y.

Por ejemplo, el hecho de que un cuerpo esté en movimiento es una condición lógicamente
suficiente del espacio que ocupa el cuerpo, pero el hecho de que el cuerpo esté en movimiento
no es la causa de la ocupación del espacio por parte del cuerpo. Sin embargo, la voluntad de Dios
de que ocurra el big bang es una condición lógicamente suficiente del big bang, porque las
proposiciones expresadas por “Dios quiere que ocurra el big bang” y “el big bang no ocurra” son
lógicamente incompatibles. La razón de esto es que Dios es omnipotente y, por lo tanto, su
voluntad siempre tiene éxito (por necesidad lógica); si un ser omnipotente x quiere que e y e no
ocurran, entonces x no es omnipotente, lo cual es una contradicción. (Dios puede hacer todo lo
que es lógicamente posible; Dios no puede crear una piedra que sea demasiado pesada para que
él la levante, pero crear una piedra así no es una posibilidad lógica.
Las variables en la proposición (1) varían sobre eventos o estados particulares; no abarcan
eventos particulares tomados junto con leyes de la naturaleza o generalizaciones universales
bajo las cuales se subsumen los particulares. Como hemos visto, las definiciones nomológicas de
causalidad determinista implican que un evento c particular, junto con una ley de la naturaleza,
necesita lógicamente el evento e que es el efecto. El sol brilla sobre una piedra, junto con la ley
de que todo lo que se ilumina se calienta, lógicamente requiere que la piedra se caliente. La
Proposición (1), sin embargo, implica solo que el sol brillando sobre la piedra no requiere
lógicamente que la piedra sea calentada. El sol brillando sobre la piedra es una condición no
lógicamente suficiente para que la piedra esté caliente (es nomológicamente suficiente,
Se pueden hacer dos objeciones a mi argumento de que las voliciones divinas son condiciones
lógicamente suficientes y, por lo tanto, no son causas.
Objeción 1.Se puede objetar que toda causa puede describirse de una manera que implica
lógicamente la ocurrencia de su efecto y, por lo tanto, que las voliciones divinas no son distintas
de las causas. Por ejemplo, la causa de la explosión que quemó la casa lógicamente necesita su
efecto el incendio de la casa, ya que es una contradicción lógica afirmar que “hay una explosión
que quemó la casa y sin embargo no hay evento de la casa en llamas ".

Pero esta objeción es falaz ya que “la explosión que quemó la casa” no se refiere meramente a
la causa sino que también se refiere al efecto. Una descripción definida que se refiere meramente
al evento causal puede satisfacerse consistentemente con la no ocurrencia del efecto; por
ejemplo, la descripción definitiva "la explosión que ocurrió en la casa" puede satisfacerse
consistentemente con la insatisfacción de "el incendio de la casa".
La falacia de esta objeción puede explicarse con mayor precisión en términos de contextos
referencialmente transparentes y referencialmente opacos. La descripción definitiva “la
explosión que resultó en el incendio de la casa” es un contexto referencialmente transparente;
esto implica que “el incendio de la casa” ocupa un lugar en “la explosión que resultó en el incendio
de la casa” que está abierto a sustitución y cuantificación. Una descripción de la forma "la
explosión que resultó en la F" permite que las expresiones de correferencia sean sustituidas por
"la F", y si se satisface una descripción de esta forma, se deduce que hay una F. Dado que la
descripción del efecto , "La F", ocurre en un contexto referencialmente transparente, "la
explosión que resultó en la F" se refiere tanto a la causa como al efecto.
Por el contrario, la descripción definida "la voluntad divina de que ocurra el Big Bang" es un
contexto referencialmente opaco y se refiere simplemente a la voluntad divina. Esta descripción
es referencialmente opaca ya que es una construcción de actitud proposicional, y las posiciones
dentro de las construcciones de actitud no están abiertas a sustitución y
cuantificación.18Específicamente, una descripción definida de la forma "la voluntad por x de que
ocurra la F" no permite sustituciones de expresiones de correferencia por "la F", y "la F" no está
abierta a la cuantificación. Esto implica que si se satisface una descripción de la forma "la
voluntad por x de que ocurra la F", no se sigue que haya una F. Dado que la descripción del efecto,
"la F", ocurre en un contexto opaco, “La voluntad por x de que ocurra la F” se refiere solo a la
causa.
Dada esta distinción, podemos decir que una descripción definida D de una causa también se
refiere al efecto si y solo si D incluye un término para el efecto que está abierto a sustitución y
cuantificación. Una descripción definida D ¢ de una causa no se refiere al efecto si y sólo si D ¢ no
contiene un término para el efecto o contiene un término para el efecto en un contexto opaco.
Esto nos permite enunciar nuestro principio (1) sobre causas y condiciones lógicamente
suficientes en términos semánticos: La satisfacción de una descripción definida D de una causa
implica lógicamente la existencia del efecto si y sólo si D incluye un término para el efecto en un
contexto referencialmente transparente. Dado que la satisfacción de la descripción definida "la
voluntad divina de que ocurra el big bang" implica lógicamente que el big bang ocurre, a pesar
de que "el big bang" no ocurre en un contexto referencialmente transparente, se deduce que esta
descripción no ocurre referirse a una causa.
La razón por la que la satisfacción de la descripción "la voluntad divina de que ocurra el big
bang" implica que hay un big bang no se debe a la forma lógica de la descripción (la forma es
opaca) sino al contenido de la descripción . Este contenido se distingue porque hace que los
condicionales relevantes sobre la voluntad divina y el big bang sean verdades lógicas. La
expresión “un ser omnipotente” significa, en parte, un ser cuyos actos de voluntad
necesariamente actualizarán lo que se desea. Así, la oración "si un ser omnipotente desea que se
actualice el big bang, entonces el big bang se actualiza" expresa la misma proposición que la
oración "si un ser omnipotente, cuyos actos de voluntad necesariamente actualizarán lo que se
desea, desea que el el big bang se actualiza, luego el big bang se actualiza ”, lo cual es una verdad
de la lógica.
El principio (1) sobre causas y condiciones lógicamente suficientes implica que ningún
condicional causal es un teorema lógico, donde un condicional causal tiene la forma "si c ocurre,
entonces e ocurre" y las sustituciones de "c" son expresiones que se refieren a la causa y no
incluya un término para el efecto en un contexto referencialmente transparente.
Estas reformulaciones del principio (1) en términos semánticos y lógicos son suficientes para
refutar la primera objeción a mi argumento de que la voluntad divina no es una causa, la objeción
de que “para cada causa cy efecto e, hay alguna descripción de c que lógicamente implica la
existencia de e. "
Objeción 2.La primera objeción a mi argumento sobre las causas y las condiciones lógicamente
suficientes fue que las voliciones divinas no son únicas, ya que cada causa puede describirse de
una manera que lógicamente implica el efecto. Una segunda objeción es que hay alguna
descripción de la voluntad de Dios de que ocurra el big bang que no implica lógicamente que el
big bang ocurra, y por lo tanto (por esta razón diferente) las voliciones divinas no son diferentes
a las causas. La descripción "el querer que tiene por objetivo la actualización del big bang" puede
utilizarse como una descripción definitiva de la volición divina relevante y, sin embargo, "se
produce el querer que tiene por objetivo la actualización del big bang, pero la el big bang no se
actualiza ”no es una contradicción lógica. De ello se desprende (prosigue la objeción) que la
voluntad de Dios no necesita ser considerada como una condición lógicamente suficiente del Big
Bang. El objetor puede argumentar que la existencia de tales descripciones implica que si una
volición divina necesita o no lógicamente la existencia de su objeto volitivo no es un hecho sobre
la voluntad divina misma, sino que es relativo a cómo se describe la volición.
Pero esta objeción es inválida, ya que la existencia de una descripción de la voluntad divina
que no implica lógicamente que ocurra el big bang es consistente con que la voluntad divina
necesariamente posea la propiedad relacional de estar unida a la ocurrencia del big bang. Esta
consistencia es un ejemplo del principio más general de que “algo que necesariamente posee una
cierta propiedad F puede describirse mediante una descripción definida D que no incluya F entre
sus condiciones descriptivas, y D no implicará que todo lo que satisfaga D necesariamente posea
F . " Por ejemplo, el número 9 necesariamente posee rareza y se describe por "el número de
planetas en nuestro sistema solar"; pero dado que "el número de planetas en nuestro sistema
solar" no incluye la rareza entre sus condiciones descriptivas,
Estas respuestas a las dos objeciones ayudan a justificar mi afirmación de que la proposición

(1) Para dos eventos o estados particulares cualesquiera xey, si x es una condición
lógicamente suficiente de y, entonces x no es una causa de y

ambos son verdaderos e impiden que las voliciones divinas sean causas.

La teoría de la causalidad de Sosa


¿Todo filósofo acepta que un evento c particular que causa un evento e particular no puede
lógicamente necesitar e? Ernest Sosa ha sugerido una teoría de la causalidad que podría parecer
incompatible con esta tesis. Sosa distingue varios tipos de causalidad: causalidad nomológica,
causalidad material, causalidad consecuencialista y causalidad inclusiva. Nos interesa la
definición de Sosa de causalidad consecuencialista, ya que esta definición está ejemplificada por
la voluntad de Dios de que ocurra el Big Bang. En los casos de causalidad consecuencialista, "la
causa implica el resultado o la consecuencia".19
Sosa enumera varios ejemplos de causalidad consecuencialista: (i) el rojo de una manzana hace
que la manzana sea coloreada; (ii) el hecho de que Tom esté en la habitación provoca el hecho
general de que hay alguien en la habitación; (iii) Pedro, Pablo y María son altos y las únicas
personas en la sala, y esto provoca el hecho general de que todos en la sala son altos; (iv) el hecho
de que una manzana sea dulce, jugosa, etc., hace que la manzana tenga el valor de bondad.
Sosa reconoce que no tiene un análisis o una definición de causalidad consecuencialista, pero
dice que involucra una consecuencia que se deriva necesariamente de una causa "que de alguna
manera es más básica".20
La réplica inmediata a la teoría de Sosa es que sus casos de causalidad consecuencialista no
son casos de causalidad sino casos de derivación lógica o, más exactamente, casos en los que la
instanciación de una propiedad F requiere lógicamente la instanciación de una segunda
propiedad G, o casos en los que la la obtención de un hecho p requiere lógicamente la obtención
de un segundo hecho q. Cuando Sosa dice que la causalidad consecuencialista "parece ser una
forma genuina de causalidad",21parece estar equivocado. De hecho, el hombre o la mujer de la
calle, los filósofos y científicos contemporáneos afirmarían enfática y correctamente que estos
no son casos genuinos de causalidad. Pero para ser justos con Sosa, reconoce este mismo punto
y hace algunas observaciones plausibles:
Podría objetarse que gran parte de lo anterior es una mera maniobra terminológica, que
simplemente toma lo que los filósofos han llamado durante mucho tiempo causalidad, lo
vuelve a etiquetar como `` causalidad nomológica '' y pasa a clasificarlo con ciertas relaciones
completamente distintas que los filósofos no han llamado hasta ahora. relaciones causales. Y
quizás sea que la palabra "causa" y sus afines hayan sido tan estrecha y persistentemente
asociados con la causalidad nomológica por los filósofos que deban ser abandonados. Pero
incluso entonces el punto básico permanecería, ya que la causalidad nomológica es una
relación entre una fuente y una consecuencia o resultado, y también lo es la causalidad
material (por ejemplo, la generación), también lo es la causalidad consecuencialista (por
ejemplo, la manzana está coloreada cromáticamente como resultado de ser rojo) y también
lo es la causalidad inclusiva. . . .22

Por lo tanto, podemos estar de acuerdo con Sosa en que la causalidad se puede clasificar con
otras relaciones que producen resultados, como la necesidad lógica de una propiedad F por otra
propiedad G, como un tipo de relación que produce resultados, pero al mismo tiempo podemos
distinguir causalidad de estas otras relaciones no causales que producen resultados.

4 Descripciones analógicas y literales


Sugiero que las consideraciones anteriores nos dan una buena razón para creer que no existe
una teoría o definición correcta real o posible de la causalidad que sea ejemplificada por la
voluntad de Dios del Big Bang.
¿Cómo podría responder el defensor de la causalidad divina a estos argumentos? Una
respuesta podría ser admitir que la voluntad de Dios no es una "causa" del comienzo del
universo, sino que es el "creador" o "productor" del comienzo del universo. Pero este cambio de
terminología no resuelve el problema: “c crea e” y “c produce e” implican cada una “c causa e”,
por lo que el problema no se evita. Si deseamos estipular que "c crea e" no implica "c causa e",
entonces privamos a la palabra "crea" de cualquier inteligibilidad aparente. Si "crea" ya no
significa lo que normalmente significa, entonces es difícil decir lo que significa.
Un problema similar afecta una solución alternativa, a saber, que decimos que Dios "quiere"
que el universo comience a existir, pero no "hace" que comience a existir. Utilicé
provisionalmente la terminología de “la voluntad de Dios” y la “voluntad divina” en la discusión
anterior, pero este uso requiere una reevaluación. Un enunciado de la forma "x quiere e y e
ocurre debido a la voluntad de x" implica lógicamente "las causas e de la voluntad de x". Si el acto
de voluntad de Dios no es un acto de causalidad, es difícil decir qué significa la palabra "querer"
cuando se aplica a Dios. No significa lo que significa en oraciones como "John movió su miembro
roto por un puro acto de voluntad".
Quizás podamos decir que las palabras "querer" y "causar" se usan en un sentido analógico o
metafórico cuando se aplican a Dios. Esto significa que Dios tiene algunas características que son
análogas a las características que normalmente atribuimos por “querer” y “causa” y también que
Dios tiene algunas características que son diferentes. La analogía para "querer" sería la siguiente:
si un ser humano desea algo, este querer es un evento mental que tiene como objetivo traer otro
evento a la existencia. Asimismo, podemos decir de Dios que él o ella experimenta un evento
mental y que este evento mental tiene como objetivo traer otro evento a la existencia. Ésta es la
analogía. También hay una diferencia, en que la voluntad de Dios es una condición lógicamente
suficiente para la existencia del evento que se desea, mientras que la voluntad de un ser humano
no es lógicamente suficiente para el evento que se desea.
Sin embargo, este recurso al uso “analógico” de “querer” y “causar” amenaza con romper la
inteligibilidad de nuestro discurso sobre la voluntad de Dios. La explicación del significado
analógico de estas palabras es en términos de otras palabras que también tienen un significado
analógico. Dijimos que la voluntad de Dios es un evento mental que "tiene como objetivo traer
otro evento a la existencia". Sin embargo, el significado literal de la frase sobre apuntar a un
objetivo implica que "es lógicamente posible que este objetivo no se logre". Cuando decimos que
Alice tiene el objetivo de escribir un libro, queremos decir, en parte, que es lógicamente posible
que no logre su objetivo. Dado el significado literal de "objetivos", una declaración de la forma "x
apunta a realizar F y F se realiza" no es una verdad lógica ni analítica. Como consecuencia, la
explicación del significado analógico de "voluntad divina" en términos de "aspirar a hacer algo"
no puede implicar un uso literal de "aspirar a hacer algo". Pero si "apuntar" se usa
analógicamente, entonces reaparece nuestro problema de explicar lo que queremos decir con
nuestras palabras. Este problema no parece tener solución; estamos embarcados en una
regresión de explicar palabras usadas analógicamente en términos de otras palabras usadas
analógicamente, sin manera de terminar esta regresión con una explicación que involucre
palabras en su uso normal y literal. Esta regresión es cruel; para entender la frase uno,
necesitamos entender la frase dos, pero para entender la frase dos, necesitamos entender la frase
tres, y así sucesivamente. Esto sugiere que no podemos atribuir ningún significado definido a la
afirmación de que Dios causa, quiere o tiene como objetivo dar existencia al universo.

Una formulación literal de la relación divina con el big


bang.
Pero esto no quiere decir que no podamos hablar de manera inteligible sobre Dios y su relación
con el Big Bang. Parece que al menos podemos decir que hay alguna propiedad n-ádica F
ejemplificada por Dios de tal manera que, en virtud de ejemplificar esta propiedad, Dios está en
relación con el big bang de ser una condición lógicamente suficiente del big bang. Quizás incluso
podamos ser más precisos y decir que F es alguna propiedad mental, donde “mental” se entiende
en términos de intencionalidad (en la tradición de Brentano, Husserl, Chisholm y Searle).
Además, podemos decir que este acto intencional que es experimentado por Dios tiene una cierta
propiedad como su objeto intencional, la propiedad es el big bang. La propiedad que es el big
bang tendrá, por lo tanto, una propiedad de segundo orden, es decir, ser el objeto intencional del
acto intencional divino A, tal que ser un objeto intencional de A es una condición lógicamente
suficiente para ser ejemplificado. Hablar de "acto intencional" puede ser literal aquí, ya que estos
son términos técnicos en la literatura filosófica y "actuar" aquí tiene un significado diferente a
"actuar" en "Jane actuó rápidamente para remediar la situación" o "el último acto del jugar fue
una decepción ".
Si se objeta que "acto intencional" no tiene un significado unívoco entre "los humanos realizan
actos intencionales (incorporados, no omniscientes y no omnipotentes)" y "Dios realiza actos
intencionales (incorpóreos, omniscientes y omnipotentes)", entonces podemos recurrir a un
nivel de conversación más general. Podemos decir que existe una cierta relación R en la que Dios
se encuentra con la propiedad de ser el big bang, de manera que en virtud de la posición de Dios
en R para ser el big bang, es lógicamente necesario que se ejemplifique el ser el big bang.
En resumen, estamos seguros al decir que Dios no causa el big bang sino R es el big bang, donde
"Dios R es el big bang" significa que Dios está en una cierta relación R con ser el big bang de tal
manera que en virtud de estar de pie en esta relación con esta propiedad, es lógicamente
necesario que se ejemplifique esta propiedad. (Para facilitar la expresión, a veces hablaré
libremente en la siguiente discusión sobre la posición de Dios en R ante el big bang, pero ese
discurso debe analizarse estrictamente en la forma en que analicé "Dios R es el big bang").

5 Objeciones a los argumentos de que Dios no puede ser una


causa
Primera objeción
Se puede objetar que la relación divina R no puede ser simplemente la de ser una condición
lógicamente suficiente del Big Bang. La posición de Dios en esta relación lógica con el Big Bang
no es similar a la posición naranja del sol en relación con la coloración del sol como una condición
lógicamente suficiente. La ejemplificación del sol de ser naranja no provoca ni produce en ningún
sentido la ejemplificación del sol de ser coloreado. Pero la ejemplificación de R de Dios produce
el Big Bang.
Pero esta objeción es abiertamente cuestionable. Ya he argumentado que la posición de Dios
en relación con el big bang no satisface ninguna definición existente de causalidad (parte 2) y
que no satisface una condición lógicamente necesaria de ser una causa (parte 3). Por lo tanto,
introducir sinónimos de "causas", como "provoca" o "produce", etc., es simplemente plantear la
cuestión en cuestión.
It may be countered by the objector that there is an important disanalogy between the case of
the relevant divine event and the case of other logically sufficient conditions, viz., that God’s
standing in relation to the big bang is an event, a concrete particular, and that the big bang is
another concrete particular, whereas the other logical relations are between abstract objects.
Este argumento contrario es inexacto. Según una concepción de eventos o estados, un evento
o estado es la ejemplificación de una propiedad por algo. La ejemplificación de Dios de la
propiedad poliádica R es un estado, y también lo es la ejemplificación de Jane de correr y su
ejemplificación de estar vivo. El estado concreto de la ejemplificación del correr de Jane es una
condición lógicamente suficiente del estado concreto de la ejemplificación de Jane de estar vivo.
Por tanto, hay dos estados concretos en la relación de que uno es la condición lógicamente
suficiente del otro. Esta situación es similar a este respecto a la posición de Dios en la relación
relevante con el Big Bang.
No obstante, puede persistir la intuición de que hay un ingrediente importante en la relación
de Dios con el Big Bang de necesitarlo lógicamente que no está presente en la naranja del sol, lo
que requiere lógicamente que se coloree el sol, o en el hecho de que Jane corra requiriendo que
esté viva, un ingrediente que es capturado metafóricamente por el lenguaje causal (por ejemplo,
"produce", "provoca", etc.). El objetor puede simplemente afirmar que es intuitivamente obvio
que existe esta diferencia entre los dos casos, incluso si esta diferencia no puede expresarse
adecuadamente en palabras.
Pero esto equivale a retroceder a una teoría de la inefabilidad. Ahora tenemos la teoría: "Dios
no causa literalmente el big bang, pero en algún sentido metafórico causa el big bang, aunque es
imposible especificar literalmente la analogía entre la causalidad y la relación de Dios con el big
bang que justifica la metáfora". La teoría de la inefabilidad es que el anillo de Dios en el big bang
es una relación con dos propiedades: una propiedad del anillo de Dios en el big bang es que el
anillo es una condición lógicamente suficiente del big bang, y la segunda propiedad es una
propiedad indescriptible, que podemos llamar una propiedad X, tal que la propiedad X es una
propiedad del R-ing de Dios que hace que el R-ing sea análogo en un aspecto relevante de una
relación causal.
Sin embargo, la teoría de la inefabilidad falla por tres razones.
Primero, si la propiedad X hace que la relación R sea análoga a una relación causal, entonces la
propiedad X es una propiedad compartida en común por la relación causal y la relación R. Dado
que la propiedad X pertenece a la relación causal, y podemos describir literalmente la relación
causal, deberíamos poder especificar literalmente la propiedad X de la relación causal y decir
que es esta propiedad la que la relación R tiene en común con la relación causal. relación. Pero la
teoría de la inefabilidad no logra esto.

En segundo lugar, la teoría de la inefabilidad no tiene justificación para afirmar que existe esta
propiedad X. La teoría de la inefabilidad no menciona ningún dato que se utilice para explicar la
postulación de la propiedad X, y no introduce premisas a partir de las cuales se deduzca la
presencia de la propiedad X. La única justificación aparente podría ser que uno ha tenido una
experiencia mística y ha "contemplado" directamente el R-de Dios en el big bang y
"contemplado" la propiedad X de este R-ing, pero que al informar de esta intuición, uno se dio
cuenta de que no hay palabras adecuadas y literalmente usadas que puedan describir esta
propiedad X. Sin embargo, si la teoría de que Dios metafóricamente causa la existencia del
universo no es más que dichos oscuros sobre lo que se "contempla" en una experiencia mística
inefable, entonces esta no es una teoría basada en la razón natural, sino que es un vuelo hacia el
misticismo y las liberaciones de la "razón sobrenatural". No tendría ningún interés para un
filósofo que intenta construir una cosmovisión basada en la razón natural.
En tercer lugar, la mejor explicación de los orígenes de la "intuición" de que Dios provoca
metafóricamente el big bang, y no es simplemente una condición lógicamente suficiente del big
bang, no implica que esta intuición sea cierta. El origen de esta "intuición" es la larga y
omnipresente tradición (en filosofía, religión y "lenguaje ordinario") de usar palabras causales -
"causas", "crea", "voluntades", etc. - para describir la relación de Dios con el comienzo del
universo. Las asociaciones psicológicas producidas por la adopción de esta tradición lingüística
dan lugar a la "intuición" de que debe haber una propiedad X de la relación de Dios con el big
bang que fundamenta el uso metafórico de "causas".
Hay diferencias entre (por ejemplo) la relación del color naranja y la relación R de Dios con el
Big Bang, pero ninguna es de tipo causal. El naranja es una especie de color, pero la relación de
Dios con el Big Bang no es una especie de Big Bang. Además, la orangeness es una propiedad
monádica de la misma cosa de la cual ser coloreado es una propiedad, pero la propiedad R es
poliádica e interconecta diferentes objetos. En tercer lugar, ser naranja y ser coloreado son
propiedades físicas, mientras que la relación divina es una propiedad mental y ser el Big Bang es
una propiedad física.
También podemos especificar características formales de la relación R: es asimétrica,
transitiva e irreflexiva, pero muchas relaciones no causales también poseen estas características
formales.

Segunda objeción
El teísta, agnóstico o ateo que cree que es lógicamente inteligible decir que Dios es una causa
originaria del universo puede tomar al toro por los cuernos y afirmar arrogantemente que Dios,
siendo una condición lógicamente suficiente del Big Bang, es un contraejemplo de la definiciones
existentes de causalidad discutidas en la parte 2, que muestran que estas definiciones son
incorrectas, y que también es un contraejemplo válido de mi principio (1) que establece que las
causas no son condiciones lógicamente suficientes. El objetor proclama: “Toda contigüidad real
y posible o definiciones nomológicas de causalidad son falsas. La definición correcta es una
definición de no contigüidad y singularista que permite que algunas relaciones causales sean
relaciones lógicas ".
El problema con esta "objeción arrogante" es que no hay justificación aparente, aparte de los
supuestos actos de causalidad de Dios, para la creencia de que existe una definición correcta de
causalidad que no es contigua, singularista y permite relaciones lógicas. Pero estos actos de Dios
son precisamente los eventos cuya naturaleza causal está en disputa. Asumir, frente a los
argumentos que he dado, que estos actos son relaciones causales es una respuesta que suscita
preguntas. Para demostrar que la relación divina relevante es una relación causal, debemos tener
una razón lógicamente independiente para creer que existe alguna definición correcta de
causalidad que la relación divina R satisface. Pero no existe tal razón. Considere el argumento:

(2) Hay una razón suficiente para creer que existe una definición correcta de causalidad que
es singularista, no contigua y permite relaciones lógicas.

Por lo tanto,

(3) la relación divina R es una relación causal.


Si la razón ofrecida J es (3), entonces el argumento de que la relación divina R es una relación
causal es incuestionable.
Se puede objetar que el defensor de la tesis de que “no puede haber una causa divina” se
encuentra en una situación similar de inicio de preguntas y, por lo tanto, existe un punto muerto.
Se puede decir que el defensor plantea la pregunta asumiendo que (3) es falso o no puede
desempeñar el papel de razón J.
Esta objeción fracasa, ya que el defensor de la tesis de que “no puede haber una causa divina”
tiene un argumento que no suscita preguntas sobre la falsedad de (3). El argumento es que todos
los casos de causalidad que no están en disputa son inconsistentes con la hipótesis de que existe
una definición correcta del tipo mencionado en (2). Ambas partes en la disputa coinciden en que
los eventos físicos causan otros eventos físicos y que los eventos mentales de los organismos
inteligentes causan otros eventos (asumiendo una filosofía de la mente adecuada), y este acuerdo
es el terreno común entre el oponente y el defensor del “no puede sea una causa divina ”tesis.
Pero este terreno común es incompatible con la tesis positiva, es decir, que puede haber una
causa divina, aunque sólo sea por la razón de que es una propiedad lógicamente necesaria de los
casos de causalidad acordados que el evento causal no es una condición lógicamente suficiente
del efecto. Dado que estos eventos causales no son necesariamente condiciones lógicamente
suficientes, una definición de una causa que abarque tanto estos eventos causales como la
relación de Dios con el Big Bang incluiría la contradicción "no es una condición lógicamente
suficiente y es una condición lógicamente suficiente". Los casos acordados también pueden
incluir condiciones nomológicas y de contigüidad y, en consecuencia, puede haber más
contradicciones, por ejemplo, "instancia alguna ley de la naturaleza y no instancia ninguna ley
de la naturaleza" y "es espacialmente contigua al efecto y no es espacialmente contiguo al efecto
". una definición de una causa que abarque tanto estos eventos causales como la relación de Dios
con el Big Bang incluiría la contradicción "no es una condición lógicamente suficiente y es una
condición lógicamente suficiente". Los casos acordados también pueden incluir condiciones
nomológicas y de contigüidad y, en consecuencia, puede haber más contradicciones, por ejemplo,
"instancia alguna ley de la naturaleza y no instancia ninguna ley de la naturaleza" y "es
espacialmente contigua al efecto y no es espacialmente contiguo al efecto ". una definición de una
causa que abarque tanto estos eventos causales como la relación de Dios con el Big Bang incluiría
la contradicción "no es una condición lógicamente suficiente y es una condición lógicamente
suficiente". Los casos acordados también pueden incluir condiciones nomológicas y de
contigüidad y, en consecuencia, puede haber más contradicciones, por ejemplo, "instancia alguna
ley de la naturaleza y no instancia ninguna ley de la naturaleza" y "es espacialmente contigua al
efecto y no es espacialmente contiguo al efecto ".

Tercera objeción
Se puede argumentar que una definición disyuntiva puede resolver el problema. Supongamos
que tenemos esta definición disyuntiva de causalidad: c es una causa de e si y solo si c es una
condición lógicamente suficiente de e o c no es una condición lógicamente suficiente de e y, en
cambio, satisface (digamos) las condiciones humeanas.

Un problema con esta definición disyuntiva es que clasifica que el sol sea naranja como una
causa del color del sol. Así que no funciona por esta razón, así como por las otras razones
mencionadas en mi discusión de la explicación de la causalidad de Sosa.
Incluso si agregamos una condición de prioridad temporal, esta definición disyuntiva no
funcionará. Podemos decir: c es una causa de e si y solo si c es una condición lógicamente
suficiente de e y temporalmente anterior a e o c no es una condición lógicamente suficiente de e
y satisface (digamos) las condiciones de Hume. Sin embargo, la primera disyunción se satisface
con muchos elementos que no son causas. El hecho de que Juan sea un organismo vivo (o el hecho
de que Juan esté encarnado en un cuerpo mortal en el tiempo t) es temporal y es una condición
lógicamente suficiente de que Juan esté muerto, pero que Juan sea un organismo vivo (o que Juan
esté encarnado en un cuerpo mortal en el tiempo t) no es la causa de su muerte. Su muerte es
causada, digamos, por un automóvil que lo golpeó cuando cruzaba la calle. El concepto expresado
por "es un organismo vivo" incluye analíticamente el concepto expresado por "es mortal,
Supongamos que nos volvemos aún más específicos y decimos en su lugar: c es una causa de e
si y solo si c es la posición de Dios en la relación R con e o c no es una condición lógicamente
suficiente de e y satisface (digamos) las condiciones de Hume. Pero este intento de producir una
definición satisfactoria fracasa por dos razones interrelacionadas.
Primero, una condición lógicamente necesaria de una definición correcta de un universal
puramente cualitativo, ya sea una propiedad monádica o una relación (como causalidad o
intencionalidad), es que no incluya una disyunción que mencione un caso particular que no
cumpla con las condiciones generales. descrito en el otro disyuntivo. Un universal puramente
cualitativo no incluye ningún particular como constituyente. Un ejemplo de un universal
impuramente cualitativo es ser más alto que el monte Everest. Las definiciones de universales
puramente cualitativos mencionan condiciones generales y no incluyen ninguna mención de un
caso particular, como el caso particular de la posición de Dios en una relación R con algo.
En segundo lugar, si se permitiera violar esta condición lógica de las definiciones correctas de
los universales puramente cualitativos (es decir, la condición de no mencionar un caso particular
en una disyunción), entonces el procedimiento de probar las definiciones mediante el método de
contraejemplo (el método estándar de probar la exactitud de las definiciones) ya no sería
utilizable. Cualquier contraejemplo de una definición podría ser coherente con la definición
añadiéndole una disyuntiva que mencione el contraejemplo. Para salvar la definición "x es un
planeta si y solo si x es un cuerpo grande que orbita una estrella y no contiene vida", podemos
expandirlo a "x es un planeta si y solo si x es un cuerpo grande que orbita una estrella y no
contiene vida o x es la Tierra ". La distinción entre definiciones correctas y definiciones ad hoc
colapsaría.

Cuarta objeción
Un último argumento es que los filósofos desde Platón hasta Plantinga han descrito el estado
mental relevante de Dios como una causa del universo y, por lo tanto, esta es una noción
aceptable. Existe un uso filosófico establecido para llamar a la relación de Dios con el universo
una "relación causal" y una larga y venerable tradición que sostenía que era coherente describir
un estado mental divino como una causa.
Este argumento, que en efecto es una apelación a la autoridad, no tiene éxito, ya que si este
argumento fuera admisible, podría usarse para rechazar cualquier teoría nueva que sea
inconsistente con las teorías sostenidas tradicionalmente. Esta apelación a la autoridad, en el
mejor de los casos, nos motiva a examinar seriamente la noción de que los estados mentales de
Dios son causas, en deferencia al hecho de que prácticamente todos los filósofos y laicos han
aceptado esta noción como lógicamente sin problemas.
Quizás para responder plenamente a esta objeción también necesitemos una explicación de
por qué esta tradición equivocada ha prevalecido durante tanto tiempo y entre tantos filósofos.
Creo que la razón principal es que una investigación de la conexión lógica entre lo que se expresa
por “el comienzo de la existencia del universo es el resultado de un acto divino” y lo que se
expresa por “el evento natural e es el resultado causal del evento natural c ”no se ha llevado a
cabo de forma sistemática. (La principal excepción son las discusiones diferentes pero
esclarecedoras de esta conexión en los escritos recientes de Adolf Grünbaum). 23La mayoría de
los filósofos han supuesto tácitamente que la tesis de que "la causalidad divina es lógicamente
posible" no es problemática; pero una vez examinada esta tesis, se ve que la presuposición es
falsa.

6 Conclusión: Argumentos cosmológicos y teleológicos para la


inexistencia de Dios
El argumento de este artículo puede parecer a primera vista que nos dice más sobre la naturaleza
de la causalidad y la naturaleza de Dios que sobre el ateísmo versus el teísmo. “Un estado divino
no puede hacer que el universo comience a existir” no implica que Dios no exista o que el Big
Bang no sea el resultado lógico de un estado divino. Simplemente implica que no podemos
describir un estado divino como la causa originaria del universo.
No obstante, existen implicaciones importantes y quizás decisivas para el debate entre teísmo
y ateísmo, a saber, que los argumentos de la verdad necesaria, la verdad a priori o la verdad
empírica de algún principio causal no pueden ser una premisa relevante a partir de la cual
deducir o inducir que el el big bang es la consecuencia lógica de la posición de Dios en la relación
R con la propiedad que es el big bang. Considere el siguiente argumento:

(4) Todo lo que comienza a existir tiene una causa.


(5) El universo comienza a existir.

Por lo tanto,
(6) el universo tiene una causa.

Este argumento no apoya la tesis de que Dios existe o de que existe una causa divina del universo.
De hecho, este argumento implica que la existencia del universo es el resultado de algo más que
un estado divino, es decir, una causa. Tampoco se puede utilizar ningún argumento inductivo
que se base en el hecho de que todo evento observado tiene una causa para respaldar la tesis de
que el big bang es el resultado de un estado divino, ya que tal argumento inductivo apoyaría la
tesis de que el big bang es el efecto de alguna causa.
De hecho, todos los diversos argumentos cosmológicos y teleológicos a favor de la existencia
de Dios son realmente argumentos a favor de la inexistencia de Dios. Estos argumentos son
argumentos para la tesis de que el universo tiene una causa y si el universo tiene una causa, Dios
no existe. Esto se puede demostrar de la siguiente manera.
La definición tradicional de Dios es: x es Dios si y solo si x es omnisciente, omnipotente,
omnibenevolente y es la causa de cualquier universo que exista. Hemos visto que lo que
tradicionalmente se expresa con "Dios es la causa del universo", si es lógicamente coherente,
debería expresarse en cambio como "Dios es el universo". Por lo tanto, la definición correcta de
Dios dice: x es Dios si y solo si x es omnisciente, omnipotente, omnibenevolente y Rs cualquier
universo que exista. De esta definición se deduce que es una propiedad esencial de Dios que él
es cualquier universo que exista. Dado que esta propiedad es esencial para Dios, no hay mundo
posible en el que sea cierto tanto que Dios existe como que hay un universo con el que Dios no
tiene una relación R.
Nuestra discusión de la teoría de la causalidad de Sosa sugirió que la relación causal y la
relación R divina son dos tipos diferentes de relaciones que producen resultados, para tomar
prestada la frase de Sosa. Si el universo es el resultado de una relación causal que produce
resultados, no es el resultado de una relación de tipo R que produce resultados, y si el universo
es el resultado de un acto divino de R, no es el resultado. de una causa. Si hay un mundo posible
en el que algún universo es el resultado de una causa, se sigue que Dios no existe en ese mundo
posible.
Esto muestra cómo se puede construir explícitamente un argumento cosmológico a favor de la
inexistencia de Dios. Las premisas e inferencias se exponen en el siguiente argumento:

(4) Todo lo que comienza a existir tiene una causa.


(5) El universo comienza a existir.

Por lo tanto,

(6) el universo tiene una causa.


(7) Si el universo es el resultado de una causa, no es el resultado de la posición de Dios con el
universo en una relación R.
(8) Es una propiedad esencial de Dios que él es cualquier universo que existe.
Por lo tanto [de (7) y (8)],

(9) no hay mundo posible en el que sea cierto tanto que Dios existe como que hay un
universo que es el resultado de una causa.

Por lo tanto [de (6) y (9)],

(10) Dios no existe.

Si la cosmología del Big Bang es verdadera [y por lo tanto (5) es verdadera], parece que la
premisa con el estado epistémico más débil o más bajo es la primera premisa, "Todo lo que
comienza a existir tiene una causa". Pero William Lane Craig dice sobre esta premisa: “[L] a
primera premisa es tan intuitivamente obvia, especialmente cuando se aplica al universo, que
probablemente nadie en su sano juicio realmente crea que sea falsa”. 24 Si Craig tiene razón y mi
argumento es sólido, se deduce que probablemente nadie en su sano juicio que crea que el
universo tiene un comienzo cree realmente que Dios existe.
Las mismas consideraciones se aplican al argumento teleológico, una versión del cual dice:

(11) Algunos seres inteligentes hacen que existan artefactos con algún propósito en mente.
(12) El universo se parece a un artefacto.

Por tanto, es probable que:

(13) El universo es causado por algunos seres inteligentes con algún propósito en mente.

Si este es un argumento adecuado por analogía, entonces probablemente sea cierto que la
relación de producción de resultados que está involucrada en la explicación de por qué existe el
universo es una relación causal en la que algunos seres inteligentes están parados con el
universo. . De ello se desprende [proposiciones dadas (7) y (9)] que probablemente Dios no
existe.
Dado que se ha pensado que los argumentos cosmológicos y teleológicos son los argumentos
más fuertes a favor de la existencia de Dios, y dado que apoyan el ateísmo en lugar del teísmo,
ahora parece que el caso del teísmo es muy débil. Es difícil imaginar cómo uno podría establecer
inductiva o deductivamente, o encontrarlo evidente por sí mismo, que el big bang es la
consecuencia lógica de que algo esté en una relación R con el big bang. Quizás hay algunos
argumentos bastante plausibles de que el big bang tiene una causa, pero no existen argumentos
existentes o plausibles de que el big bang tenga una condición lógicamente suficiente en un
estado mental acausal. Esto sugiere que creer en la existencia de Dios es considerablemente
menos razonable de lo que incluso los teólogos naturales más cautelosos han supuesto
habitualmente.
Notas
1Las versiones anteriores de este artículo se leyeron en la Universidad de West Virginia (febrero de 1995) y en la Universidad
Metodista del Sur (marzo de 1996). Los filósofos de ambas universidades ofrecieron útiles comentarios sobre estas versiones
anteriores. Mark Aronszajn y William Lane Craig escribieron respuestas críticas a versiones anteriores, que resultaron útiles
al redactar el presente borrador. También estoy agradecido con Christopher Hill por varias sugerencias que me permitieron
mejorar un borrador anterior. La investigación para este artículo fue apoyada por una beca del American Council of Learned
Societies en 1996 y por un National Endowment for the Humanities Summer Stipend para 1995.
2 David Hume, “Un resumen de un tratado de la naturaleza humana”, en Una investigación sobre el entendimiento humano
(Nueva York: Bobbs-Merrill, 1955), 186–87.
3Vale la pena señalar que la teoría de Michael Tooley implica que una causa requiere una ley de la naturaleza subyacente, pero
que la causa no está especificada únicamente por la ley de la naturaleza y los hechos no causales. Aunque la definición de
Tooley difiere de las definiciones reductivas tradicionales, su inclusión de una condición nomológica impide que sea satisfecha
por una voluntad divina. Véase su Causation: A Realist Approach (Oxford: Clarendon Press, 1987).
4 Carl Hempel, Aspects of Scientific Explanation (Nueva York: The Free Press, 1965), 348–49.
5CJ Ducasse, "Sobre la naturaleza y la observabilidad de la relación causal", en Causation, ed. Ernest Sosa y Michael Tooley
(Oxford: Oxford University Press, 1993), 129.
6 Ibíd., 127.
7Héctor-Neri Castañeda, “Causas, causalidad y energía”, en Midwest Studies in Philosophy IX, ed. Peter A. French, Theodore E.
Uehling, Jr. y Howard K. Wettstein (Minneapolis: University of Minnesota Press, 1984); Galen Strawson, "Realismo y
causalidad", Philosophical Quarterly 37 (1987): 253–77; David Fair, “La causalidad y el flujo de energía”, Erkenntnis 14
(1979): 219–50; Jerrold Aronson, "El legado del análisis de causalidad de Hume", Estudios de historia y filosofía de la ciencia
7 (1971): 135–36.
8Castañeda, op. cit., 22.
9 Véase David Lewis, “Causation”, Journal of Philosophy 70 (1973): 556–67.
10Jaegwon Kim, “Eventos como ejemplos de propiedad”, en Action Theory, ed. Myles Brand y Douglas Walton (Dordrecht:
Reidel, 1976).
11 Véase Brian Leftow, Time and Eternity (Ithaca, NY: Cornell University Press, 1993).
12Véase Donald Davidson, "Causal Relations", en Sosa y Tooley, op. cit.
13Véase Nicholas Wolterstorff, “God Everlasting”, en God and the Good, ed. Clifton Orlebeke y Lewis Smedes (Grand Rapids,
Michigan: Eerdmans, 1975); Quentin Smith, Language and Time (Nueva York: Oxford University Press, 1993).
14David Lewis, Philosophical Papers, vol. 2 (Nueva York: Oxford University Press, 1983), 170.
15 Ibídem.
dieciséis Véase John Mackie, The Cement of the Universe (Oxford: Clarendon Press, 1974).
17Abogué por este enfoque en “El concepto de una causa del universo”, Canadian Journal of Philosophy 23 (1993): 1–24. En
este artículo anterior, afirmé que los casos de voliciones divinas son contraejemplos válidos de las definiciones existentes de
causalidad. Sin embargo, desde entonces he desarrollado un contraargumento a esta afirmación (ver parte 5, la segunda
objeción) que me ha llevado a abandonar la tesis de que las voliciones divinas son causas.
18Más exactamente, una ocurrencia en notación de un término en una posición dentro de las construcciones de actitudes no
está abierta a sustitución y cuantificación; una ocurrencia relacional de un término en esta posición está abierta a sustitución
y cuantificación. “F” ocurre relacionalmente en “y desea que haya una F” si se lee como “($ x) Fx. y desea que: ($ x) Fx ". Por
el contrario, "F" aparece en forma de notación si "y desea que haya una F" se lee como "y desea que: ($ x) Fx". Véase David
Kaplan, “Opacity”, en The Philosophy of WV Quine, ed. Lewis Edwin Hahn y Paul Arthur Schilpp (La Salle, Ill .: Open Court,
1986). Cuando hablo de “posiciones dentro de las construcciones de actitudes”, solo me refiero a las posiciones dentro de las
construcciones de actitudes en las que los términos ocurren de forma notación.
19Ernest Sosa, “Varieties of Causation”, en Sosa y Tooley, op. cit., 240.
20 Ibídem.
21 Ibídem.
22 Ibíd., 242.
23Adolf Grünbaum, "El pseudo-problema de la creación en cosmología física", en Filosofía y cosmología física, ed. John Leslie
(Nueva York: Macmillan, 1990), 92-112; "La creación como una pseudo-explicación en la cosmología física actual",
Erkenntnis 35 (1991): 233–54.
24 William Lane Craig y Quentin Smith, Teísmo, ateísmo y cosmología del Big Bang (Oxford: Clarendon Press, 1993), 57.
11
Más allá del Big Bang
William Lane Craig

Las alternativas ante nosotros


El descubrimiento de que el universo no es eterno sino que tuvo un comienzo implica que el
universo no es necesario en su existencia y por lo tanto tiene su fundamento en un ser
trascendente. La única forma de evitar esta conclusión sería negar la convicción de Leibniz de
que todo lo que existe tiene una razón para su existencia, ya sea en la necesidad de su propia
naturaleza o en una base externa, y afirmar que el universo simplemente surgió sin causa. de
nada. Reflexionando sobre la situación actual, PCW Davies reflexiona:
¿Qué causó el Big Bang? . . . Uno podría considerar alguna fuerza sobrenatural, alguna agencia
más allá del espacio y el tiempo como responsable del Big Bang, o podría preferir considerar
el Big Bang como un evento sin causa. Me parece que no tenemos muchas opciones.
Cualquiera . . . algo fuera del mundo físico. . . o . . . un evento sin causa (Davies 1995: 8–9).

J. Richard Gott y Li-Xin Li buscan romper este dilema defendiendo la extraordinaria hipótesis de
que el universo se creó a sí mismo. Al observar que `` la cuestión de la primera causa ha sido
preocupante para filósofos y científicos por igual durante más de dos mil años '', señalan que los
científicos modernos, como Aristóteles, han encontrado atractivos modelos del universo que
involucran la existencia sempiterna del universo, ya que en este manera 'uno no tendría que
preguntarse qué causó su existencia' (Gott y Li-Xin 1998: 023501-1). Sin embargo, 'ahora que es
evidente que nuestro universo comenzó con una explosión del big bang', 'los modelos con un
comienzo finito han tenido prioridad' y 'la pregunta de qué sucedió antes de que surja el big bang'
(Gott y Li-Xin 1998: 023501–1). Observan que la inflación parecía ser 'una respuesta muy
prometedora, pero como han demostrado Borde y Vilenkin, el estado inflacionario que precedió
al Big Bang no pudo haber sido de duración infinita; también debe haber tenido un comienzo.
¿De dónde vino? En última instancia, la pregunta difícil parece ser cómo hacer algo de la nada
”(Gott y Li-Xin 1998: 023501-1). Gott y Li-Xin, sin embargo, sugieren en cambio que deberíamos
preguntarnos si algo en las leyes de la física evitaría que el universo se cree a sí mismo.

Al señalar que la Relatividad General permite la posibilidad de curvas cerradas de tipo


temporal, plantean la hipótesis de que a medida que rastreamos la historia del universo a través
de un estado inflacionario original, nos encontramos con una región de curvas cerradas de tipo
temporal antes de la inflación. Según un escenario posible, un vacío metaestable se infla,
produciendo un número infinito de universos burbuja (tipo Big Bang). En muchos de ellos, una
serie de burbujas de vacío metaestable se crean en momentos tardíos debido a eventos de alta
energía. Estas burbujas generalmente colapsan y forman agujeros negros, pero ocasionalmente
uno forma un túnel para crear un vacío metaestable en expansión o un universo bebé. Uno de
estos universos de bebés de vacío metaestable en expansión «resulta ser el vacío metaestable
inflado original con el que comenzamos» (figura 11.1).

Figura 11.1 Un universo que se crea a sí mismo. Se muestran cuatro universos de bebés inflados. Los universos A y D no han
creado ningún universo bebé. El Universo C ha creado el universo D. El Universo B ha creado tres universos: A, C y él mismo, B. La
región en forma de toro en la parte inferior es una región de curvas cerradas en forma de tiempo. Un universo así ni surgió de una
singularidad ni se hizo un túnel de la observación, sino que se creó a sí mismo.

Gott y Li-Xin concluyen que "las leyes de la física pueden permitir que el universo sea su propia
madre" (Gott y Li-Xin 1998: 023501-1).
Ahora podemos dejar que los físicos evalúen la afirmación de Gott y Li-Xin de que las leyes de
la física permiten tal escenario, así como la cuestión de si hay hechos físicos no legales que lo
contradigan. Pues la hipótesis de Gott-Li-Xin plantea cuestiones metafísicas fundamentales
sobre la naturaleza del tiempo que, creo, hacen que su hipótesis sea metafísicamente imposible
o superflua.
Los filósofos del tiempo han distinguido dos puntos de vista diferentes sobre la naturaleza del
tiempo, que se han denominado las teorías A y B del tiempo, respectivamente. 1Según la teoría A,
los momentos temporales pueden clasificarse como pasado, presente y futuro, y solo existe ese
momento que es presente. Los momentos pasados y las cosas o eventos que los ocupan han
pasado y ya no existen; los momentos, cosas y eventos futuros aún no han llegado a ser y, por lo
tanto, aún no existen. Según la teoría A del tiempo, las cosas entran y salen del ser y, por tanto,
el devenir temporal es una característica real y objetiva de la realidad.
Por el contrario, en la teoría B del tiempo, la distinción entre pasado, presente y futuro es una
ilusión subjetiva de la conciencia humana. Todas las cosas o eventos en el tiempo son igualmente
reales y existen, y los momentos, las cosas y los eventos simplemente se encuentran entre sí en
relaciones tensas de antes que, simultáneos con o después de. Nada entra ni sale del ser, y el
devenir temporal es una ilusión.
Ahora bien, todas las instancias de influencia causal sobre el pasado, ya sea que estemos
hablando de curvas cerradas similares a las del tiempo, viajes en el tiempo, retrocausalidad, anti-
teléfonos taquiónicos o lo que sea, presuponen la verdad de la teoría B del tiempo. 2Porque
claramente en la teoría A del tiempo, en el momento en que el efecto está presente, la causa es
futura y, por lo tanto, literalmente inexistente. Por lo tanto, el efecto simplemente surge de la
nada. Este escenario no solo parece absurdo, sino que también se reduce al primer cuerno del
dilema de Davies con respecto al origen del universo. El universo simplemente vino sin causa de
la nada.
Por tanto, la hipótesis de Gott-Li-Xin presupone la teoría B del tiempo. Pero si se presupone tal
visión del tiempo, entonces la hipótesis de Gott y Li-Xin se vuelve superflua. Porque según una
teoría B del tiempo, el universo nunca llega a existir realmente. 3Toda la variedad del espacio-
tiempo de cuatro dimensiones simplemente existe sin tensión, y el universo tiene un comienzo
solo en el sentido de que una vara de un metro tiene un comienzo antes del primer centímetro.
Aunque la variedad del espacio-tiempo es intrínsecamente temporal en el sentido de que una de
sus cuatro dimensiones es el tiempo, no obstante es extrínsecamente atemporal, en el sentido de
que no existe en un hiper-tiempo incrustado, sino que existe sin tensión, ni entrando ni saliendo
del ser. En este último sentido, la variedad espacio-tiempo tetradimensional es eterna. Por lo
tanto, no hay necesidad del dispositivo de bucles causales o curvas cerradas de tipo temporal al
principio para explicar cómo llegó a existir.
Ahora bien, el espacio no me permite revisar los argumentos a favor y en contra de las teorías
A y B del tiempo. He explorado este fascinante debate durante los últimos doce años e informo
mis hallazgos en otra parte.4 Aquí solo puedo esbozar mis razones para afirmar una teoría A del
tiempo como la visión más plausible del asunto:

I. Argumentos a favor de la teoría A


A. El tiempo lingüístico, ineliminable e irreductible, refleja los hechos tensos que son
característicos de la realidad.5
B. La experiencia del devenir temporal, como nuestra experiencia del mundo exterior,
debe considerarse verídica.6
II. Refutación de argumentos en contra de la teoría A
La paradoja de A. McTaggart se basa en la suposición ilícita de que debería existir una
descripción única sin tiempo de la realidad, así como en la fusión ilícita del devenir
teórico A con una ontología teórica B.7
B. El paso del tiempo no es un mito, sino una metáfora de la objetividad del devenir
temporal, una noción que puede explicarse consistentemente desde una metafísica
presentista.8
III. Refutación de argumentos a favor de la teoría B
R. El devenir temporal es totalmente compatible con el núcleo matemático de la Teoría
de la Relatividad, incluso si su afirmación requiere una interpretación física diferente
a la vista recibida.9
B. El tiempo, como juega un papel en la física, es una abstracción de una realidad
metafísica más rica, omitiendo elementos indexados como el "aquí" y el "ahora" en el
interés de universalizar las formulaciones de las leyes naturales. 10
IV. Argumentos en contra de la teoría B

R. En ausencia de distinciones objetivas entre pasado, presente y futuro, las relaciones


que ordenan los eventos en la teoría B sólo se consideran gratuitamente como
relaciones genuinamente temporales de antes / después de. 11
B. La ilusión subjetiva del devenir temporal implica en sí misma un devenir temporal
objetivo de los contenidos de la conciencia.12
C. La teoría B implica perdurantismo, la visión de que los objetos tienen partes espacio-
temporales, una doctrina que es metafísicamente contraintuitiva, incompatible con
la responsabilidad moral, y que implica la extraña teoría contraparte de la identidad
transmundana.13

Dada la verdad de la teoría A del tiempo, la idea de que el universo se ha creado a sí mismo, es
decir, que se creó a través de curvas cerradas en forma de tiempo, es metafísicamente imposible
o se reduce a la noción de que el universo surgió de un salto. existencia sin causa de la nada. Por
lo tanto, creo que estamos atrapados con el dilema de Davies: el comienzo del universo es un
evento sin causa o es el resultado de una agencia sobrenatural.

La alternativa sobrenaturalista
Supongamos que seguimos la ruta de postular que alguna agencia causal más allá del espacio y
el tiempo es responsable del origen del universo. Un análisis conceptual de las propiedades que
debe poseer una causa tan ultramundana nos permite recuperar un número sorprendente de los
atributos divinos tradicionales. Porque como causa del espacio y el tiempo, esta entidad debe
trascender el espacio y el tiempo y, por lo tanto, existir atemporal y no espacialmente, al menos
sin el universo. Por lo tanto, esta causa trascendente debe ser inmutable e inmaterial, ya que la
atemporalidad implica inmutabilidad y la inmutabilidad implica inmaterialidad. Tal causa debe
carecer de principio y de causa, al menos en el sentido de carecer de condiciones causales
precedentes. La navaja de Ockham eliminará otras causas, ya que no debemos multiplicar las
causas más allá de la necesidad.
Por último, y lo más sorprendente, es plausible que una causa tan trascendente se considere
personal. Como señala Swinburne, hay dos tipos de explicación causal: explicaciones científicas
en términos de leyes y condiciones iniciales y explicaciones personales en términos de agentes
y sus voliciones (Swinburne 1991: 32-48). Un primer estado del universo no puede tener una
explicación científica, ya que no hay nada antes que él y, por lo tanto, solo puede explicarse en
términos de una explicación personal. Además, la personalidad de la causa del universo está
implícita en su atemporalidad e inmaterialidad, ya que las únicas entidades que conocemos que
pueden poseer tales propiedades son las mentes o los objetos abstractos, y los objetos abstractos
no se encuentran en relaciones causales. Por tanto, la causa trascendente del origen del universo
debe ser del orden de la mente. Esta misma conclusión también está implícita en el origen de un
efecto temporal de una causa atemporal. Porque si la causa del universo fuera un conjunto
impersonal de condiciones necesarias y suficientes, no podría existir sin su efecto. La única
manera de que la causa sea atemporal e inmutable, pero que su efecto se origine de novo hace
un tiempo finito, es que la causa sea un agente personal que elige libremente producir un efecto
sin condiciones determinantes antecedentes. Por lo tanto, somos llevados, no meramente a una
causa trascendente del universo, sino a su creador personal. La única manera de que la causa sea
atemporal e inmutable, pero que su efecto se origine de novo hace un tiempo finito, es que la
causa sea un agente personal que elige libremente producir un efecto sin condiciones
determinantes antecedentes. Por lo tanto, somos llevados, no meramente a una causa
trascendente del universo, sino a su creador personal. La única manera de que la causa sea
atemporal e inmutable, pero que su efecto se origine de novo hace un tiempo finito, es que la
causa sea un agente personal que elige libremente producir un efecto sin condiciones
determinantes antecedentes. Por lo tanto, somos llevados, no meramente a una causa
trascendente del universo, sino a su creador personal.

Objeciones naturalistas
El naturalista, por supuesto, se resistirá a aceptar semejante bagaje metafísico. Pero piense en la
alternativa: que el universo nació sin causa de la nada. Eso parece metafísicamente absurdo. El
filósofo naturalista de la ciencia Bernulf Kanitscheider reprocha: `` Si se toma en serio, la
singularidad inicial choca frontalmente con el compromiso ontológico más exitoso que fue una
línea de investigación rectora desde Epicuro y Lucrecio '', es decir, de la nada no surge nada, lo
que Kanitscheider llama "una hipótesis metafísica que ha demostrado ser tan fructífera en todos
los rincones de la ciencia que seguramente se nos aconseja hacer todo lo posible por evitar los
procesos de origen absoluto" (Kanitscheider 1990: 344). Mario Bunge piensa que un origen
absoluto del universo 'sería acientífico, porque la ciencia se rige por los principios de que nada
surge de la nada ni se convierte en nada. . . y que todo sucede de acuerdo con la ley en lugar de
milagros ”(Bunge 1985: 238–9). Sobre la base del primer principio, Bunge, como Kanitscheider,
rechaza la opinión de que el universo surgió sin causa de la nada. Sobre la base del segundo
principio, piensa rechazar el teísmo. Pero mientras que el principio de que nada surge de la nada
es un primer principio tanto de la metafísica como de la ciencia, no hay incompatibilidad entre
ser un teísta metafísicamente y un naturalista metodológico científicamente; además, incluso el
naturalismo metodológico está lejos de ser indiscutible. Sobre la base del primer principio,
Bunge, como Kanitscheider, rechaza la opinión de que el universo surgió sin causa de la nada.
Sobre la base del segundo principio, piensa rechazar el teísmo. Pero si bien el principio de que
nada surge de la nada es un primer principio tanto de la metafísica como de la ciencia, no hay
incompatibilidad entre ser un teísta metafísicamente y un naturalista metodológico
científicamente; además, incluso el naturalismo metodológico está lejos de ser indiscutible.
Sobre la base del primer principio, Bunge, como Kanitscheider, rechaza la opinión de que el
universo surgió sin causa de la nada. Sobre la base del segundo principio, piensa rechazar el
teísmo. Pero mientras que el principio de que nada surge de la nada es un primer principio tanto
de la metafísica como de la ciencia, no hay incompatibilidad entre ser un teísta metafísicamente
y un naturalista metodológico científicamente; además, incluso el naturalismo metodológico está
lejos de ser indiscutible. no hay incompatibilidad entre ser un teísta metafísicamente y un
naturalista metodológico científicamente; además, incluso el naturalismo metodológico está
lejos de ser indiscutible. no hay incompatibilidad entre ser un teísta metafísicamente y un
naturalista metodológico científicamente; además, incluso el naturalismo metodológico está
lejos de ser indiscutible.14 Es difícil ver cómo una persona sensata, particularmente el naturalista,
puede pensar que el universo simplemente surgió sin causa de la nada.
Por lo tanto, ha sido notable observar en los últimos años el número de naturalistas que, bajo
la fuerza de la evidencia de un comienzo absoluto del universo, han abrazado la opinión de que
el universo es un contingente impreciso, algo que apareció sin ser causado por nada. Quentin
Smith declara: "El hecho es que la creencia más razonable es que venimos de la nada, de la nada
y para nada".15 En lugar de postular una causa del origen del universo, Smith advierte:
'Deberíamos reconocer nuestro fundamento en la nada y sentirnos asombrados por el hecho
maravilloso de que tenemos la oportunidad de participar brevemente en este increíble
resplandor solar que interrumpe sin razón el reinado de la Tierra. el no ser '(Smith 1993a: 135).

A veces se intenta hacer más plausible esta notable hipótesis, pero no suelen ser muy
impresionantes. Considere, por ejemplo, el relato de Peter Atkins sobre el origen del universo:
Ahora retrocedemos en el tiempo más allá del momento de la creación, cuando no había
tiempo y donde no había espacio. . . En el principio no había nada . . . . Por casualidad hubo
una fluctuación y un conjunto de puntos, emergiendo de la nada. . . definido un tiempo. . . De
la nada absoluta, absolutamente sin intervención, surgió una existencia rudimentaria. . . Sin
embargo, la línea del tiempo colapsó y el universo incipiente se evaporó, porque el tiempo
por sí solo no es lo suficientemente rico para existir. El tiempo y el espacio emergieron en
otra parte, pero ellos también volvieron a desmoronarse en su propio polvo, la coalescencia
de los opuestos, o simplemente nada. Los patrones emergieron una y otra vez, y otra vez.
Cada vez que el patrón formaba un tiempo, y a través de su patrón en el tiempo, los puntos
inducían su propia existencia. . . A veces, el azar marca puntos en un espacio además de en un
tiempo. . . Entonces, por casualidad, se produjo nuestra fluctuación. Los puntos llegaron a
existir al constituir el tiempo, pero esta vez, en este patrón, el tiempo fue acompañado por
tres dimensiones del espacio. . . con ellos viene la estabilidad, elementos posteriores y
elefantes aún posteriores ”(Atkins 1992: 129, 149–51).

Esta explicación es tan obviamente incoherente al postular el tiempo antes del tiempo y tan
confusa en su cosificación de las entidades matemáticas que podemos, con razón, descartarla
como la tontería pseudocientífica que es.dieciséis
O nuevamente, cuando John Gribbin afirma que el origen del universo a partir de la nada no
presenta ningún problema, ya que la energía positiva asociada a la masa se compensa
precisamente con la energía negativa asociada a la gravitación, de modo que en el caso del origen
del universo obtenemos "No es algo por nada, después de todo, pero nada por nada" (Gribbin
1986: 374), se compromete con la absurda posición de que nada existe (¡ni siquiera él mismo!).
En el mejor de los casos, el hecho de que el universo contenga cantidades equilibradas de energía
positiva y negativa podría mostrar que el universo no necesita tener una causa material; pero no
hace nada para obviar la necesidad de una causa eficiente. Como dice Isham, todavía existe la
"necesidad de siembra óntica" para producir la energía positiva y negativa, incluso si en conjunto
no es nada (Isham 1994: 8).
Más a menudo, los pensadores naturalistas han tratado de elogiar su punto de vista, ya sea
atacando el principio causal, todo lo que comienza a existir tiene una causa o argumentando la
inverosimilitud o incoherencia de la existencia de una causa del universo. Los ataques al
principio causal suelen basarse en una apelación a la indeterminación cuántica. Por ejemplo, a
veces se dice que las partículas virtuales constituyen un contraejemplo del principio porque
surgen sin causa del vacío mecánico cuántico. Totalmente aparte de la controvertida cuestión de
si las partículas virtuales existen realmente,17el punto central que debe entenderse aquí es que
el vacío cuántico del que dependen para su existencia no es nada. Es por esa razón que las
afirmaciones hechas con frecuencia con respecto a los modelos de fluctuación del vacío de que
'el universo cuántico se convirtió en un túnel a partir de la nada', o que 'la nada es inestable' a las
fluctuaciones que crecen en universos, o que 'el universo es un universo. almuerzo gratis 'porque
en este caso' obtuvimos algo a cambio de nada 'no puede tomarse en serio, ya que no tratan nada
como si fuera algo, una especie de sustancia que posee propiedades y se rige por las leyes de la
física cuántica. De hecho, tales declaraciones resultan ser solo florituras retóricas que ningún
científico informado toma literalmente. El vacío cuántico, que subyace a toda la realidad del
espacio-tiempo, es un mar de energía fluctuante.
La microestructura violenta del vacío se ha utilizado para intentar explicar el origen del
universo como una fluctuación de vacío de larga duración. Pero algunos autores han
conectado con estas especulaciones legítimas [sic] afirmaciones metafísicas de largo alcance,
o como mucho expresaron sus matemáticas en un lenguaje altamente engañoso, cuando
sostuvieron "la creación del universo a partir de la nada". . .
Desde el punto de vista filosófico es fundamental señalar que lo anterior está lejos de ser
una generación espontánea de todo de la nada, pero el origen de esa burbuja embrionaria es
en realidad un proceso causal que conduce de un sustrato primordial con una rica estructura
física a un sustrato materializado del vacío. Es cierto que este proceso no es determinista,
incluye ese tipo débil de dependencia causal peculiar de todo proceso mecánico cuántico
(Kanitscheider 1990: 346-7).

Por tanto, la física cuántica no sirve para refutar el principio de que todo lo que comienza a existir
tiene una causa.
No es sorprendente que los naturalistas deban atacar la noción de una causa del universo, ya
que rechazan las realidades supra-naturales independientemente de su motivación para
justificar un origen no causado del universo a partir de la nada. A veces, estas críticas pueden
descartarse fácilmente. Por ejemplo, el metafísico John Post, obviamente, plantea la pregunta
cuando afirma que no puede haber una causa del origen del universo, ya que "por definición, el
universo contiene todo lo que existe, fue o será" (Post 1991: 85). Una vez más, es un non sequitur
obvio cuando infiere que debido a que 'la singularidad no puede ser causada por algún evento o
proceso natural anterior', por lo tanto 'el universo tiene un comienzo sin causa' y 'parece que la
cosmología física contemporánea no puede citarse en apoyo de la idea de una causa divina o
creador del universo '(Post 1991:
Por otro lado, Smith se da cuenta de que el metafísico debe tomarse en serio la "cuestión más
difícil" de "si la singularidad o el Big Bang es probablemente un efecto de una causa sobrenatural,
Dios" (Smith 1993a: 120). ¿Qué problemas, entonces, hay con una perspectiva sobrenaturalista?
Adolf Grünbaum ha argumentado enérgicamente contra lo que él llama "el argumento de la
nueva creación" para una causa sobrenatural del origen del universo. 18Su Ansatz básico se basa
en el supuesto de que la prioridad causal implica una prioridad temporal. Dado que no hubo
instantes de tiempo antes del Big Bang, se deduce que el Big Bang no puede tener una causa. 19

Me parece que el sobrenaturalista tiene varias opciones para lidiar con esta objeción, una de
las cuales es sostener que la causa trascendente del universo es causal, pero no temporalmente,
anterior al evento del Big Bang, de modo que Su acto de hacer que el universo comience a existir
es simultáneo, o coincidente, con su comienzo a existir. Grünbaum no proporciona ninguna
justificación para su supuesto de que la prioridad causal implica una prioridad temporal. Las
discusiones sobre la direccionalidad causal tratan de manera rutinaria casos en los que la causa
y el efecto son simultáneos. Un sobrenaturalista podría sostener que el Creador sin el universo
existe sin cambios y, por lo tanto, atemporalmente y en el Big Bang, la singularidad creó el
universo junto con el tiempo y el espacio. Para el Creador sin el universo, simplemente no hay
tiempo porque no hay eventos de ningún tipo;
El momento del primer evento sería no solo el primer momento en el que existe el universo,
sino también, técnicamente, el primer momento en el que existe Dios, ya que sin el universo Dios
existe atemporalmente.20El momento de la creación es, por así decirlo, el momento en el que Dios
entra en el tiempo. Su acto de creación es, por tanto, simultáneo con el origen del universo.
En respuesta a esta sugerencia, Grünbaum se ha opuesto al siguiente argumento: 21
1. El proponente de la causalidad asimétrica simultánea debe proporcionar un criterio
generalmente aceptado para distinguir uno de dos eventos simultáneos conectados
causalmente como la causa del otro, si la causación asimétrica simultánea es posible.
2. No existe una explicación generalmente aceptada de la direccionalidad causal.
3. Por lo tanto, no puede haber una causa asimétrica simultánea del Big Bang.

El argumento, si tiene éxito, eliminaría todos los supuestos casos de causalidad asimétrica
simultánea, no solo una causa del Big Bang.
Sin embargo, creo que el argumento es erróneo porque (1) es obviamente falso. Porque (i) ¿Por
qué el proponente de la causalidad asimétrica simultánea debe proporcionar un criterio
generalmente aceptado de direccionalidad causal para que dicha causalidad sea posible? ¿No es
esta una demanda extravagante? Grünbaum no se da cuenta de que no existe una explicación
generalmente aceptada de la direccionalidad causal überhaupt, incluidas las explicaciones que
apelan a la prioridad temporal como condición de la prioridad causal. De hecho, me atrevería a
decir que hoy en día no existe una explicación generalmente aceptada de la causalidad. Pero,
¿deberíamos inferir, por tanto, que la causalidad es imposible o inexistente? Compare la
situación en la epistemología contemporánea. En la actualidad, no existe una explicación
generalmente aceptada de la justificación o garantía racional con respecto a las creencias que
consideramos verdaderas; pero, ¿deberíamos inferir, por tanto, que el conocimiento es
imposible? Los deconstruccionistas y otros posmodernistas pueden pensar que sí, pero dudo que
Grünbaum esté dispuesto a seguir su camino. No hay razón para pensar que la posibilidad de una
causalidad simultánea dependa de que seamos capaces de llegar a un criterio indiscutible de
direccionalidad causal. (ii) De hecho, ¿qué razón hay para pensar que la posibilidad de una
causalidad asimétrica simultánea depende de que yo sea capaz de llegar a algún tipo de criterio
de direccionalidad causal? Mi enunciado de un criterio para distinguir una causa de su efecto es
un asunto epistémico; la existencia de una causalidad simultánea es una cuestión de ontología.
Un criterio nos ayuda a discernir causas simultáneas y asimétricas en el mundo; pero sugerir que
dicho criterio constituye de alguna manera tales relaciones causales en realidad es
verificacionismo en su forma más inverosímil. Grünbaum no ha sugerido ninguna incoherencia
o dificultad en la causalidad asimétrica simultánea; si existen tales causas en el mundo, no tienen
por qué esperar a que descubramos algún criterio para distinguirlas. (iii) No hay razón para
pensar que para que casos específicos de causalidad asimétrica simultánea sean posibles o
discernibles, uno debe poder proporcionar un criterio general lo suficientemente amplio para
cubrir todos esos supuestos casos. Todo lo que se necesita es una forma de distinguir la causa
del efecto en el caso específico. Ahora bien, en el caso de la hipótesis del creacionismo teológico,
tenemos un medio lógicamente hermético para distinguir la causa del efecto, a saber, es
metafísicamente imposible que Dios sea causado por el mundo, ya que si Dios existe, Su
naturaleza es tal que Él existe necesariamente, mientras que la existencia del mundo es
metafísicamente contingente (como es evidente desde su comienzo que existe). Eso implica que
no hay un mundo posible en el que Dios sea causado por el Big Bang. Por lo tanto, es fácil para el
teísta explicar en qué sentido Dios es causalmente anterior al universo o al Big Bang: Dios y el
universo están relacionados causalmente, y si el universo no existiera, Dios existiría sin embargo,
mientras que hay ningún mundo posible en el que el universo exista sin Dios. Por tanto, me
parece que la objeción de Grünbaum a una causa sobrenatural del origen del universo no tiene
éxito. mientras que la existencia del mundo es metafísicamente contingente (como es evidente
desde el principio de su existencia). Eso implica que no hay un mundo posible en el que Dios sea
causado por el Big Bang. Por lo tanto, es fácil para el teísta explicar en qué sentido Dios es
causalmente anterior al universo o al Big Bang: Dios y el universo están relacionados
causalmente, y si el universo no existiera, Dios existiría sin embargo, mientras que hay ningún
mundo posible en el que el universo exista sin Dios. Por tanto, me parece que la objeción de
Grünbaum a una causa sobrenatural del origen del universo no tiene éxito. mientras que la
existencia del mundo es metafísicamente contingente (como es evidente desde el principio de su
existencia). Eso implica que no hay un mundo posible en el que Dios sea causado por el Big Bang.
Por lo tanto, es fácil para el teísta explicar en qué sentido Dios es causalmente anterior al
universo o al Big Bang: Dios y el universo están relacionados causalmente, y si el universo no
existiera, Dios existiría sin embargo, mientras que hay ningún mundo posible en el que el
universo exista sin Dios. Por tanto, me parece que la objeción de Grünbaum a una causa
sobrenatural del origen del universo no tiene éxito. Es fácil para el teísta explicar en qué sentido
Dios es causalmente anterior al universo o al Big Bang: Dios y el universo están relacionados
causalmente, y si el universo no existiera, Dios, no obstante, existiría, mientras que no es posible.
mundo en el que el universo existe sin Dios. Por tanto, me parece que la objeción de Grünbaum
a una causa sobrenatural del origen del universo no tiene éxito. Es fácil para el teísta explicar en
qué sentido Dios es causalmente anterior al universo o al Big Bang: Dios y el universo están
relacionados causalmente, y si el universo no existiera, Dios, no obstante, existiría, mientras que
no es posible. mundo en el que el universo existe sin Dios. Por tanto, me parece que la objeción
de Grünbaum a una causa sobrenatural del origen del universo no tiene éxito.
El naturalista quizás planteará una objeción metafísica al escenario que he esbozado sobre el
estado del Creador sin el universo. Porque requiere que concibamos a un agente personal
atemporal, y algunos filósofos han argumentado que tal noción es contradictoria en sí
misma.22Porque es una condición necesaria de la personalidad que un individuo sea capaz de
recordar, anticipar, reflexionar, deliberar, decidir, etc. Pero estas son actividades
inherentemente temporales. Por tanto, no puede haber personas atemporales.
La falacia de este razonamiento es que combina las propiedades comunes de las personas con
las propiedades esenciales de las personas. El tipo de actividades delineadas anteriormente son
ciertamente propiedades comunes de las personas temporales. Pero eso no implica que tales
propiedades sean esenciales para la personalidad. Podría decirse que lo que es necesario y
suficiente para la personalidad es la autoconciencia y el libre albedrío, y estos no son
inherentemente temporales. En su estudio de la atemporalidad divina, John Yates escribe:
El teísta clásico puede admitir inmediatamente que conceptos como reflexión, memoria y
anticipación no podrían aplicarse a un ser atemporal (ni a ningún ser omnisciente), pero esto
no significa admitir que los conceptos clave de conciencia y conocimiento sean inaplicables a
tal deidad . . . no parece haber ningún elemento temporal esencial en palabras como. . .
"comprender", "estar consciente", "saber", etc. . . una deidad atemporal podría poseer la
máxima comprensión, conciencia y conocimiento en una sola visión que lo abarca todo de sí
mismo y la suma de la realidad (Yates 1990: 173).

De manera similar, Dios podría poseer una intención libre e inmutable de la voluntad de crear
un universo con un comienzo temporal. Por tanto, ni la autoconciencia ni la libre voluntad
implican temporalidad. Pero dado que estos son plausiblemente suficientes para la personalidad,
no hay incoherencia en la noción de un Creador personal eterno del universo.
Más recientemente, Smith ha argumentado que “la tesis de que el universo tiene una causa
divina originaria es lógicamente inconsistente con todas las definiciones existentes de causalidad
y con un requisito lógico sobre estas y todas las posibles definiciones o teorías de causalidad
válidas (Smith 1996: 169-70). Smith muestra que los análisis típicos de la relación causal en
términos de prioridad temporal, contigüidad espacio-temporal y relación nomológica son
inaplicables al evento de la voluntad de Dios de que ocurra el Big Bang y al evento del Big Bang.
Por lo tanto, estos dos eventos no pueden, según los análisis habituales, considerarse causa y
efecto. Análisis contrafactuales de la causalidad, como el de David Lewis, según el cual c causa e
si (i) c y e son eventos que ocurren y (ii) si c no hubiera ocurrido, e no habría ocurrido, no les va
mejor en opinión de Smith. Porque si c es la voluntad de Dios ye es el Big Bang, es cierto que si e
no hubiera ocurrido, entonces c no habría ocurrido. Pero esto implica que el Big Bang es la causa
de la voluntad de Dios, lo cual es falso. Lewis evita el problema de la dependencia causal inversa
espuria al estipular que si e no hubiera ocurrido, entonces c habría ocurrido pero no causó e.
Pero como Dios es omnipotente y su voluntad necesariamente efectiva, tal estipulación no puede
hacerse en el presente caso. Por lo tanto, bajo ningún análisis existente de causalidad se puede
decir que Dios causó el Big Bang. Lewis evita el problema de la dependencia causal inversa
espuria al estipular que si e no hubiera ocurrido, entonces c habría ocurrido pero no causó e.
Pero como Dios es omnipotente y su voluntad necesariamente efectiva, tal estipulación no puede
hacerse en el presente caso. Por lo tanto, bajo ningún análisis existente de causalidad se puede
decir que Dios causó el Big Bang. Lewis evita el problema de la dependencia causal inversa
espuria al estipular que si e no hubiera ocurrido, entonces c habría ocurrido pero no causó e.
Pero como Dios es omnipotente y su voluntad necesariamente efectiva, tal estipulación no puede
hacerse en el presente caso. Por lo tanto, bajo ningún análisis existente de causalidad se puede
decir que Dios causó el Big Bang.
El argumento de Smith se puede formular de la siguiente manera:

4. Si la afirmación de que Dios causó el Big Bang no puede analizarse en términos de las
definiciones existentes de causalidad, entonces Dios no puede haber causado el Big Bang.
5. La afirmación de que Dios causó el Big Bang no puede analizarse en términos de las
definiciones existentes de causalidad.
6. Por lo tanto, Dios no puede haber causado el Big Bang.

¿Es este argumento sólido y convincente? Yo creo que no.


Considere la premisa (4). No veo ninguna razón para pensar que esta premisa sea cierta. En
general, los argumentos en el sentido de que alguna noción intuitivamente inteligible no puede
analizarse en términos de las teorías filosóficas actuales deberían hacernos sospechar la
adecuación de esas teorías en lugar de rechazar la noción de sentido común. La idea de que Dios
causó el universo es intuitivamente inteligible. Una causa es, en términos generales, algo que
produce algo más y en términos de lo cual se puede explicar lo que se produce. Esa noción
ciertamente se aplica a la causa de Dios en el universo. De hecho, el hecho de que Dios cause
ciertos efectos es análogo a nuestra actuación como agentes para producir ciertos efectos.
Ciertamente nos concebimos a nosotros mismos como causas e, intuitivamente, Dios debería
contar también como una causa. Pero el argumento de Smith, si tiene éxito, podría generalizarse
para probar que Dios no es causa de nada en absoluto. Si la actuación de Dios como causa no
puede analizarse en términos de las definiciones filosóficas actuales de causalidad, ¡tanto peor
para esas definiciones! Eso solo muestra que las definiciones deben revisarse. De hecho, el
procedimiento estándar en términos del cual se evalúan las definiciones de causalidad
propuestas es postular contraejemplos de casos de causalidad intuitivamente obvios y luego
mostrar cómo la definición no se adapta a estos ejemplos. De la misma manera, si el hecho de
que Dios sea una causa no puede ser acomodado por alguna definición filosófica de causalidad,
entonces eso constituye plausiblemente un contraejemplo de la definición que muestra su
insuficiencia como análisis metafísico general de la relación causal, por muy adecuada que sea.
con fines científicos.23
Además, no hay razón para creer que hayamos llegado al análisis final y correcto de la
causalidad. De hecho, hay buenas razones para creer lo contrario. Las definiciones discutidas por
Smith se refieren exclusivamente a causas naturales, incluso físicas. No estaban destinados a
cubrir casos tan recónditos como la causalidad divina del origen del universo. No es de extrañar,
por tanto, que estos análisis no logren captar esta noción. Smith simplemente ignora los análisis
de causalidad que actualmente no están de moda pero que fueron elaborados en el contexto de
una metafísica teísta y están en consonancia con que Dios es la causa del origen del universo, por
ejemplo, el relato de la causalidad y la creación eficiente dado por Francisco. Suárez en su
monumental Disputationes metaphysicae (Suarez 2002).
Finalmente, Smith simplemente asume que se puede dar un análisis de la relación causal. Pero
podría sostenerse que tal relación es conceptualmente primitiva, en cuyo caso no deberíamos
esperar que exista un análisis reductivo exitoso que cubra todos los casos. La plétora de análisis
existentes en competencia y las deficiencias reconocidas de todos ellos dan credibilidad a este
punto de vista.
¿Qué pasa con la premisa (5)? Me parece que hay análisis de causalidad, por inadecuados que
sean, que pueden acomodar la causa de Dios al Big Bang. Considere el análisis de causalidad de
Lewis. Según Lewis, c causa e si y solo si c y e son eventos que ocurren y si c no hubiera ocurrido,
e no habría ocurrido. Ahora bien, la voluntad de Dios, el Big Bang claramente satisface esta
definición: la voluntad de Dios y el Big Bang son eventos que ocurren, y si la voluntad de Dios no
hubiera ocurrido, el Big Bang no habría ocurrido. Pero Smith repite: “Pero si el Big Bang no
hubiera ocurrido, la voluntad de Dios no habría ocurrido. Entonces, ¿es el Big Bang la causa de la
voluntad de Dios? Obviamente no; pero lo que esto pone en duda es la idoneidad del análisis de
Lewis, no si la causalidad divina lo satisface. Lewis soluciona el problema estipulando que si e no
hubiera ocurrido, c aún habría ocurrido pero no pudo causar e, un remedio que no funcionará
para la causalidad divina. En realidad, el remedio de Lewis tampoco funcionará para muchas
causas naturales, ya que en algunos casos el contrafactual, "Si e no hubiera ocurrido, c no habría
ocurrido" es cierto. De modo que lo que da la definición de Lewis no es un análisis de "c causas
e" sino más bien un análisis de "c y e están relacionados causalmente", y no especifica la dirección
de la causalidad. Pero el teísta no enfrenta ningún problema allí: porque, como hemos dicho, es
metafísicamente imposible que Dios quiera tener una causa externa. No hay mundo posible en
el que el Big Bang provoque la voluntad de Dios. Por lo tanto, Dado el análisis de Lewis de "cye
están causalmente relacionados" y la imposibilidad de que el Big Bang provoque la voluntad de
Dios, se deduce que la voluntad de Dios causa el Big Bang. Por tanto, la causalidad divina satisface
la definición de causalidad de Lewis.

Una vez más, hay análisis de la causalidad del agente que son incluso más relevantes en el caso
de la causalidad divina que los análisis examinados por Smith. Smith considera exclusivamente
la causalidad del evento, pero se puede discutir si esta es la concepción correcta para aplicar al
caso de Dios. Smith sostiene que las consideraciones de la causalidad del agente no están
relacionadas con la discusión porque no nos interesa la relación entre Dios (el agente) y Su acto
de querer (el efecto), sino la relación entre Su acto de querer (un evento) y el Big Bang (un
evento). Pero no todos los defensores de la causalidad del agente interpretan la causalidad del
agente como una relación entre un agente y sus voliciones. Algunos defensores de la causalidad
del agente sostienen que un agente no causa sus voliciones, pero que al querer libremente
provoca algún evento intencionado (Lowe 2002: 205-10). En el caso que nos ocupa, Dios provoca
el Big Bang mediante el ejercicio de su poder activo. La expresión "la voluntad de Dios de que
ocurra el Big Bang" describe correctamente una acción, no un evento. El evento en este caso es
el Big Bang, y la causa de ese evento es Dios, quien, al querer, provocó el Big Bang. Por lo tanto,
es simplemente un error pensar que el Big Bang fue causado por el evento de la voluntad de Dios
y no por Dios mismo.24
Por lo tanto, ni (4) ni (5) se nos recomiendan como más plausiblemente verdaderos que sus
contradictorios. Smith reconoce estas deficiencias de su argumento, pero retrocede a lo que
considera una posición inexpugnable: "c es una causa de e" implica que "c no es una condición
lógicamente suficiente de e" (Smith 1996: 176). Esta vinculación impide que Dios sea la causa
del Big Bang porque la voluntad de Dios de que ocurra el Big Bang es una condición lógicamente
suficiente del Big Bang. Esto se debe a que Dios es omnipotente y, por tanto, necesariamente Su
voluntad tiene éxito. No hay mundo posible en el que Dios quiera el Big Bang y, sin embargo, el
Big Bang no se produzca. Por tanto, Dios no puede ser la causa del Big Bang.
Este argumento parece bastante fantasioso. Si tiene éxito, se puede generalizar para mostrar
que Dios no puede causar nada. Por lo tanto, precisamente porque es omnipotente, Dios es
completamente impotente, ¡una inferencia curiosa! Si ser omnipotente implica la incapacidad de
causar algo, entonces estamos usando 'causa' en un sentido altamente técnico que no es
incompatible con el hecho de que Dios provocó el Big Bang, que es, después de todo, el problema.
Si Dios 'causa' o no el Big Bang, todavía depende de Él si ocurre o no, y ocurre solo en virtud de
Su voluntad de que ocurra. Si parece que provocar el Big Bang implica una relación causal,
entonces simplemente rechazaremos el principio de implicación de Smith. Solo alguien que ya
sea naturalista se sentiría tentado a pensar que ese principio es cierto. Por lo tanto,
Smith considera tal respuesta e insiste en que es el teísta quien plantea la pregunta, ya que en
todos los demás casos de causalidad, las causas no son condiciones lógicamente suficientes de
sus efectos. No hay, dice, justificación para eximir a los supuestos actos causales de Dios de este
principio. Necesitamos tener alguna razón independiente para pensar que la relación entre Dios
y el Big Bang es una relación causal. Se pueden decir tres cosas sobre esta respuesta: (i) Dado
que solo Dios es omnipotente, no es de extrañar que Su caso sea la única excepción al principio
de que las causas no son lógicamente suficientes para sus efectos. Dios es un ser tan excepcional
que, en general, no encajará en nuestros esquemas habituales. Por ejemplo, es un principio
general que 'S cree que p' no es una condición lógicamente suficiente de 'p. Pero dado que Dios
es esencialmente omnisciente, en el caso de Dios, su creencia p es una condición lógicamente
suficiente de p. Por tanto, ¿deberíamos concluir que Dios no tiene creencias? De la misma
manera, debido a que Dios es omnipotente, ¿debemos pensar que Su voluntad no tiene ningún
efecto? (ii) Hay otros contraejemplos plausibles del principio de Smith. Por ejemplo, el cambio
es plausiblemente una causa de la existencia del tiempo, al menos desde una perspectiva
relacional del tiempo. La ocurrencia de eventos realmente da existencia al tiempo. Si hubiera un
estado absolutamente inactivo, entonces el tiempo no existiría. Pero si se produce un cambio, el
tiempo se produce de inmediato. Tal relación es plausiblemente causal; Ciertamente no es como
la relación puramente lógica entre, digamos, que una figura bidimensional tenga tres lados y
tenga tres ángulos. El tiempo es algo completamente distinto al cambio, dado que el tiempo
puede pasar, incluso la mayoría de los relacionalistas están de acuerdo, aunque el cambio debería
cesar (Shoemaker 1969). Por lo tanto, el cambio, si ocurriera, parecería hacer que exista el
tiempo. Sin embargo, el cambio necesariamente causa tiempo: no hay mundo posible en el que
el cambio se lleve a cabo sin tiempo. Por tanto, el cambio es lógicamente suficiente para la
existencia del tiempo, pero también es plausiblemente una causa de la existencia del tiempo. (iii)
La razón por la que la relación entre Dios y el Big Bang —o cualquier otro evento que Él
provoque— es causal es la estrecha semejanza entre Dios y nosotros como agentes. Sin duda,
nuestras intuiciones más profundas sobre la causalidad tienen sus raíces en nuestra propia
capacidad para producir efectos mediante un ejercicio intencional de nuestro poder. Pero Dios
es un agente personal como nosotros. La diferencia entre Él y nosotros es que Su poder es tan
grande que Él es infalible para llevar a cabo Sus empresas. ¿Se debe dudar ahora de su condición
de causa porque es infalible? ¡Difícilmente! En resumen, no creo que la objeción de Smith
suponga un obstáculo serio para pensar que el Big Bang tiene una causa sobrenatural o divina.
Todas las objeciones anteriores se han considerado como un intento de justificación de la
posición aparentemente increíble de que el universo surgió sin causa de la nada. Pero yo, por mi
parte, encuentro las premisas de esas objeciones mucho menos perspicuas que la proposición de
que todo lo que comienza a existir tiene una causa. Es mucho más plausible negar una de esas
premisas que afirmar lo que Hume llamó la `` proposición absurda '' de que algo podría surgir
sin una causa,25 que el universo, en este caso, debería surgir sin ser causado de la nada.

Conclusión
Podemos resumir nuestro argumento de la siguiente manera:

7. Todo lo que comienza a existir tiene una causa de su existencia.


8. El universo comenzó a existir.
9. Por lo tanto, el universo tiene una causa de su existencia.

La premisa (7) es un primer principio metafísico captado intuitivamente. La premisa (8) está
respaldada por la evidencia inductiva de la cosmología contemporánea y goza de mayor
plausibilidad a la luz de esa evidencia que contradictoria. Un análisis de lo que es ser causa del
universo revela que

10. Si el universo tiene una causa de su existencia, entonces existe un Creador personal y sin
causa del universo, que sin el universo no tiene comienzo, es inmutable, inmaterial,
intemporal, sin espacio y enormemente poderoso.

De (9) y (10), se sigue que

11. Por lo tanto, existe un Creador del universo personal y sin causa, quien sin el universo no
tiene comienzo, es inmutable, inmaterial, atemporal, sin espacio y enormemente
poderoso.

Y esto, como señaló lacónicamente Tomás de Aquino, es lo que todos quieren decir con "Dios". 26

Notas
1 Para una útil introducción a estas dos perspectivas en competencia, ver Gale (1968a): 65–85.
2 Véase la discusión en Craig (1990): 150–6.
3Este es el punto sobresaliente de la crítica de Grünbaum a la inferencia a una Primera Causa del origen del universo
(Grünbaum: 2000). Como teórico B, Grünbaum no cree que el universo haya llegado a existir, incluso si tuvo un primer
intervalo temporal. Como escribe en otra parte, 'llegar a existir (o' devenir ') no es una propiedad de los eventos físicos en sí
mismos, sino solo de la conciencia humana o consciente de estos eventos' (Grünbaum 1967: 153). Lo que Grünbaum no ve,
sin embargo, es que la afirmación de que un comienzo absoluto del universo implica que el universo llegó a existir tiene sus
raíces, no en la presuposición de la llamada espontaneidad de la nada, sino en una teoría A del tiempo. .
4 Véanse los volúmenes complementarios The Tensed Theory of Time: a Critical Examination, Synthese Library (Dordrecht:
Kluwer Academic Publishers, (2000a); The Tenseless Theory of Time: a Critical Examination, Synthese Library (Dordrecht:
Kluwer Academic Publishers, 2000b).
5Para una destacada defensa de este punto, véase Smith (1991). Véase también Craig (1996a), Craig (1996b) y Craig (2000c).
6Uno de los portavoces más elocuentes de este punto de vista ha sido Schlesinger (1980), 34-9, 138-9. Véase también Craig
(1999a); Craig (1999b); y Craig (2001).
7Los más útiles aquí siguen siendo Broad (1938) y Dummett (1960): 497–504. Véase también Craig (1998a): 122–7.
8Este punto necesita más trabajo, pero ver Prior (1968): 1-14, y Loizou (1986): 44-5. Véase también Craig (2003); Craig
(2000d).
9Véase Smith (1991) cap. 7. Ver también Craig (2002).
10 Véanse las observaciones de Black (1962).
11 Para bosquejos de este argumento, ver Gale (1968b): 90-7 y Mellor (1981): 140. Para un desarrollo más completo, ver Craig
(de próxima publicación).
12 Nuevamente, este punto debe desarrollarse mejor, pero véanse Geach (1972): 306 y McGilvray, (1979): 275–99.
13Ver el excelente estudio de Merricks (1994); ver más Hinchliff, (1994); Lewis (1986); van Inwagen (1990).
14Véanse las muy interesantes discusiones recientes sobre la garantía del naturalismo metodológico en la ciencia, por ejemplo,
de Vries (1986); Plantinga, Van Till, Pun y McMullin, (1991); Hasker (1992); Plantinga (1992); Plantinga (1993); Moreland
(1994); Moreland, Meyer y Bube (1994).
15Smith (1993a): 135. En otra parte ha escrito, '[Este mundo] existe de manera no necesariamente, improbable y sin causa.
Existe sin ninguna razón. . . El impacto de esta comprensión cautivada sobre mí es abrumador. Estoy completamente
aturdido. Doy unos pasos aturdido en el prado oscuro y caigo entre las flores. Me quedo estupefacto, dando vueltas sin
comprensión en este mundo a través de innumerables mundos distintos de este ”(Smith 1986: 300-1). En Theism, Atheism,
and Big Bang Cosmology, Smith afirmó que el universo nació sin causa de la nada en la época de Planck; ¡pero desde entonces
se ha retractado de esa posición al darse cuenta de que los cosmólogos cuánticos están estudiando una ficción completa!
dieciséis John Leslie asks incredulously, ‘How could such nonsense have been churned out by the author of Physical Chemistry,
a superb textbook?’ (Leslie 1993: 3). For a good critique of Atkins, see Ward (1996),chap. 1.
17 Véase Weingard, (1982): 235–42.
18Grünbaum (1989). Para obtener una respuesta, consulte Craig (1992).
19Grünbaum (1991). Para obtener una respuesta, consulte Craig (1994a).
20Brian Leftow lo expresa muy bien cuando escribe: 'Si Dios existiera en el tiempo una vez que existió el tiempo y el tiempo
tuvo un primer momento, entonces Dios tendría un primer momento de existencia: habría un momento antes del cual Él no
existió, porque no existía no había 'antes' de ese momento. . . Sin embargo, incluso si Él. . . Si hubiera tenido un primer
momento de existencia, todavía se podría llamar ilimitada la existencia de Dios si se entendiera que Él habría existido incluso
si el tiempo no existiera. Mientras esto sea cierto, no podemos inferir de Dios, habiendo tenido un primer momento de
existencia, que Dios llegó a existir o no habría existido si no hubiera existido el tiempo ”(Leftow 1991: 269; cf. 201). Senor
ha denominado a tal modelo de eternidad divina "temporalismo accidental" (Senor 1993: 88). Véase además Craig (1996c).
21Grünbaum (1994). Para obtener una respuesta, consulte Craig (1994b).
22 Ver discusión y referencias en Craig (1998b).
23En Smith (1993b), Smith llega a esta conclusión él mismo. Afirma que 'las definiciones existentes de causalidad son
incorrectas, ya que no son coherentes con el concepto de causa del universo. . . Esto implica que o existe alguna otra definición
(aún no descubierta) de una causa que es correcta o que una causa es indefinible. En el último caso, el concepto de causa
sería primitivo y la relación causal sería una relación simple conocida sólo por ostensión (como podría decirse que es el caso
de relaciones tales como estar en contacto con o ser anteriores a). No conozco ningún medio de descubrir o formular una
definición correcta de una causa y no conozco ninguna razón para pensar que existe tal definición. En consecuencia, creo que
es razonable concluir que la relación causal es indefinible. Una forma de evitar esta conclusión sería rechazar el supuesto de
que los diversos ejemplos de causas del Big Bang. . . son auténticos ejemplos de causas. . . Yo diría que afirma que la creación
de Dios de la singularidad del Big Bang y otros ejemplos dados. . . son casos de posible causalidad son contraintuitivos y son
intentos ad hoc de retener una teoría contraejemplo. Es más plausible pensar que no se puede definir una causa que pensar
que la creación de una singularidad del Big Bang por la mente no podría ser un acto causal ”(Smith 1993b: 1, 24). Smith llegó
a pensar que la relación de Dios con el Big Bang no es causal porque ninguna causa es lógicamente suficiente para su efecto.
Pero Smith no justifica por qué las acciones de un ser omnipotente no serían excepciones a esta regla. . son auténticos
ejemplos de causas. . . Yo diría que afirma que la creación de Dios de la singularidad del Big Bang y otros ejemplos dados. . .
son casos de posible causalidad son contraintuitivos y son intentos ad hoc de retener una teoría contraejemplo. Es más
plausible pensar que no se puede definir una causa que pensar que la creación de una singularidad del Big Bang por la mente
no podría ser un acto causal ”(Smith 1993b: 1, 24). Smith llegó a pensar que la relación de Dios con el Big Bang no es causal
porque ninguna causa es lógicamente suficiente para su efecto. Pero Smith no justifica por qué las acciones de un ser
omnipotente no serían excepciones a esta regla. . son auténticos ejemplos de causas. . . Yo diría que afirma que la creación de
Dios de la singularidad del Big Bang y otros ejemplos dados. . . son casos de posible causalidad son contraintuitivos y son
intentos ad hoc de retener una teoría contraejemplo. Es más plausible pensar que no se puede definir una causa que pensar
que la creación de una singularidad del Big Bang por la mente no podría ser un acto causal ”(Smith 1993b: 1, 24). Smith llegó
a pensar que la relación de Dios con el Big Bang no es causal porque ninguna causa es lógicamente suficiente para su efecto.
Pero Smith no justifica por qué las acciones de un ser omnipotente no serían excepciones a esta regla. son casos de posible
causalidad son contraintuitivos y son intentos ad hoc de retener una teoría contraejemplo. Es más plausible pensar que no
se puede definir una causa que pensar que la creación por la mente de una singularidad del Big Bang no podría ser un acto
causal ”(Smith 1993b: 1, 24). Smith llegó a pensar que la relación de Dios con el Big Bang no es causal porque ninguna causa
es lógicamente suficiente para su efecto. Pero Smith no justifica por qué las acciones de un ser omnipotente no serían
excepciones a esta regla. son casos de posible causalidad son contraintuitivos y son intentos ad hoc de retener una teoría
contraejemplo. Es más plausible pensar que no se puede definir una causa que pensar que la creación de una singularidad
del Big Bang por la mente no podría ser un acto causal ”(Smith 1993b: 1, 24). Smith llegó a pensar que la relación de Dios
con el Big Bang no es causal porque ninguna causa es lógicamente suficiente para su efecto. Pero Smith no justifica por qué
las acciones de un ser omnipotente no serían excepciones a esta regla. Smith llegó a pensar que la relación de Dios con el Big
Bang no es causal porque ninguna causa es lógicamente suficiente para su efecto. Pero Smith no justifica por qué las acciones
de un ser omnipotente no serían excepciones a esta regla. Smith llegó a pensar que la relación de Dios con el Big Bang no es
causal porque ninguna causa es lógicamente suficiente para su efecto. Pero Smith no justifica por qué las acciones de un ser
omnipotente no serían excepciones a esta regla.
24Véase Moreland (1998). Estoy en deuda con mi colega por varias discusiones interesantes relacionadas con la agencia y la
creación.
25 David Hume a John Stewart, febrero de 1754, en Greig (1932), 1: 187.
26 Tomás de Aquino Summa theologiae 1a.2.3.

Bibliografía
Atkins, PW (1992) Creación revisitada, Nueva York: WH Freeman.
Black, M. (1962) Revisión de La filosofía natural del tiempo, Scientific American 206, 181-183.
Bludman, SA (1984) 'Termodinámica y el fin de un universo cerrado', Nature 308, 319-22.
Borde, A. y Vilenkin, A. (1994) 'Eternal Inflation and the Initial Singularity', Physical Review Letters 72, 3305–3308
Broad, CD (1938) Un examen de la filosofía de McTaggart, 2 vols., Cambridge: Cambridge University Press.
Bunge, M. (1985) Tratado de Filosofía Básica, vol. 7: Epistemología y Metodología III: Filosofía de la Ciencia y la Tecnología: Parte I:
Ciencias Formales y Físicas, Dordrecht: D. Reidel.
Craig, WL (1990) Presciencia divina y libertad humana: La coherencia del teísmo I: Omnisciencia, Estudios de historia intelectual
19, Leiden: EJ Brill.
Craig, WL (1992) 'El origen y la creación del universo: una respuesta a Adolf Grünbaum', Revista británica de filosofía de la
ciencia 43: 2, 233–40.
Craig, WL (1994a) «Prof. Grünbaum sobre la creación », Erkenntnis 40: 3, 325–41.
Craig, WL (1994b) 'Una respuesta a Grünbaum sobre la creación y la cosmología del Big Bang', Philosophia naturalis 31, 237–49.
Craig, WL (1996a) 'Tense and the New B-Theory of Language', Philosophy 71, 5-26.
Craig, WL (1996b) 'El argumento de Tu Quoque de la nueva teoría B', Synthese 107, 249–69.
Craig, WL (1996c) "Atemporalidad y creación", Australasian Journal of Philosophy 74: 4, 646–56.
Craig, WL (1997) 'Cosmología y ateísmo de Hartle-Hawking', Análisis 57: 4, 291–95.
Craig, WL (1998a) 'La paradoja de McTaggart y el problema de los intrínsecos temporales', Análisis 58, 122-27
Craig, WL (1998b) 'Divine Timelessness and Personhood', Revista Internacional de Filosofía de la Religión 43: 2, 109-24.
Craig, WL (1999a) 'El tiempo tenso y nuestra experiencia diferencial del pasado y el futuro', Southern Journal of Philosophy 37,
515–37.
Craig, WL (1999b) "La actualidad de la experiencia", en M. Wegener (ed.) Tiempo, creación y orden mundial, Aarhus, Dinamarca:
University of Aarhus Press, 107-120.
Craig, WL (2000a) The Tensed Theory of Time: a Critical Examination, Synthese Library, Dordrecht: Kluwer Academic
Publishers.
Craig, WL (2000b) The Tenseless Theory of Time: a Critical Examination, Synthese Library, Dordrecht: Kluwer Academic
Publishers.
Craig, WL (2000c) 'Sobre las condiciones de verdad de los tipos de oraciones tensas', Synthese 120, 265-270.
Craig, WL (2000d) 'La extensión del presente', Estudios internacionales en la filosofía de la ciencia, 14, 165–86.
Craig, WL (2001) "Sobre desear que fuera ahora en otro momento", Filosofía e investigación fenomenológica 62, 159–66.
Craig, WL (2002) 'La eternidad divina y la teoría especial de la relatividad', en G. Ganssle y D. Woodruff (eds.) God and Time,
Nueva York: Oxford University Press, 129–52.
Craig, WL (2003) 'In Defense of Presentism', en eds., Aleksander Jokic y Quentin Smith, Time, Tense, and Reference, Cambridge,
Mass .: MIT Press, 390–408.
Craig, WL (de próxima publicación) 'Tooley on Tense and Temporal Priority', Analysis.
Davies, PCW (1978) 'Spacetime Singularities in Cosmology and Black Hole Evaporation', en The Study of Time III: Proceedings of
the Third Conference of the International Society for the Study of Time Alpbach - Austria, ed. JT Fraser, Nathaniel Morris
Lawrence; David Allen Park Nueva York: Springer-Verlag, Berlín, 74–91.
Davies, PCW (1995) 'El nacimiento del cosmos', en Jill Gready (ed.) Dios, cosmos, naturaleza y creatividad: las conferencias
Templeton, Universidad de Sydney 1991-1994, Edimburgo: Scottish Academic Press, 1-27.
DeWitt, BS (1983) 'Quantum Gravity', Scientific American 249, 6, diciembre, 104-115.
Dummett, M. (1960) "Una defensa de la prueba de la irrealidad del tiempo de McTaggart", Philosophical Review 69, 497-504.
Eddington, A. (1933), The Expanding Universe, Nueva York: Macmillan.
Einstein, A. (1952) 'Cosmological Considerations on the General Theory of Relativity', en A. Einstein et al. El principio de
relatividad, Nueva York: Publicaciones de Dover, 177–88.
Friedmann, A. (1922), «Über die Krümmung des Raumes», Zeitschrift für Physik 10, 377–86.
Gale, RM (1968a) 'The Static versus the Dynamic Temporal: Introduction', en RM Gale (ed.) The Philosophy of Time: A Collection
of Essays, Nueva Jersey: Humanities Press, 65–85.
Gale, RM (1968b) El lenguaje del tiempo, Biblioteca Internacional de Filosofía y Método Científico, Londres: Routledge y Kegan
Paul.
Gasperini, M. (1999) "Mirando hacia atrás en el tiempo más allá del Big Bang", Modern Physics Letters A 14:16, 1059-1066.
Gasperini, M. (2000) 'Inflación y condiciones iniciales en el escenario anterior al Big Bang' Physics Review D 61, 87301–87305.
Geach, P. (1972), 'Algunos problemas sobre el tiempo' en Logic Matters, Berkeley: University of California Press, 302-18.
Gott, JR III (1982) 'Creación de universos abiertos desde el espacio de Sitter', Nature 295, 304-307.
Gott, JR III y Li-Xin Li (1998) '¿Puede el universo crearse a sí mismo?' Revisión física D 58 (2), 23501–23544
Gott, JR III, Gunn, JE, Schramm, DN, Tinsley, BM (1976) 'Will the Universe Expand Forever?' Scientific American 234 (marzo), 62–
79.
Greig, JYT (ed.) (1932) Las cartas de David Hume, 2 vols., Oxford: Clarendon Press.
Gribbin, J. (1976) 'El universo oscilante rebota', Nature 259, 15-16.
Gribbin, J. (1986), En busca del Big Bang, Nueva York: Bantam Books.
Grünbaum, A. (1967) 'La anisotropía del tiempo', en T. Gold (ed.) La naturaleza del tiempo, Ithaca, NY: Cornell University Press,
149–86.
Grünbaum, A. (1989) 'El pseudo-problema de la creación en cosmología física', Filosofía de la ciencia 56, 373-94.
Grünbaum, A. (1991) 'La creación como una pseudoexplicación en la cosmología física actual', Erkenntnis 35, 233–54.
Grünbaum, A. (1994) 'Algunos comentarios sobre la “Creación y cosmología del Big Bang” de William Craig', Philosophia
naturalis 31: 2, 225–36.
Grünbaum, A. (2000) 'Una nueva crítica de las interpretaciones teológicas de la cosmología física', Revista británica de filosofía
de la ciencia, 51: 1, 1-43.
Guth, A. (1981) 'Universo inflacionario: una posible solución a los problemas del horizonte y la planitud' Revisión física D 23,
247–56.
Guth, A. y Sher, M. (1983) "La imposibilidad de un universo que rebota", Nature 302, 505–06.
Hartle, J. y Hawking, S. (1983) 'Función de onda del universo', Physical Review D 28, 2960–75.
Hasker, W. (1992) 'Evolución y Alvin Plantinga', Perspectivas sobre la ciencia y la fe cristiana 44, 150–62.
Hawking, SW (1988) Una breve historia del tiempo, Nueva York: Bantam Books.
Hawking, SW y Penrose, R. (1973) "Singularidades del espacio-tiempo", en SW Hacking y GFR Ellis (eds.) La estructura a gran
escala del espacio-tiempo, Cambridge: Cambridge University Press, 256–98.
Hawking, SW y Penrose, R. (1996) La naturaleza del espacio y el tiempo, Serie de conferencias del Instituto Isaac Newton,
Princeton: Princeton University Press.
Hick, J. (1960) 'Dios como ser necesario', Journal of Philosophy, 57: 22/23, 725–734.
Hochberg, D., Molina-Paris, C. y Visser, M. (1999) 'Los agujeros de gusano de Tolman violan la condición de energía fuerte',
Physical Review D 59, 44011–44019.
Hoyle, F. (1948) "Un nuevo modelo para el universo en expansión", Avisos mensuales de la Royal Astronomical Society 108, 372–
82.
Hoyle, F. (1975a) Astronomy Today, Londres: Heinemann.
Hoyle, F. (1975b) Astronomía y cosmología: un curso moderno, San Francisco: WH Freeman.
Hubble, E. (1929), 'Una relación entre la distancia y la velocidad radial entre nebulosas extragalácticas', Actas de la Academia
Nacional de Ciencias 15, 168–73.
Hume, D. (1947) Diálogos sobre la religión natural, ed. con una introducción de N. Kemp Smith, Indianápolis: Bobbs-Merrill.
Isham, C. (1988) 'La creación del universo como un proceso cuántico' en RJ Russell, WR Stoeger y GV Coyne (eds.) Física, filosofía
y teología: una búsqueda común de comprensión, Ciudad del Vaticano: Observatorio del Vaticano, 375– 408
Isham, C. (1990) 'Espacio, tiempo y cosmología cuántica' presentado en la conferencia 'Dios, tiempo y física moderna', marzo.
Isham, C. (1994) 'Quantum Cosmology and the Origin of the Universe', conferencia presentada en la conferencia 'Cosmos and
Creation', Universidad de Cambridge, 14 de julio.
Jaki, SL (1974) Ciencia y creación, Edimburgo: Scottish Academic Press.
Kanitscheider, B. (1990) '¿La cosmología física trasciende los límites del razonamiento naturalista?' en P. Weingartner y GJW
Doen (eds.) Estudios sobre el "Tratado" de Mario Bunge, Amsterdam: Rodopi, 337-50.
Lamaitre, G. (1927), «Un univers homogène de masse constante et de rayon croissant, rendant compte de la vitesse radiale des
nébuleuses extragalactiques», Annales de la Société scientifique de Bruxelles 47, 49–59.
Leftow, B. (1991) Time and Eternity, Cornell Studies in Philosophy of Religion, Ithaca, NY: Cornell University Press.
Leibniz, GW (1951), La monadología y otros escritos filosóficos, trad. Robert Latta, Londres: Oxford University Press.
Leslie, J. (1993) 'Is It All Quite Simple?', Times Literary Supplement, 29 de enero, 3-4.
Lewis, D. (1986) "Personas, moralidad y ausencia de tensión", Filosofía e investigación fenomenológica 47, 305–9.
Lifschitz, EM y Khalatnikov IM (1963) 'Investigaciones en cosmología relativista', Advances in Physics 12, 185–249.
Linde, AD (1983) 'Chaotic Inflation', Physics Letters 129, 177–81.
Linde, AD (1984) 'The Inflationary Universe', Reports on Progress in Physics 47, 925–86.
Linde, AD (2002) 'Cyclic Universe Runs into Criticism', Physics World, 8 de junio.
Linde, A., Linde, D. y Mezhlumian, A. (1994) "De la teoría del Big Bang a la teoría de un universo estacionario" Revisión física D
49, 1783-1826.
Loizou, A. (1986) La realidad del tiempo, Brookfield, Vt .: Gower.
Lowe, J. (2002) Una encuesta de metafísica, Oxford: Oxford University Press.
Malcolm, N. (1958) Ludwig Wittgenstein: A Memoir, Londres: Oxford University Press.
McGilvray, J. (1979) "Una defensa del devenir físico", Erkenntnis 14: 275–99.
Mellor, DH (1981) Tiempo real, Cambridge: Cambridge University Press.
Merricks, T. (1994) "Resistencia e indiscernibilidad", Journal of Philosophy 91, 165–84.
Hinchliff, M. (1994) 'The Puzzle of Change', documento presentado en la reunión de la División del Pacífico de la American
Philosophical Association, 2 de abril.
Moreland, JP (1994) 'Ciencia teísta y naturalismo metodológico', en JP Moreland (ed.) La hipótesis de la creación, Downer's
Grove, Ill .: Inter-Varsity Press, 41-66.
Moreland, JP (1998) 'La agencia libertaria y el debate Craig / Grünbaum sobre la explicación teísta de la singularidad inicial',
American Catholic Philosophical Quarterly 81, 539–54.
Moreland, JP, Meyer, SC y Bube, RH (1994) 'Problemas conceptuales y el estado científico de la ciencia de la creación: una
discusión', Perspectivas sobre la ciencia y la fe cristiana 46, 2–25.
Naber, GL (1988), Spacetime and Singularities: an Introduction, Cambridge: Cambridge University Press.
Novikov, ID y Zel'dovich, YB (1973) 'Procesos físicos cerca de singularidades cosmológicas', Revisión anual de astronomía y
astrofísica 11, 387–412.
Parfit, D. (1998) '¿Por qué algo? ¿Por qué esto?' London Review of Book, 20: 2, 24-27.
Penrose, R. (1965) "Colapso gravitacional y singularidades del espacio-tiempo", Physical Review Letters 14, 57–59.
Penrose, R. (1981) 'Time-Asymmetry and Quantum Gravity', en CG Isham, R. Penrose y DW Sciama (eds.) Quantum Gravity 2,
Oxford: Clarendon Press, 245-72.
Penrose, R. (1982) 'Algunas observaciones sobre la gravedad y la mecánica cuántica' en MJ Duff y CJ Isham (eds.) Estructura
cuántica del espacio y el tiempo, Cambridge: Cambridge University Press, 3–10.
Penrose, R. (1997) Lo grande, lo pequeño y lo humano, Cambridge: Cambridge University Press.
Plantinga, A. (1992) 'Sobre el rechazo de la teoría de la ascendencia común: una respuesta a Hasker', Perspectivas sobre la
ciencia y la fe cristiana 44, 258–63.
Plantinga, A. (1993) 'Methodological Naturalism', artículo presentado en el simposio 'Conociendo a Dios, Cristo y la naturaleza en
la era pospositivista', Universidad de Notre Dame, 14-17 de abril.
Plantinga, A., Van Till, HJ, Pun, P. y McMullin, E. (1991) 'Symposium: Evolution and the Bible', Christian Scholar's Review 21, 8–
109.
Post, J. (1991), Metafísica: una introducción contemporánea, Nueva York: Paragon House.
Antes, AN (1968) "Cambios en los eventos y cambios en las cosas", en Papers on Time and Tense, Oxford: Clarendon Press, 1-14.
Rees, M. (1997) Antes del comienzo, con un prólogo de S. Hawking, Reading, Mass .: Addison-Wesley.
Reeves, H., Audouze, J., Fowler, WA y Schramm, DN (1973) "Sobre el origen de los elementos de luz", Astrophysical Journal 179,
909-930.
Russell, B. y Copleston, FC (1964) "La existencia de Dios", en J. Hick (ed.) La existencia de Dios, Nueva York: Macmillan, 167-191.
Schlesinger, G. (1980) Aspectos del tiempo, Indianápolis: Hackett, 1980.
Señor, TD (1993) 'Divine Temporality and Creation ex nihilo', Faith and Philosophy 10, 86-92.
Shoemaker, S. (1969) 'Time without Change', Journal of Philosophy 66, 363-81.
Silk, J. (1989) The Big Bang, 2ª ed., San Francisco: WH Freeman.
Smith, Q. (1986) Los significados fieltro del mundo, Lafayette, Indiana: Purdue University Press.
Smith, Q. (1991) Language and Time, Nueva York: Oxford University Press.
Smith, Q. (1993a) 'The Uncaused Beginning of the Universe', en WL Craig y Q. Smith (eds.) Theism, Atheism, and Big Bang
Cosmology, Oxford: Clarendon Press, 108–40.
Smith, Q. (1993b) 'El concepto de una causa del universo', Canadian Journal of Philosophy 23, 1-24.
Smith, Q. (1996) 'La causalidad y la imposibilidad lógica de una causa divina', Temas filosóficos 24, 169–91.
Suárez, F. (2002) Sobre creación, conservación y concurrencia: “Disputas metafísicas 20, 21 y 22”, trad. con una introducción y
notas de AJ Freddoso, South Bend, Indiana: St. Augustine's Press.
Swinburne, R. (1991) La existencia de Dios, rev. ed. Oxford: Clarendon Press.
Tryon, E. (1973) "¿Es el universo una fluctuación del vacío?" Nature 246, 396–97
Van Inwagen, P. (1990) 'Four Dimensional Objects', Noûs 24, 245–55.
Vilenkin, A. (1982) 'Creación del universo a partir de la nada', Physical Letters B 117, 25-28.
Vilenkin, A. (1983) 'El nacimiento de los universos inflacionarios', Physical Review D 27, 2848–55.
Vries, P. de (1986) "Naturalismo en las ciencias naturales: una perspectiva cristiana", Christian Scholar's Review, 388-96.
Ward, K. (1996), Dios, azar y necesidad, Oxford: One World.
Weingard, R. (1982), 'Do Virtual Particles Exist?', En P. Asquith y T. Nichols (eds.) Proceedings of the Philosophy of Science
Association, 2 vols., East Lansing, Michigan: Philosophy of Science Association , 1, 235–42.
Wheeler, JA (1980) 'Más allá del agujero', en H. Woolf (ed.) Algo extraño en la proporción: un simposio del centenario para celebrar
los logros de Albert Einstein, Reading, Mass .: Addison-Wesley, 341–375.
Yates, JC (1990) La intemporalidad de Dios, Lanham, MD .: University Press of America.
Permisos

Gracias a los editores que se enumeran a continuación por su permiso para reimprimir material
previamente publicado para este volumen de la antología.
El permiso ha sido otorgado por John Wiley and Sons (http://www.wiley.com) para
reimprimir el siguiente material extraído:

William Lane Craig y James Sinclair, sección de “ciencia” extraída de “El argumento
cosmológico de Kalam”, en The Blackwell Companion to Natural Theology, 125–82, ed.
William Lane Craig y JP Moreland. Oxford: Blackwell, 2009.
Un agradecimiento especial al Dr. JR Gott y al Dr. Maurizio Gasperini por su permiso para
usar sus gráficos (Figura 1.3, Gott; 15 y 16, Gasperini) que se encuentran en el siguiente
ensayo: William Lane Craig y James Sinclair, sección "ciencia" extraída de "El argumento
cosmológico de Kalam", en The Blackwell Companion to Natural Theology, ed. William
Lane Craig y JP Moreland. Oxford: Blackwell, 2009. Gracias a James Sinclair por su
permiso para utilizar los otros gráficos y figuras de dominio no público en el resto de este
fragmento.

Oxford University Press ha concedido permiso para reimprimir el siguiente artículo:

JB Pitts "Por qué la singularidad del Big Bang no ayuda al argumento cosmológico de Kalam
a favor del teísmo". Revista Británica de Filosofía de la Ciencia 59, no. 4 (Octubre de
2008): 675–708.
Macmillan y Palgrave Macmillan han otorgado permiso para reimprimir el siguiente material:

William Lane Craig y James Sinclair, "Sobre los tiempos espaciales no singulares y el
comienzo del universo". Con James Sinclair. En Scientific Approaches to the Philosophy of
Religion, 95-142. Ed. Yujin Nagasawa. Fronteras de Palgrave en la filosofía de la religión.
Londres: Macmillan, 2012. Reproducido con permiso de Palgrave Macmillan.

Taylor & Francis, Ltd. ha concedido permiso para la reimpresión del artículo fragmentado
"Beyond the Big Bang". Este fragmento fue tomado del siguiente ensayo:

William Lane Craig. "Naturalismo y cosmología", en Filosofía analítica sin naturalismo, 97-
133, ed. A. Corradini, S. Galvan y EJ Lowe, Estudios de Routledge en Filosofía
Contemporánea. Nueva York: Routledge, 2006.
La misma figura de JR Gott mencionada anteriormente se incluye en el ensayo extraído de
William Lane Craig, "Más allá del Big Bang" (Figura 11.1). Esta pieza fue tomada de
“Naturalism and Cosmology”, en Analytic Philosophy without Naturalism, 97-133, eds. A.
Corradini, S. Galvan y EJ Lowe, Estudios de Routledge en Filosofía Contemporánea. Nueva
York: Routledge, 2006.

La Sociedad Estadounidense de Física ha otorgado permiso para publicar el siguiente artículo de


su revista, Reviews of Modern Physics:

Fred Adams y Gregory Laughlin, "Un universo moribundo: El destino a largo plazo y la
evolución de los objetos astrofísicos", Reseñas de la física moderna 69, no. 2 (Abril de
1997): 337–72.

Gracias a Fred Adams y Gregory Laughlin por permitirnos usar los gráficos de su artículo en esta
antología.

Gracias al editor de la revista Classical and Quantum Gravity, quien otorgó un permiso especial
para publicar el siguiente artículo:

Aron C. Wall, “La segunda ley generalizada implica un teorema de singularidad cuántica”,
arXiv: 1010.5513v3 [gr-qc] 12 de agosto de 2013. © IOP Publishing. Reproducido con
permiso. Reservados todos los derechos. Publicado el 12 de julio de 2013 • 2013 IOP
Publishing Ltd Classical and Quantum Gravity, Volumen 30, Número 16, 165003
El autor ha realizado correcciones posteriores a la versión publicada. Esta versión está
disponible en línea como arXiv: 1010.5513v5 y se está utilizando en esta antología.
Además, estamos agradecidos con Aron Wall, quien no solo otorgó permiso personal para
usar su artículo para esta antología, sino que proporcionó una versión revisada y
actualizada de su artículo para usar en la antología. (Blogs de pared sobre física y teología
en "Undivided Looking" -http://www.wall.org/~aron/blog/.)

Gracias al editor ejecutivo Steven Wheeler de la revista Inference: International Review of


Science (http://www.inference-review.com) para obtener permiso para incluir el siguiente
artículo, publicado originalmente en Inference:

Alexander Vilenkin, "El comienzo del universo". Inferencia: Revista Internacional de Ciencias
(2015).http://inference-review.com/article/the-beginning-of-the-universe.

Springer ha concedido permiso para reimprimir los siguientes artículos de Open Systems &
Information Dynamics:

Gábor Kutrovátz, “La muerte por calor en la termodinámica antigua y moderna”, Sistemas
abiertos y dinámica de la información 8, no. 4 (Diciembre de 2001): 349–59.
Doi:http://dx.doi.org/10.1023/A:1013901920999. Imprima ISSN 1230–1612. ISSN en
línea 1573–1324. Número de diario: 11080. Con permiso de Springer.
Un agradecimiento especial a Gábor Kutrovátz por el permiso para usar los gráficos de su
artículo antes mencionado.
Milan M. Cirkovic, “Entropía y escatología: un comentario sobre el artículo de Kutrovátz
'Muerte por calor en la termodinámica antigua y moderna',” Sistemas abiertos y dinámica
de la información 9, no. 3 (Septiembre de 2002): 291–99. Doi:http: //10.1023/A:
1019716815925. Imprima ISSN 1230–1612. ISSN en línea 1573–1324. Número de diario:
11080. Con permiso de Springer.

El permiso para reimprimir el siguiente artículo del American Catholic Philosophical Quarterly
ha sido otorgado por el Philosophy Documentation Center de Charlottesville, Virginia
(www.pdcnet.org):

JP Moreland, “La agencia libertaria y el debate Craig / Grünbaum sobre la explicación teísta
de la singularidad inicial”, American Catholic Philosophical Quarterly 71, no. 4 (Otoño de
1997): 539–54. DOI:http://dx.doi.org/10.5840/acpq199771419

The Permissions Company, Inc., ha otorgado permiso para reimprimir el siguiente ensayo:

Quentin Smith, “La causalidad y la imposibilidad lógica de una causa divina” de Temas
filosóficos 21, no. 1 (Primavera de 1996): 169–91. Copyright © 1996 por los
Fideicomisarios de la Universidad de Arkansas. Reimpreso con el permiso de The
Permissions Company, Inc., en nombre de University of Arkansas
Press,http://www.uapress.com.
Índice

ajuste fino acausal, problema de aquí, aquí


temporalismo accidental aquí aquí
poder activo aquí, aquí aquí
Adams, F. aquí
Adams, M. aquí
Escuela de hinduismo Advaita Vedanta aquí
causalidad agencia / agente aquí, aquí-aquí
Aguirre, A. aquí, aquí, aquí-aquí, aquí aquí
al-Ghāzālī aquí, aquí, aquí
Ambjorn, J. aquí, aquí
continuación analítica aquí
Anaxágoras aquí
Anaximandros (es decir, Anaximandro) aquí, aquí aquí
Anselmo aquí
anti-de Sitter
causalidad en aquí
y el espacio de Sitter aquí
Aquino, T. aquí-aquí, aquí, aquí, aquí, aquí
Aristóteles aquí, aquí, aquí
física de aquí-aquí
Aronson, J. aquí
Aronszajn, M. aquí aquí
flecha del tiempo (AOT) aquí
Ashtekar, A. aquí, aquí
universo asintóticamente estático aquí-aquí, aquí-aquí
rama gigante asintótica (AGB) aquí, aquí
trivialidad pasada asintótica (APT) aquí, aquí, aquí
Una teoría aquí-aquí, aquí, aquí aquí
argumentos a favor y en contra aquí
Atkins, PW aquí

universo bebé aquí-aquí, aquí, aquí aquí


Formalismo de Bach-Weyl aquí
Teoría de la gravedad de Bach-Weyl aquí, aquí-aquí, aquí aquí, aquí
campos de radiación de fondo aquí-aquí
Banks, T. aquí, aquí aquí, aquí aquí, aquí aquí, aquí, aquí aquí
Barrow, J. aquí aquí
violaciones del número bariónico aquí, aquí, aquí-aquí
Enfoque de Baum-Frampton aquí-aquí, aquí
Atado a Bekenstein aquí
Fórmula de Bekenstein-Hawking aquí
Modelo cosmológico del Big Bang aquí, aquí-aquí, aquí, aquí, aquí, aquí, aquí, aquí, aquí aquí, aquí aquí, aquí-aquí, aquí, aquí, aquí-
aquí, aquí-aquí, aquí, aquí, aquí, aquí, aquí
Gran crujido aquí, aquí, aquí, aquí, aquí, aquí, aquí, aquí aquí, aquí aquí, aquí, aquí, aquí, aquí aquí
Gran rasgón aquí, aquí, aquí, aquí, aquí aquí
Obispo, J. aquí, aquí, aquí aquí
Caos de BKL aquí-aquí, aquí, aquí, aquí, aquí, aquí, aquí, aquí
Crunch negro aquí aquí, aquí, aquí aquí
calabozo aquí, aquí, aquí
tiempo de acreción aquí-aquí
universos bebé y aquí-aquí
continua formación y descomposición de aquí-aquí
decaer aquí
y radiación de Hawking aquí-aquí
entropía aquí-aquí
era de aquí
evaporación aquí-aquí, aquí, aquí-aquí
Radiación de Hawking y aquí
horizontes aquí
Blackwell Companion to Natural Theology (Craig y Sinclair)aquí
Bojowald, M. aquí, aquí, aquí-aquí, aquí aquí, aquí, aquí, aquí, aquí, aquí, aquí
Buenaventura aquí, aquí, aquí
Borde, A. aquí, aquí, aquí
Teorema de Borde-Guth-Vilenkin (BGV) aquí, aquí, aquí, aquí, aquí, aquí, aquí, aquí, aquí, aquí, aquí aquí, aquí, aquí, aquí, aquí,
aquí, aquí aquí, aquí-aquí, aquí, aquí
excepciones a aquí
Bousso, R. aquí, aquí
branas aquí, aquí
Breve historia del tiempo (Hawking)aquí
enanas marrones aquí, aquí, aquí
colisiones, formación de estrellas a través de aquí-aquí
Teoría B aquí-aquí
argumentos a favor y en contra aquí
Bunge, M. aquí

El compañero de Cambridge al ateísmo (Smith)aquí, aquí aquí


tamaños de cardinalidad e infinito aquí-aquí
Cassidy aquí aquí
Castañeda, H.- aquí-aquí
habilidad categórica aquí
Horizonte de cauchy aquí, aquí, aquí, aquí-aquí
Superficie de Cauchy aquí, aquí, aquí, aquí, aquí, aquí, aquí
Enfoque de las triangulaciones dinámicas causales aquí
horizontes causales aquí, aquí-aquí, aquí, aquí, aquí, aquí, aquí, aquí, aquí
causalidad
descripciones analógicas y literales de aquí-aquí
Formulación de la relación divina con el Big Bang aquí
argumentos cosmológicos y teleológicos para la inexistencia de Dios y aquí-aquí
y condiciones lógicamente suficientes aquí-aquí
Teoría de Sosa aquí
objeciones al no papel de Dios en aquí-aquí
originando la noción de causa divina y aquí-aquí
causa, la definición de Hume de aquí-aquí
c-límites aquí, aquí aquí
presión central aquí, aquí-aquí
inflación caótica aquí-aquí, aquí aquí
universo infantil aquí-aquí
Chisholm, R. aquí
Conjetura de protección cronológica (CPC) aquí-aquí
Cicerón aquí aquí
Cirkovic, MM aquí
Clarke, CJS aquí
Clarke, S. aquí
Clausius, R. aquí
curvas cerradas en forma de tiempo aquí-aquí, aquí
curvas cerradas en forma de tiempo (CTC) aquí
universo cerrado aquí
futura expansión de aquí
funciones termodinámicas en aquí
GLS de grano grueso aquí, aquí, aquí
Collins, F. aquí, aquí
universo bebé conectado aquí
final de la evolución estelar convencional aquí-aquí
continua formación de estrellas en la galaxia y aquí-aquí
destino de la tierra y el sol y aquí-aquí
función de masa final aquí-aquí
la vida de las estrellas de la secuencia principal y aquí-aquí
efectos de metalicidad aquí-aquí
Copán, P. aquí aquí, aquí
Criterio de Copán-Craig aquí
Principio del tiempo copernicano aquí
olvido cósmico aquí
cuerdas cósmicas aquí aquí
argumento cosmológico, versiones de aquí-aquí
función de onda cosmológica aquí
Coule, DH aquí, aquí aquí
definiciones contrafácticas, de causalidad aquí-aquí
Craig, WL aquí, aquí, aquí, aquí, aquí, aquí, aquí, aquí, aquí-aquí, aquí, aquí, aquí aquí, aquí, aquí aquí
doctrina y orden de creación aquí-aquí
creación ex nihilo aquí-aquí, aquí, aquí, aquí aquí, aquí aquí
parámetro de densidad crítica aquí aquí
Cosmogonía cíclica conformada aquí, aquí
universo cíclico aquí-aquí, aquí
eterno aquí-aquí

Dabrowski, M. aquí aquí


Damour, T. aquí aquí
energía oscura aquí, aquí, aquí, aquí, aquí, aquí, aquí, aquí, aquí, aquí aquí, aquí aquí, aquí-aquí, aquí
era oscura aquí
materia oscura aquí, aquí, aquí, aquí, aquí, aquí, aquí, aquí
halo aniquilación y captura de materia oscura aquí-aquí
destino de los planetas durante la muerte galáctica aquí-aquí
Davies, PCW aquí, aquí, aquí
Dawkins, R. aquí
argumento deductivo aquí
deflación aquí-aquí
“Deflación en el cambio de tendencia de la cosmología oscilatoria” (Baum y Frampton) aquí
Era degenerada aquí, aquí
objetos estelares degenerados destino a largo plazo aquí
La radiación de Hawking y la descomposición de los agujeros negros aquí-aquí
desintegración de protones de orden superior aquí-aquí
estrellas de neutrones impulsadas por la desintegración de protones aquí-aquí
desintegración de protones aquí-aquí
en planetas aquí
enano blanco
evolución química aquí-aquí
fase final de evolución aquí-aquí
impulsado por la desintegración de protones aquí-aquí
Demócrito aquí
Dennett, D. aquí
fluctuaciones de densidad y expansión del universo plano y abierto aquí-aquí
perturbaciones de densidad aquí, aquí, aquí, aquí, aquí, aquí, aquí, aquí-aquí, aquí, aquí, aquí
universos dependientes del bebé aquí, aquí-aquí
De Rerum Natura (Lucretius)aquí-aquí
Descartes, R. aquí
Horizontes de Sitter aquí, aquí
modelo de Sitter aquí, aquí
espacio de Sitter aquí, aquí, aquí, aquí-aquí, aquí, aquí aquí
y espacio anti-de Sitter aquí
DeWitt, BS aquí
Disputationes metaphysicae (Suarez)aquí
agente divino aquí
explicación personal divina aquí
paredes de dominio aquí aquí
efecto Doppler aquí
Ducasse, CJ aquí
Definición singularista de causa de Ducasse aquí
universo moribundo aquí-aquí, aquí-aquí
final de la evolución estelar convencional y aquí-aquí
continua formación de estrellas en la galaxia y aquí-aquí
destino de la tierra y el sol y aquí-aquí
función de masa final aquí-aquí
la vida de las estrellas de la secuencia principal y aquí-aquí
efectos de metalicidad aquí-aquí
objetos estelares degenerados destino a largo plazo y aquí
La radiación de Hawking y la descomposición de los agujeros negros aquí-aquí
desintegración de protones de orden superior aquí-aquí
estrellas de neutrones impulsadas por la desintegración de protones aquí-aquí
desintegración de protones aquí-aquí, aquí
fase final de la evolución de la enana blanca aquí-aquí
evolución química de las enanas blancas aquí-aquí
enanas blancas impulsadas por la desintegración de protones aquí-aquí
especulaciones sobre producción de energía y entropía, en un futuro lejano
Los agujeros negros continuaron la formación y la descomposición. aquí-aquí
aniquilación de partículas en universo abierto y aquí-aquí
formación y desintegración de positronio aquí
entropía y muerte por calor y aquí-aquí
implicaciones experimentales y teóricas aquí-aquí
futuros oídos del universo y aquí
muerte galaxia y aquí-aquí
tiempo de acreción del agujero negro aquí-aquí
relajación dinámica de la galaxia aquí-aquí
Radiación gravitacional y desintegración de órbitas. aquí-aquí
formación de estrellas a través de colisiones de enanas marrones aquí-aquí
halo aniquilación y captura de materia oscura aquí-aquí
destino de los planetas durante la muerte galáctica aquí-aquí
evolución a largo plazo del universo y aquí-aquí
campos de radiación de fondo aquí-aquí
expansión futura del universo cerrado aquí
fluctuaciones de densidad y expansión del universo plano y abierto aquí-aquí
inflación y futuro del universo aquí-aquí
efectos posibles de la densidad de energía del vacío aquí-aquí
Dyson, FJ aquí, aquí

Earman, J. aquí, aquí, aquí, aquí aquí


Eddington, A. aquí, aquí
Einstein, A. aquí-aquí, aquí, aquí, aquí, aquí, aquí aquí, aquí
Universo Einstein-de Sitter aquí
Estado estático de Einstein (ESS) aquí, aquí, aquí, aquí, aquí, aquí, aquí aquí, aquí-aquí, aquí aquí-aquí
Modelo ekpirótico / cíclico aquí-aquí, aquí aquí-aquí, aquí aquí
Ellis, TFG aquí, aquí, aquí, aquí aquí, aquí, aquí aquí, aquí-aquí, aquí aquí, aquí-aquí
Modelo emergente aquí-aquí, aquí, aquí, aquí, aquí, aquí-aquí, aquí, aquí aquí
universo emergente aquí-aquí
del estado metaestable de gravedad cuántica de bucle aquí
Empédocles aquí
especulaciones sobre producción de energía y entropía, en un futuro lejano
Los agujeros negros continuaron la formación y la descomposición. aquí-aquí
aniquilación de partículas en universo abierto y aquí-aquí
formación y desintegración de positronio aquí
Consulta (Hume) aquí
entropía aquí-aquí, aquí, aquí, aquí-aquí, aquí, aquí aquí, aquí aquí, aquí, aquí-aquí, aquí aquí-aquí, aquí, aquí aquí, aquí, aquí, aquí
agujero negro aquí-aquí
y escatología aquí-aquí
cosmología moderna y errores en el relato de Kutrovátz aquí-aquí
escatología física y sistemas abiertos aquí-aquí
fluctuaciones aquí, aquí-aquí, aquí aquí
generalizado aquí, aquí-aquí
gravitacional aquí
muerte por calor y aquí-aquí
horizonte aquí
aumento en aquí, aquí
Planck aquí
propiedad ergódica aquí, aquí aquí, aquí, aquí-aquí aquí
inflación eterna aquí-aquí, aquí-aquí
Métrica euclidiana aquí, aquí aquí
Gravedad cuántica euclidiana aquí
causalidad del evento aquí
parámetro de expansión aquí
extropía aquí, aquí, aquí, aquí
en universos abiertos, y la definición de muerte por calor y aquí-aquí

Justo, D. aquí
decaimiento de vacío falso aquí
Feynman, R. aquí, aquí
Diagrama de Feynman aquí
función de masa final aquí-aquí, aquí, aquí
GLS de grano fino aquí-aquí, aquí, aquí, aquí, aquí, aquí
Primera antinomia aquí
Primer movimiento aquí
Fischler, W. aquí aquí, aquí, aquí aquí
"Cinco caminos" (Aquino) aquí-aquí
Voló, A. aquí
Cuarto Concilio de Letrán aquí-aquí, aquí
Frampton, P. aquí-aquí, aquí-aquí, aquí aquí
Freivogel, B. aquí
Ecuación de Friedman, modificada aquí-aquí
Friedmann, A. aquí, aquí-aquí, aquí
Modelo de Friedmann-Lemaître aquí-aquí, aquí
Cosmología de Friedmann-Robertson-Walker (FRW) aquí-aquí
Universo Friedman aquí
estrellas congeladas aquí
horizonte futuro aquí, aquí, aquí, aquí

muerte galaxia aquí-aquí


tiempo de acreción del agujero negro y aquí-aquí
relajación dinámica de la galaxia y aquí-aquí
Radiación gravitacional y desintegración de órbitas y aquí-aquí
formación de estrellas a través de colisiones de enanas marrones y aquí-aquí
Gasperini, M. aquí-aquí, aquí, aquí, aquí, aquí aquí
Propiedades de monotonicidad de entropía generalizada aquí-aquí
segunda ley generalizada (GSL) aquí-aquí
aplicaciones
Big bangs y comienzos aquí-aquí
agujeros negros y bebés aquí-aquí
maquinas del tiempo aquí
impulsos de deformación y objetos de masa negativa aquí-aquí
de grano grueso aquí, aquí, aquí
fluctuaciones de entropía y aquí, aquí-aquí, aquí aquí
de grano fino aquí-aquí, aquí, aquí, aquí, aquí, aquí
teoremas de termodinámica generalizada aquí-aquí
geometrías cuánticas y aquí-aquí
segunda ley de la termodinámica y aquí-aquí
teoremas de termodinámica generalizada
propiedades de monotonicidad de entropía generalizada y aquí-aquí
superficies atrapadas cuánticas y aquí-aquí
teoría general de la relatividad (GTR) aquí, aquí, aquí, aquí, aquí, aquí, aquí, aquí-aquí, aquí, aquí, aquí, aquí aquí, aquí-aquí aquí,
aquí
evidencia para aquí-aquí
excepcionalismo aquí
condición de energía genérica aquí
geodésico aquí-aquí, aquí, aquí, aquí, aquí, aquí, aquí, aquí aquí, aquí
congruencia aquí, aquí, aquí aquí
incompleto aquí
Geroch, R. aquí
Entropía de Gibbs aquí
Gilkey, L. aquí
hiperbolicidad global aquí, aquí, aquí, aquí, aquí, aquí, aquí, aquí-aquí, aquí aquí
Dios, prueba de aquí-aquí
Argumento del dios de los huecos aquí-aquí
Goetz, Carolina del Sur aquí
Gott III, JR aquí, aquí aquí-aquí, aquí, aquí aquí, aquí, aquí
Modelo de Gott-Li aquí-aquí, aquí
Gould, SJ aquí
El gran diseño (Hawking)aquí
Grandes teorías unificadas (GUT) aquí-aquí
Gratton, S. aquí, aquí-aquí
capacidades termodinámicas de los sistemas de gravitación aquí-aquí
Radiación gravitacional y desintegración de órbitas. aquí-aquí
Greene, B. aquí, aquí
Gribbin, J. aquí
Grünbaum, A. aquí, aquí, aquí, aquí, aquí, aquí-aquí, aquí, aquí, aquí, aquí aquí
Guth, A. aquí, aquí, aquí, aquí aquí, aquí, aquí, aquí, aquí aquí

Hackett, Carolina del Sur aquí-aquí, aquí, aquí aquí, aquí


Restricción hamiltoniana aquí
Hartle, J. aquí, aquí
Hawking, S. aquí, aquí, aquí, aquí, aquí, aquí aquí, aquí, aquí-aquí, aquí aquí
Teoremas de Hawking-Penrose, excepciones a aquí-aquí
espacio-tiempo asintóticamente estático aquí-aquí
curvas cerradas en forma de tiempo aquí-aquí
universo cíclico aquí-aquí
inflación eterna aquí-aquí
contracción infinita aquí-aquí
gravedad cuántica aquí-aquí
deconstrucción del tiempo aquí
La radiación de Hawking y la descomposición de los agujeros negros aquí-aquí
muerte por calor aquí
respuesta alternativa a aquí-aquí
antigua solución a aquí-aquí
definición y extropía en universos abiertos y aquí-aquí
y entropía aquí-aquí
solución moderna para aquí
más allá del modelo aquí-aquí
extropía aquí
universo modelo aquí-aquí
problema de aquí-aquí
Principio de incertidumbre de Heisenberg aquí, aquí, aquí
Henneaux, M. aquí aquí
Diagrama de Hertzsprung-Russell
evolución completa del sol en aquí
para estrellas de baja masa aquí
Formalismo HH aquí
Hotel de Hilbert aquí
Hill, C. aquí aquí
Hiscock, WA aquí
historia y futuro del universo, eventos importantes en aquí-aquí
problema del horizonte aquí
termodinámica del horizonte aquí
Hoyle, F. aquí
Hubble, E. aquí, aquí
Parámetro de Hubble aquí, aquí, aquí, aquí, aquí, aquí, aquí
Radio de Hubble aquí-aquí
Tiempo de Hubble aquí aquí
Hulse, RA aquí
Hume, D. aquí, aquí, aquí, aquí
Tesis de Huxley-Draper-White aquí
Hipólitos aquí aquí

ibn Sīna aquí


argumento inductivo aquí
teoría de la inefabilidad aquí-aquí
contracción infinita aquí-aquí
inflación, ver también entradas individuales
reiniciando aquí
y el futuro del universo aquí-aquí

Jurkiewicz, J. aquí

El argumento cosmológico de Kalām (Craig)aquí


Kanitscheider, B. aquí, aquí
Kiefer, C. aquí
Kim, J. aquí
Kitab al-Iqtisad (al-Ghazali)aquí
Krauss, L. aquí
Kuhn, T. aquí
Kutrovátz, G. aquí

Lakatos, I. aquí
Laughlin, G. aquí
Leftow, B. aquí, aquí aquí
Leibniz, GW aquí, aquí, aquí-aquí, aquí
Argumento cosmológico leibniziano aquí
Intuición leinbiziana aquí, aquí
LeMaître, G. aquí, aquí
Leslie, J. aquí aquí
Lewis, D. aquí, aquí, aquí, aquí
agencia libertaria aquí, aquí-aquí
Linde, A. aquí, aquí, aquí aquí, aquí aquí
Li-Xin Li aquí, aquí aquí-aquí, aquí, aquí aquí, aquí, aquí
Locke aquí, aquí
Loll, R. aquí, aquí
evolución a largo plazo del universo y aquí-aquí
campos de radiación de fondo y aquí-aquí
expansión futura del universo cerrado y aquí
fluctuaciones de densidad y expansión del universo plano y abierto y aquí-aquí
inflación y futuro del universo y aquí-aquí
efectos posibles de la densidad de energía de vacío y aquí-aquí
cosmología cuántica de bucle aquí-aquí
bucle de gravedad cuántica (LQG) aquí-aquí, aquí-aquí, aquí, aquí aquí, aquí aquí, aquí, aquí
Métrica de Lorentzian aquí, aquí
Lucrecio aquí

McGrew, T. aquí aquí


McInnis, B. aquí aquí
Mackie, J. aquí
McMullin, E. aquí
monopolos magnéticos aquí aquí, aquí
Maimónides aquí, aquí, aquí
M enanos aquí-aquí
metaestabilidad aquí-aquí
convencionalismo métrico aquí aquí
Milne, E. aquí
Fase milne aquí, aquí, aquí aquí
Misner, C. aquí, aquí, aquí
Universo Mixmaster aquí, aquí
cosmología moderna y errores en el relato de Kutrovátz aquí
extropía en universos abiertos y definición de muerte por calor y aquí-aquí
capacidades termodinámicas de los sistemas de gravitación aquí-aquí
campo gravitacional como principal fuente de entropía y aquí
universos abiertos frente a universos cerrados y constante cosmológica y aquí-aquí
cosmología y creación modernas aquí-aquí
Monton, B. aquí-aquí
Moreland, JP aquí, aquí aquí
modelo de mosaico aquí, aquí aquí
movimiento aquí
Mulryne, D. aquí

Nagel, T. aquí-aquí
naturalismo aquí, aquí aquí
objeciones de aquí-aquí
La naturaleza del espacio y el tiempo (Hawking y Penrose)aquí, aquí
Presión negativa aquí
gas neutrino aquí
desintegración de neutrones, diagrama de Feynman para aquí
estrellas de neutrones aquí
impulsado por la desintegración de protones aquí-aquí
Newton, yo. aquí, aquí
Modelo "sin límites" aquí, aquí-aquí, aquí, aquí
relación nomológica aquí-aquí
tiempos espaciales no singulares y comienzo del universo aquí-aquí
universo asintóticamente estático y aquí-aquí
posición atemporalista aquí-aquí
universo eternamente cíclico y aquí-aquí
universo en expansión y aquí-aquí
universo que se contrae infinitamente y aquí-aquí
argumento de singularidad y aquí-aquí
inversión de la flecha del tiempo y aquí-aquí
el comienzo del universo y aquí-aquí
condición de convergencia nula aquí-aquí, aquí aquí

O'Connor, T. aquí-aquí aquí


universo abierto
vs universos cerrados, y constante cosmológica y aquí-aquí
fluctuaciones de densidad y expansión de aquí-aquí
extropía y muerte por calor definición y aquí-aquí
aniquilación de partículas en aquí-aquí
funciones termodinámicas en aquí
decaimiento orbital aquí
causa divina originaria, noción de aquí-aquí
definiciones contrafactuales y aquí-aquí
La definición singularista de Ducasse de causa y aquí
La definición de Hume de causa y aquí-aquí
definición de transferencia de causa y aquí-aquí

Página, D. aquí
Pagels, H. aquí
Parikh, M. aquí, aquí
aniquilación de partículas, en universo abierto aquí-aquí
Penrose, R. aquí, aquí, aquí, aquí, aquí, aquí aquí, aquí, aquí-aquí, aquí, aquí
Diagrama de Penrose aquí-aquí
Cosmogonías del "rebote fantasma" aquí, aquí aquí, aquí aquí
energía fantasma, ver energía oscura
Philoponus, J. aquí, aquí
escatología física y sistemas abiertos aquí-aquí
Pitts, JB aquí, aquí aquí, aquí-aquí, aquí-aquí, aquí, aquí, aquí aquí-aquí, aquí-aquí aquí, aquí aquí
Entropía de Planck aquí
el destino de los planetas, durante la muerte galáctica aquí-aquí
Plantinga, A. aquí, aquí
Platón aquí
Plutarco aquí aquí
Polchinski, J. aquí
Polkinghorne, J. aquí
Papa Juan Pablo II aquí
teorema de la energía positiva aquí-aquí
formación y desintegración de positronio aquí
Publicar, J. aquí
distinción potencia-acto, de Aristóteles aquí
potencial infinito aquí
escenario anterior al Big Bang aquí, aquí, aquí, aquí aquí, aquí aquí, aquí, aquí, aquí, aquí, aquí, aquí, aquí, aquí, aquí, aquí
inflación anterior al Big Bang (PBBI) aquí-aquí, aquí aquí
Principio de razón suficiente aquí
desintegración de protones aquí-aquí
Diagrama de Feynman para aquí
orden superior aquí-aquí
en planetas aquí
reacciones piconucleares aquí, aquí, aquí

creación cuántica aquí-aquí, aquí aquí


fluctuación cuántica aquí
geometrías cuánticas aquí-aquí
gravedad cuántica aquí, aquí, aquí
círculo aquí-aquí, aquí-aquí, aquí, aquí aquí, aquí aquí, aquí, aquí
creación semiclásica ex nihilo modelos aquí-aquí
y singularidades aquí-aquí
modelos de cuerdas aquí-aquí
variedad cuántica de Lorentz aquí, aquí
superficies cuánticas atrapadas aquí-aquí
tunelización cuántica aquí-aquí
vacío cuántico aquí-aquí
quarks aquí, aquí, aquí, aquí, aquí
fase cuasi-Milne aquí, aquí
Quinn, P. aquí
era dominada por la radiación aquí
Ecuación de Raychaudhuri aquí
Ley de Rayleigh-Jeans, para la radiación del cuerpo negro aquí-aquí
Gigantes Rojos aquí
Epistemología reformada aquí, aquí
proceso de recalentamiento aquí
fuerza gravitacional repulsiva aquí
gravedad repulsiva aquí
Rescher, aquí
La resurrección del teísmo (Hackett)aquí
Horizontes de Rindler aquí
Aspiradora Rindler aquí
Métrica de Robertson-Walker aquí, aquí, aquí
Russell, B. aquí

San Agustín aquí aquí


Sandage, A. aquí
teoría del tensor escalar aquí
Schlegel, R. aquí
Schleiermacher, F. aquí
Schrödinger, E. aquí
Schücking, E. aquí
Científico americanoaquí, aquí, aquí
confirmación científica aquí-aquí
Escoto, John Duns aquí
Searle, J. aquí
segunda ley de la termodinámica aquí
Segunda ley generalizada aquí-aquí
Segunda ley ordinaria (OSL) aquí-aquí
auto-contradicción, en el ámbito del ser aquí-aquí
creación semiclásica ex nihilo modelos aquí-aquí
modelo semiclásico de gravedad cuántica aquí
Señor, TD aquí aquí
Retraso de Shapiro aquí-aquí
horizonte cada vez menor aquí
Sinclair, J. aquí, aquí-aquí
argumento de singularidad aquí-aquí, ver también entradas individuales
evaluación aquí
de locales aquí-aquí
teorema de singularidad aquí, aquí, aquí, aquí, aquí-aquí, aquí, aquí
excepciones a aquí-aquí
Slipher, V. aquí
Smith, Q. aquí, aquí, aquí, aquí, aquí-aquí, aquí aquí, aquí aquí, aquí aquí, aquí, aquí, aquí-aquí, aquí aquí, aquí aquí, aquí-aquí aquí
Smolin, L. aquí
hidrodinámica de partículas suaves aquí
Sobrio, E. aquí
Sosa, E. aquí, aquí
modelo de espacio-tiempo, de universo de cuatro dimensiones aquí
interacciones de espalación aquí, aquí-aquí
continuidad espacio-temporal aquí
Spengler, O. aquí
sphalerons aquí
Spinoza, B. aquí
formación de estrellas a través de colisiones de enanas marrones aquí
secciones transversales de colisión aquí-aquí
escalas de tiempo de colisión aquí-aquí
simulaciones numéricas aquí-aquí
Steinhardt, P. aquí, aquí-aquí, aquí aquí, aquí aquí, aquí
vidas estelares vs metalicidad aquí-aquí
masas estelares vs metalicidad aquí-aquí
era estelífera aquí, aquí
Stenger, V. aquí
Strawson, G. aquí
Paisaje de cuerdas aquí, aquí, aquí
modelos de cuerdas aquí
Modelo ekpirótico / cíclico aquí-aquí
inflación anterior al Big Bang (PBBI) aquí-aquí
modelos de cuerdas gravedad cuántica aquí-aquí
Vacío perturbativo de cuerdas (SPV) aquí-aquí, aquí, aquí
vacío de hilo aquí aquí
Stromateis aquí aquí
Suárez, F. aquí
etapa sublunar aquí-aquí
Summa Theologica (Aquino)aquí
etapa superlunar aquí
teoría alternativa sobrenaturalista aquí-aquí
supertarea aquí aquí
Susskind, L. aquí
Swinburne, R. aquí aquí

Takahashi, T. aquí, aquí


Tavakol, R. aquí
Taylor, Joseph H., Jr. aquí aquí
prioridad temporal aquí-aquí
teísmo aquí-aquí
La cosmología del Big Bang no es compatible con la fe y aquí-aquí
tamaños de cardinalidad e infinito y aquí-aquí
la doctrina de la creación y la autorización y aquí-aquí
orden fluctuante e inaccesible y aquí-aquí
teoría general de la relatividad y aquí
Leibniz y aquí-aquí
cosmología y creación modernas y aquí-aquí
gravedad cuántica para la resolución de singularidad y aquí-aquí
colapso estelar y aquí-aquí
tolerancia hacia las singularidades y aquí-aquí
vicioso argumento del Dios de los huecos y aquí-aquí
Teísmo, ateísmo y cosmología del Big Bang (Craig y Smith)aquí
termodinámica, segunda ley de aquí
Argumento cosmológico tomista aquí
't Hooft, Gerard aquí
Thorne, K. aquí, aquí aquí, aquí
Tucídides aquí
inversión de la flecha del tiempo aquí-aquí
deconstrucción del tiempo aquí
maquinas del tiempo aquí
Tiempo sin fin (Dyson)aquí
Tod, P. aquí
Modelo Tolman aquí, aquí
Tooley, M. aquí aquí
universos bebé trascendentes aquí
definición de transferencia, de causa aquí-aquí
Enfoque de "túnel de la nada" aquí, aquí, aquí-aquí, aquí, aquí
Turok, aquí, aquí, aquí, aquí aquí, aquí
"El universo único" (Smolin) aquí
evolución unitaria aquí-aquí, aquí

Vaas, R. aquí, aquí, aquí aquí, aquí aquí, aquí, aquí


densidad de energía de vacío, posibles efectos de aquí
futuras épocas inflacionarias y aquí-aquí
procesos de tunelización y aquí-aquí
efectos posibles de la densidad de energía del vacío aquí-aquí
Veneziano, G. aquí-aquí, aquí, aquí, aquí aquí
universos bebés viables aquí-aquí
Vilenkin, A. aquí, aquí, aquí-aquí, aquí, aquí-aquí, aquí, aquí aquí, aquí aquí, aquí, aquí, aquí aquí, aquí
entropía de von Neumann aquí, aquí, aquí

Wald, R. aquí, aquí, aquí, aquí aquí, aquí


Pared, AC aquí
Ward, K. aquí aquí
impulsos de deformación y objetos de masa negativa aquí-aquí
partículas masivas de interacción débil (WIMP) aquí-aquí, aquí, aquí, aquí
aniquilación aquí-aquí
Hipótesis de la curvatura de Weyl (WCH) aquí-aquí
Tensor de Weyl aquí aquí
Wheeler, JA aquí, aquí
Enfoque de Wheeler-DeWitt (WDW) aquí, aquí, aquí
Ecuación de Wheeler-DeWitt aquí aquí
Enfoque de gravedad cuántica de Wheeler-DeWitt aquí
enanas blancas aquí, aquí, aquí-aquí, aquí, aquí
evolución química en aquí-aquí
fase final de evolución aquí-aquí
impulsado por la desintegración de protones aquí-aquí
Aniquilación de WIMP en aquí-aquí, aquí
Rotación de la mecha aquí
Witten, E. aquí aquí
Aproximación WKB aquí, aquí, aquí
agujeros de gusano, transitable aquí, aquí, aquí

Xin Zhang aquí-aquí, aquí, aquí aquí


Propiedad X aquí-aquí

Yates, J. aquí

Zeh, HD aquí, aquí


Paradojas zenonianas aquí, aquí
energía de punto cero aquí-aquí, aquí, aquí-aquí
ignorando aquí
Académico de Bloomsbury
Una huella de Bloomsbury Publishing Plc
1385 Broadway 50 Bedford Square
Nueva York Londres
NY 10018 WC1B 3DP
Estados Unidos Reino Unido

www.bloomsbury.com

BLOOMSBURY y el logotipo de Diana son marcas comerciales de Bloomsbury Publishing Plc

Publicado por primera vez en 2018

© Paul Copan, William Lane Craig y colaboradores, 2018

Reservados todos los derechos. Ninguna parte de esta publicación puede ser reproducida o transmitida en cualquier forma o por
cualquier medio, electrónico o mecánico, incluyendo fotocopias, grabaciones o cualquier sistema de almacenamiento o
recuperación de información, sin el permiso previo por escrito de los editores.

Bloomsbury o los editores no pueden aceptar ninguna responsabilidad por las pérdidas causadas a cualquier individuo u
organización que actúe o se abstenga de actuar como resultado del material de esta publicación.

Datos de catalogación en publicación de la Biblioteca del Congreso


Un registro del catálogo de este libro está disponible en la Biblioteca del Congreso.

ISBN: HB: 978-1-5013-3587-7


ePub: 978-1-5013-3588-4
ePDF: 978-1-5013-3589-1

Serie: Estudios de Bloomsbury en Filosofía de la Religión

Diseño de portada: Louise Dugdale


Imagen de portada © Getty Images / Corbis / VCG

También podría gustarte