P. 1
Física y metafísica

Física y metafísica

|Views: 624|Likes:
Publicado porJAVIER DE LUCAS

More info:

Categories:Types, Research, Science
Published by: JAVIER DE LUCAS on Sep 02, 2011
Copyright:Attribution Non-commercial

Availability:

Read on Scribd mobile: iPhone, iPad and Android.
download as PDF or read online from Scribd
See more
See less

11/08/2013

FISICA Y METAFISICA

El método científico, tal como se ha aplicado con gran éxito en las ciencias físicas desde el siglo XVII, se apoya en la conjugación de dos componentes: la hipótesis o teoría, y la experimentación. La primera es importante, pero su utilidad es discutible a falta de la segunda. Una teoría sin demostración experimental puede considerarse, en el mejor caso, provisional; en el peor, extracientífica. A lo largo de la historia de la Física ha ocurrido a veces que una teoría con poca justificación experimental llega después a asentarse, a ser comprobada por los hechos. Algo así ocurrió con la teoría atómica. Un químico tan importante como Wilhelm Ostwald (1853-1932), premio Nobel en 1909, se negó a aceptar la existencia real de los átomos, considerándolos, a lo sumo,

como entelequias teóricas útiles, sin existencia real. "Mientras no los vea, no creeré en ellos" decía. Hoy, el microscopio de efecto túnel ha hecho realidad el desafío de Ostwald, permitiéndonos ver los átomos. Algo semejante ocurrió durante el siglo XX con la teoría de los quarks, propuesta en los años sesenta por Murray Gell-Mann. A pesar del poder de predicción de esta teoría para explicar el comportamiento de algunas de las que entonces se consideraba "partículas elementales" (como el protón, el neutrón y, en general, la familia de los hadrones), muchos físicos se negaron a aceptar la realidad de los quarks, hasta que los experimentos proporcionaron la confirmación de su existencia. Es posible que estos ejemplos positivos hayan rebajado el sentido crítico de algunos físicos, inclinándolos a pensar que cualquier teoría matemáticamente coherente tiene que ser una representación fiel de la realidad. Al hacerlo, olvidan que la teoría atómica y la de los quarks fueron confirmadas por los experimentos, sin los cuales continuarían siendo entelequias. Otras teorías, en cambio, no tuvieron la misma suerte y han sido justamente olvidadas. Con esta actitud, se corre el peligro de despreciar las enseñanzas de siglos y de romper el equilibrio entre hipótesis y experimentación, prescindiendo de la segunda cuando resulta difícil o, en ciertos casos (como veremos), imposible. Karl Popper señaló que no es fundamental que una teoría científica pueda demostrarse, pues eso nunca se consigue, ya que son siempre provisionales y sólo se mantienen hasta que algún descubrimiento nuevo las contradice y obliga a refinarlas. Lo esencial es que se pueda demostrar que es falsa, que sea posible diseñar un experimento que, en caso de tener éxito, eche abajo la teoría. Las teorías no falsificables no son construcciones científicas válidas. A lo sumo, podrán ser ejercicios hipotéticos, más o menos elegantes, pero sin relación con la realidad. Este ensayo presenta algunos ejemplos que, en mayor o menor grado, pueden considerarse ejercicios de ciencia "excesivamente" matemáticaa. El primero se refiere a unos objetos cuya existencia está bastante bien documentada, aunque las teorías que intentan explicarlos contienen elementos que difícilmente se podrá comprobar mediante la experimentación. Los ejemplos subsiguientes son más espectaculares. En ellos, los físicos proponen teorías para las que resulta imposible realizar experimentos (actualmente) que las confirmen o, lo que es peor, que demuestren su falsedad. Quizá no sean falsas, pero, ¿mientras no se las pueda poner a prueba, no es posible considerarlas como teorías científicas? Hay quien asegura que quienes las proponen no están haciendo Física, sino Metafísica. No debe tomarse esto como una crítica de la Metafísica, que como rama de la Filosofía se ha ganado en buena lid un puesto importante en la historia del conocimiento humano. Se trata de deslindar los campos de ambas disciplinas y evitar equívocos. La Metafísica no es una ciencia experimental, aunque los físicos que invaden su terreno traten de hacer pasar sus teorías por

científicas. Es curioso, por otra parte, que algunos de estos mismos físicos desprecien la Metafísica, considerando que la ciencia es la única rama válida del conocimiento, capaz de explicarlo todo y de responder a todas las preguntas.

El concepto de infinito no sorprende a los matemáticos, que vienen utilizándolo desde hace tiempo. Georg Cantor (1845-1918) fue el primero que formalizó los conjuntos infinitos, pero antes de su época se conocían muchas funciones que toman valores arbitrariamente grandes para algún valor de la variable independiente. Se dice que la función presenta una singularidad en ese punto. La más sencilla de las funciones con singularidad es y=1/x, que alcanza valores arbitrariamente grandes cuando x se aproxima a cero. Hay otras, como y=tg x , que presentan infinitas singularidades: para x igual a cualquier múltiplo impar de p/2. Tradicionalmente, las ciencias físicas han mirado con sospecha las singularidades. Cuando las ecuaciones matemáticas propuestas para describir algún fenómeno físico presentaban una singularidad, se daba siempre por supuesto que el problema estaba en las ecuaciones, pues en la realidad no pueden darse infinitos. Las ecuaciones son simples aproximaciones de la realidad. Si presentan singularidades, se debe a que la teoría de donde proceden falla, o no puede aplicarse, en las proximidades de esos valores. Ahí hay que buscar otras teorías que conducirán a expresiones matemáticas diferentes, que no presenten singularidad en esos puntos.

En general, la aparición de una singularidad se puede atribuir a nuestra ignorancia sobre el funcionamiento de los fenómenos que se trata de describir. Al descubrir más sobre ellos, al refinar su representación matemática, la singularidad debe desaparecer. A lo largo de la historia de la Física, se ha reconocido la existencia de cuatro interacciones fundamentales: la gravitatoria, cuya formulación realizó Isaac Newton (1642-1727) en el siglo XVII y refinó Einstein en el XX; la electromagnética, como resultado de la unificación de los fenómenos eléctricos y magnéticos, desarrollada por James Maxwell (1831-1879) en el siglo XIX; y las dos interacciones nucleares, fuerte y débil, descubiertas durante el siglo XX. Más tarde se ha desarrollado la teoría electrodébil, que unifica las interacciones electromagnética y nuclear débil, y se han propuesto varias versiones de una gran teoría unificada que uniría la interacción nuclear fuerte a las anteriores, aunque ninguna de ellas ha recibido confirmación satisfactoria. La gravedad, por su parte, se ha resistido hasta ahora a todos los intentos realizados para unificarla con las otras interacciones fundamentales.

En 1916, Albert Einstein (1879-1955) formuló la teoría general de la Relatividad, que interpreta la interacción gravitatoria como una alteración de la

geometría del cosmos, debida a la presencia de objetos con masa. En 1933, Subrahmanyan Chandrasekhar (1910-1995) detectó la presencia de una singularidad en las ecuaciones de Einstein, que surge cuando una estrella de gran masa agota su combustible nuclear, se transforma en supernova y sufre un colapso gravitatorio. Si la masa que se comprime es aproximadamente igual a la del sol, la interacción electromagnética, que provoca una fuerza de repulsión entre los electrones, detiene el colapso gravitatorio. La estrella se transforma en enana blanca, con una densidad un millón de veces mayor que la del agua. Si su masa inicial es, al menos, 1,44 veces mayor que la del sol, la gravedad vence a la repulsión electromagnética y fuerza a los electrones a fusionarse con los protones, pero la repulsión provocada por la fuerza nuclear fuerte detiene el colapso, dando lugar a la aparición de una estrella de neutrones, con una densidad mil billones de veces mayor que la del agua. Finalmente, si la masa de la estrella en colapso fuese al menos 3,2 veces mayor que la del sol, la gravedad vencería también a la fuerza nuclear fuerte, el colapso no se detendrá, y la masa de la estrella se comprimirá hasta ocupar un volumen cero, un punto geométrico. La densidad se haría, por tanto, infinita. Aquí está la singularidad. Una estrella colapsada hasta ese punto, provoca a su alrededor una atracción tan intensa, que ni siquiera la luz puede escapar de ella. Este objeto hipotético ha de ser virtualmente invisible, por lo que se le da el nombre de agujero negro. Al principio, los físicos se resistieron a admitir la existencia de las singularidades gravitatorias, aplicando el sentido común, que tan buenos resultados les había dado a lo largo de la historia. Sin embargo, durante la segunda mitad del siglo XX, la falta de alternativas a la teoría de Einstein ha llevado a aceptar su existencia. En la actualidad se conocen muchos objetos que podrían ser agujeros negros, algunos pequeños, con una masa poco mayor que la del sol, otros gigantescos, situados en el centro de las galaxias. Pero, aunque se trate en realidad de agujeros negros, aún hay que probar que en su centro exista una singularidad. Es posible que la teoría de Einstein sea, después de todo, una aproximación de otra teoría más completa que eluda la singularidad, como la de Newton resultó ser una aproximación de la de Einstein. Quizá exista alguna otra interacción fundamental, aún desconocida, (como las dos fuerzas nucleares fueron insospechadas hasta el siglo XX), capaz de detener el colapso total de la masa de los agujeros negros, con lo que éstos contendrían en su interior una masa concentrada en un volumen más pequeño que el de las estrellas de neutrones, pero mayor que cero.

Desgraciadamente, esta comprobación está fuera de nuestro alcance. Quizá nunca estaremos en condiciones de realizarla, pues una cápsula lanzada al interior de un agujero negro no podría enviarnos información alguna. Nos encontramos así ante una teoría científica bien formulada, con gran elegancia matemática, pero cuya verdad o falsedad no se puede demostrar en este momento. Hasta que dispongamos de más datos, se trata de un ejercicio de ciencia teórica. Esto se hace aún más patente cuando los físicos hablan de agujeros negros microscópicos (que podrían existir incluso en nuestras proximidades), de agujeros de gusano (agujeros negros que unirían dos regiones muy alejadas del cosmos a través de dimensiones adicionales del espacio), de viajes interestelares y hasta de viajes en el tiempo a través de agujeros negros, justificando todo esto porque esos sucesos son compatibles con las matemáticas que rigen el comportamiento hipotético de unos objetos, de cuya existencia y propiedades aún no estamos totalmente seguros. Estas teorías están muy bien para una novela de ciencia-ficción, pero parece un abuso tratarlas como descripciones genuinas de la realidad. En un libro publicado recientemente, un físico tan influyente como Stephen Hawking se hace eco de esta preocupación y sostiene que es probable que las fantasías científicas sobre los viajes en el tiempo violen leyes físicas que aún no hemos descubierto. En otras palabras: aún no lo sabemos todo. A pesar de las sorpresas que nos ha dado la Física del siglo XX, quizá sería mejor aferrarse en algunas cosas al sentido común, antes de dar rienda suelta a la imaginación, al menos hasta que dispongamos de evidencia experimental suficiente. Paradojas cuánticas Einstein hizo famosos varios experimentos mentales, término que se aplica a los experimentos que no es preciso realizar (a veces es imposible), pues basta pensar un poco sobre ellos para deducir cuál ha de ser el resultado. Algunos de estos experimentos los concibió Einstein como argumentos contra la Mecánica Cuántica, cuya interpretación más extendida le resultaba profundamente repulsiva. Uno de ellos (el experimento EPR, por las iniciales de Einstein, Podolski y Rosen, que lo propusieron) pudo realizarse muchos años después de propuesto, confirmando las predicciones de la Mecánica Cuántica y echando por tierra el argumento de sus autores.

Existe un experimento mental famoso que no se debe a Einstein, sino a Schrödinger: tomamos un gato y lo encerramos en una caja que contiene una ampolla de ácido cianhídrico y un dispositivo automático que rompe la ampolla si un átomo radiactivo emite una partícula alfa. La desintegración de un núcleo radiactivo es un fenómeno que se rige por las reglas de la Mecánica Cuántica: cuando el número de átomos es muy grande, puede calcularse cuántos se habrán desintegrado pasado cierto tiempo, pero el comportamiento de un átomo aislado es impredecible. De acuerdo con la Mecánica Cuántica, hasta que un observador compruebe la situación de ese átomo, éste se encuentra en una superposición de estados, en uno de los cuales se ha desintegrado, mientras en el otro ha permanecido estable. La realidad colapsa en una de estas dos alternativas cuando el observador externo realiza la medición. En nuestro experimento, el gato habrá muerto asfixiado si el átomo se ha desintegrado, de lo contrario continuará vivo. Esto parece indicar que el gato debe encontrarse en una superposición de los estados vivo y muerto, hasta que alguien abra la caja y mire. La paradoja depende en gran medida de cómo definamos al observador. ¿Hace falta que un ser humano abra la caja y mire, para provocar el colapso de la onda cuántica? ¿Es el gato un observador válido, capaz de detectar si el átomo radiactivo se ha desintegrado o no, por el hecho de estar vivo o muerto? El problema podría complicarse aún más

suponiendo que el gato vivo puede ser un observador válido, mientras no lo es el gato muerto. El experimento del gato de Schrödinger no se ha realizado en la práctica. Que no se asusten los amantes de los animales: no tiene sentido hacerlo, pues en cuanto intentásemos averiguar, por cualquier medio, si el gato está a la vez vivo y muerto, provocaríamos el colapso de la onda cuántica y no podríamos detectarlo: siempre lo encontraríamos o vivo o muerto, nunca ambas cosas. Modifiquemos el experimento de la siguiente manera: sustituimos el gato por un dispositivo que graba en su memoria el estado de un circuito que puede estar abierto (cero) o cerrado (uno). Inicialmente el circuito está abierto, y se cierra cuando el átomo radiactivo se desintegra. El dispositivo realiza una medida y una grabación del estado del circuito cada milésima de segundo. Cuando el observador humano abre la caja, puede observar si el circuito está abierto o cerrado, pero también puede leer la memoria del dispositivo y descubrir en qué estado estaba en cada uno de los instantes anteriores. Puede, por tanto, detectar (con un error de una milésima de segundo) en qué momento tuvo lugar la desintegración radiactiva. Por lo tanto, el colapso de la onda cuántica ha tenido que ocurrir desde el principio y la paradoja no se habrá producido. Hay dos maneras de salir de este dilema sin renunciar a la interpretación tradicional de la Mecánica Cuántica. En la primera, hasta que el observador abre la caja, la memoria del ordenador contendrá una superposición de pares de valores cero y uno. Cuando el observador abre la caja, todos esos pares colapsan en uno u otro valor para cada una de las posiciones de la memoria. Pero hay una solución mejor, que consiste en concederle el carácter de observador al dispositivo de medida y grabación. La paradoja del gato de Schrödinger ha dado pábulo a diversas explicaciones que tratan de resolverla. Algunos, entre los que se cuenta el propio Schrödinger, creen que la Mecánica Cuántica sólo se aplica a los sistemas microscópicos, mientras los macroscópicos (como el gato) se encuentran fuera de su alcance. Esta es la explicación más extendida y probable, pero también la menos interesante, pues se limita a negar la paradoja. En su forma actual, esta explicación supone que la superposición de estados cuánticos colapsa cuando las partículas en cuestión interactúan con cualquier ente macroscópico, al que se atribuye el papel de observador, sin importar que esté vivo o inanimado. Queda pendiente definir cuál es la frontera que separa lo macroscópico de lo microscópico, y explicar por qué ocurren las cosas así, suponiendo que sea eso lo que ocurre. Otra explicación sostiene que el universo se bifurca cada vez que se produce una de estas alternativas, por lo que existiría un número infinito de universos casi idénticos, con pequeñas o mayores diferencias entre uno y otro,

según el tiempo que ha pasado desde la bifurcación. En nuestro caso, en uno de los universos el gato estaría muerto, en el otro vivo. Fred Hoyle utilizó esta idea en una de sus novelas de ciencia-ficción [8]. Volveremos sobre ella más adelante. ¿Para qué sirven estos experimentos mentales, que jamás podrán realizarse y cuya solución no es evidente? ¿En qué se diferencian de la frase siguiente, que introduce una paradoja clásica parecida, de imposible resolución? Cuando nadie la observa, esta frase está escrita en chino.

De acuerdo con la teoría inflacionaria del Big Bang, actualmente la más aceptada por la Cosmología moderna, el universo comenzó, hace unos quince mil millones de años, en un estado extremadamente comprimido, cuyos primeros instantes quedan fuera del alcance de nuestras teorías, pues no disponemos de ninguna que pueda aplicarse a una situación tan ajena a nuestra experiencia. A partir del tiempo de Planck (10-43 segundos después del principio) comenzamos a saber algo de lo que pudo ocurrir. En una primera etapa, el universo no contenía ninguna forma de materia, sólo energía. La

expansión, inicialmente más lenta, se aceleró enormemente en la fase intermedia (se produjo una inflación), para volver a retardarse más tarde. Todo esto habría ocurrido en fracciones inimaginablemente pequeñas del primer segundo de la existencia del cosmos. Después de la inflación se produjo un cambio de fase que dio lugar a la aparición de la materia, en la forma de las partículas que actualmente consideramos elementales, los quarks, y los leptones: electrones, positrones y neutrinos, esencialmente. Pero algunos cosmólogos sostienen que la inflación pudo dejar tras de sí zonas del espacio en las que se mantendría la situación anterior. Algo parecido ocurre cuando una sustancia cambia de estado, pasando del sólido al líquido o de éste al gaseoso, o viceversa. A veces quedan burbujas del estado antiguo dentro de una masa que ya ha pasado al otro. Aunque el interior de la burbuja está en una situación inestable, puede permanecer así durante mucho tiempo, en equilibrio, hasta que una perturbación cualquiera provoca su colapso. Lo mismo sucede cuando una sustancia magnética, como el hierro, se calienta por encima del punto de Curie (con lo que pierde sus propiedades magnéticas) y después se enfría: el cambio brusco de fase da lugar a la aparición de dominios magnéticos independientes, con orientaciones distintas. En el caso del universo inflacionario, ciertos cosmólogos sostienen que podrían existir zonas (burbujas) en las que se habría mantenido el estado cuántico primitivo. Esas zonas serían muy largas, con la forma de tubos muy estrechos, casi unidimensionales, con un diámetro mucho menor que el de un átomo. Podrían ser finitas y cerradas, o infinitamente largas. En su interior no habría materia, sólo energía. Algunas de ellas habrían podido resistir miles de millones de años y llegar hasta nosotros, pero no tendrían asegurada la permanencia, pues sería posible que interaccionaran unas con otras o consigo mismas, dividiéndose en zonas más pequeñas o desintegrándose por completo, pasando finalmente al estado cósmico actual más generalizado. Estas regiones hipotéticas reciben el nombre de cuerdas cósmicas. La teoría de las cuerdas cósmicas se apoya en matemáticas coherentes. Esto lleva a muchos físicos a suponer que es probable que dichas cuerdas existan. Sin embargo, nadie ha detectado jamás una cuerda cósmica. Se sospecha que su detección podría ser imposible. La tendencia a suponer que toda formulación matemática coherente ha de ser expresión de la realidad, se está imponiendo en la Física actual, alejándola cada vez más del paradigma científico universalmente aceptado, e introduciéndola progresivamente en el campo de la Metafísica.

Universos múltiples Uno de los ejemplos más espectaculares de ciencia teórica es la teoría de los universos múltiples. Esta hipótesis se ha extendido mucho entre los científicos ateos, que la utilizan como última línea de defensa contra la amenaza de la quinta vía de Santo Tomás, el argumento del diseño, que en nuestro tiempo se expresa de una forma nueva y convincente.

En su forma original, el argumento se apoyaba en la complejidad del cosmos, especialmente de los sistemas vivos, para deducir la existencia de un creador. En la formulación sucinta del siglo XVIII, la quinta vía se expresaba así: "Si encontramos un reloj, es preciso suponer la existencia de un relojero". Durante el siglo XIX, el ateísmo contrarrestó esta forma del argumento, aduciendo que la evolución biológica y fuerzas aleatorias semejantes habrían permitido al cosmos llegar, por puro juego del azar, a los hitos de complejidad que vemos a nuestro alrededor, cuya máxima expresión es la especie humana. Todo ello, sin necesidad de guía o control externo alguno.

La forma moderna del argumento del diseño se basa en el carácter sorprendentemente crítico de las leyes físicas, descubierto en su mayor parte durante el siglo XX. Las leyes parecen sintonizadas para hacer posible la existencia de vida y, en particular, de seres conscientes capaces de descubrirlas. Esta constatación, aceptada por igual por científicos creyentes, agnósticos y ateos, se denomina, a veces, el principio antrópico, del griego anzropos, hombre, pues parece como si las leyes estuviesen diseñadas a la medida del hombre. Algunos de los ajustes de las leyes físicas son extremadamente críticos. Por ejemplo, la eficiencia de los procesos de fusión nuclear que generan la energía del sol es aproximadamente igual a 0,007 (0,7 por ciento). Cuando cuatro núcleos de hidrógeno se fusionan para formar un núcleo de helio, el núcleo resultante tiene una masa igual al 99,3 por ciento de la suma de las masas de los núcleos de hidrógeno originales. El resto (el 0,7 por ciento) se ha transformado en energía. Si el rendimiento hubiese sido algo más pequeño (0,006 o menor), no podría realizarse uno de los pasos intermedios de la reacción nuclear, la unión de dos núcleos de hidrógeno para formar uno de deuterio, pues el deuterio sería inestable. El universo estaría compuesto exclusivamente de hidrógeno, las estrellas no existirían y la vida sería imposible. Si el rendimiento hubiese sido algo más grande (0,008 o mayor), casi todo el hidrógeno se habría transformado en helio durante los primeros minutos del Big Bang. Sin hidrógeno no habría estrellas parecidas al sol, ni agua, ni por supuesto vida. Hay más ejemplos. Si la intensidad relativa de las cuatro interacciones fundamentales (gravitatoria, electromagnética y las dos nucleares) hubiese sido diferente, no habría vida inteligente en el universo. La intensidad de la atracción gravitatoria es unos 36 órdenes de magnitud más débil que las restantes fuerzas. Si hubiese sido un poco más intensa, las estrellas y los planetas serían mucho más pequeños. Los seres vivos, si los hubiese, serían diminutos, no contendrían bastantes células para construir un cerebro como el nuestro. Por otra parte, la evolución de las estrellas sería mucho más rápida: miles de años, en lugar de miles de millones. No habría tiempo para que la evolución biológica diera lugar a la aparición de organismos complejos. También hay que recordar las propiedades únicas del agua, que parece diseñada ex-profeso para soporte de la vida: su gran calor específico (capacidad para almacenar calor) y su conductibilidad térmica, que convierte a los océanos en estabilizadores del clima; su enorme constante dieléctrica, que hace de ella uno de los mejores disolventes; el extraño comportamiento de su densidad, prácticamente único entre todas las sustancias químicas, que impide que los océanos se hielen por completo en invierno; su elevada tensión superficial, que facilita su aspiración por las raíces de las plantas; su viscosidad, que es bastante baja para permitir el movimiento de los seres vivos, pero suficiente para que las células contengan estructuras microscópicas intrincadas.

De igual manera, el átomo de carbono parece diseñado especialmente para hacer posible la existencia de la miríada de sustancias orgánicas en las que se basa la vida. La energía de enlace de este elemento consigo mismo y con los demás es crítica: cualquier otro valor no habría servido. En particular, la afinidad del carbono con el oxígeno es sólo ligeramente superior (1,13 veces) a la energía del enlace carbono-carbono. Si hubiese sido menor, no existiría casi anhídrido carbónico, ni por tanto la fotosíntesis. Si hubiese sido mayor, no habrían podido formarse espontáneamente sustancias orgánicas, pues todo el carbono se habría combinado con el oxígeno y apenas existiría en el universo otra forma de este elemento que el anhídrido carbónico. Algo así es lo que ocurre con el silicio, un elemento químico emparentado estrechamente con el carbono, por lo que algunos autores de novelas de ciencia-ficción han propuesto que podría existir vida extraterrestre basada en él. Sin embargo, la afinidad del silicio por el oxígeno es bastante mayor que la del silicio consigo mismo. Por esta razón, aunque el silicio sea mucho más abundante en la Tierra que el carbono, se encuentra casi exclusivamente en forma de anhídrido silícico (cuarzo) y de sus derivados, los silicatos, y no ha llegado a formar cadenas semejantes a las del carbono. No es probable que las cosas sucedan de otro modo en sistemas planetarios diferentes. Hoy, el consenso científico afirma que la vida extraterrestre, si la hay, estará basada en la misma química orgánica que la vida terrestre (aunque esto no quiere decir que las sustancias químicas concretas de la exobiología tengan que ser idénticas a las nuestras). La tasa de expansión del cosmos es tal, que su densidad media parece estar sospechosamente próxima al punto crítico. La teoría general de la Relatividad de Einstein nos dice que un universo cuya densidad sea igual o menor que el valor crítico seguirá expandiéndose indefinidamente: será un cosmos abierto. Por el contrario, si la densidad del universo fuese superior, la expansión acabaría por detenerse y sería seguida por una fase de contracción, que terminaría en el "Big Crunch" (el gran aplastamiento), con unas propiedades muy semejantes a las del Big Bang. Tendríamos, en tal caso, un cosmos cerrado. Para los científicos, el cosmos abierto presenta un problema: tuvo un principio, antes del cual no se sabe qué ocurrió, si es que la palabra "antes" tiene sentido en este contexto, pues el tiempo es parte del universo y comenzó a existir con él. Para los creyentes, el problema se resuelve con facilidad recurriendo a un Dios creador, pero ésta es una solución que los ateos jamás aceptarán. Durante algún tiempo, a lo largo del siglo XX, buscaron refugio en el cosmos cerrado, que -aducían- podría haber existido siempre, sin principio ni fin. En efecto, si la fase de contracción terminara en un rebote, cada Big Crunch se convertiría en el siguiente Big Bang y el universo podría ser cíclico.

El cosmos cerrado también presenta problemas. Su densidad tendría que ser apenas superior a la crítica, pues, si fuese un poco mayor, el universo habría comenzado a contraerse en seguida y no habría habido tiempo para la aparición de la vida y del hombre. En la actualidad, los datos disponibles parecen indicar que la tasa de expansión del universo puede ser exactamente igual al valor crítico, con lo que un cosmos cerrado quedaría excluido. Por otra parte, durante la década de los noventa se ha descubierto que la expansión del universo parece estar acelerándose, lo que aleja aún más la posibilidad de que la expansión pueda llegar a invertirse. Este descubrimiento ha obligado a resucitar la famosa constante cosmológica de Einstein, que introdujo en la primera versión de sus ecuaciones, aunque posteriormente prescindió de ella. La suma de todos los argumentos anteriores y otros muchos semejantes, que sería demasiado prolijo enumerar aquí, adquiere un peso abrumador. Vivimos en un cosmos en el que las leyes físicas parecen sintonizadas de forma extraordinariamente crítica para hacer posible la aparición de la vida y del hombre. ¿Por qué? Para los creyentes, la cosa tiene fácil explicación: un Dios creador ha diseñado el universo. ¿Qué sentido habría tenido crear un universo estéril? Partiendo de esta hipótesis, no resulta sorprendente, sino más bien evidente, que las leyes físicas estén ajustadas para obtener ese objetivo. Para contrarrestar esta hipótesis, los físicos aducen una explicación alternativa: los universos múltiples. Si existiesen infinitos universos, cada uno con leyes distintas, la vida habría aparecido únicamente en uno o en unos pocos, precisamente en aquéllos cuyas leyes la hacen posible. Obviamente, nosotros sólo podemos existir en uno de esos universos. Nuestra existencia sería consecuencia de la casualidad, no del diseño. Desde mediados del siglo XIX ha tenido lugar una curiosa evolución en las discusiones entre creyentes y ateos, a propósito del principio de la parsimonia, también llamado Navaja de Occam. Este principio, una de las armas más potentes y eficaces de la ciencia, afirma que "non sunt multiplicanda entia praeter necessitatem", es decir, aconseja reducir al mínimo el número de causas, objetos o entes a los que hay que recurrir para explicar un fenómeno. Antes de la nueva forma adoptada por el argumento del diseño, los ateos acusaban a los creyentes de transgredir el principio de la parsimonia. ¿Por qué recurrir a un Dios creador para explicar el origen del universo, por qué introducir un ente innecesario, si es más fácil afirmar que el universo apareció sin causa alguna, espontáneamente? La explicación de los creyentes precisaba de dos entes: un Dios creador y un universo. La de los ateos, de uno solo: un universo sin Dios. Los físicos partidarios de la teoría de los universos múltiples suelen comparar la aparición espontánea de universos en el seno de la nada con la aparición

espontánea de partículas en el vacío. Esta comparación, que a primera vista parece lógica, encierra un profundo error. El vacío es muy diferente de la nada. El vacío existe, tiene propiedades, posee dimensiones espaciales que pueden medirse y su estado varía en función del tiempo. La nada, en cambio, como indicó Bergson, no puede tener propiedad alguna, ni siquiera la existencia. ¿De lo que no existe, nada puede surgir? Lo peor de las teorías de los universos múltiples, tanto la que trata de explicar el principio antrópico, como la que se basa en la bifurcación cuántica, es que es imposible demostrarlas.

Por definición, el universo comprende todo lo que está de algún modo al alcance de nuestros experimentos y excluye todo lo demás. Incluso el espacio y el tiempo son propiedades de nuestro cosmos: los espacios y los tiempos de otros universos, si existen, nos son (y probablemente nos serán siempre) inaccesibles. Cualquier afirmación que se haga sobre ellos es indemostrable por el momento. Por lo tanto, cuando los partidarios de los universos múltiples presentan esta teoría como una alternativa científica a la creación por un ser divino, ¿cometen un abuso de lenguaje?. Si hablasen de alternativa filosófica o metafísica, el argumento sería aceptable, pero perdería fuerza, ya que la hipótesis creacionista también pertenece a ese campo. Es curioso constatar que, al abrazar la teoría de los universos múltiples, los científicos ¿adoptan una

posición defensiva, pues tienen la sensación de que la alternativa (un solo universo) les forzaría a aceptar la existencia de Dios? La teoría de los universos múltiples, si fuese cierta, no excluiría necesariamente la existencia de Dios. Los físicos siguen creando teorías, a cuál más imaginativa, que parten de la existencia de universos múltiples como si se tratara de un hecho comprobado. Una de ellas (la teoría M) combina dos objetos indemostrados actualmente (las supercuerdas y los universos múltiples) para explicar lo que ocurrió antes del Big Bang, en el origen del universo. La teoría de las supercuerdas es compleja. Su forma más extendida requiere la existencia de nueve o diez dimensiones espaciales en el universo en que vivimos. Además de las tres que conocemos, habría que añadir otras seis o siete. La curvatura del universo a lo largo de esas dimensiones adicionales sería tan grande, que su longitud total sería más pequeña que el núcleo de un átomo. Con los instrumentos de que disponemos, es totalmente imposible detectarlas. Según la teoría M, los bloques básicos de la materia y la energía serían aún más diminutos que los quarks y los leptones, que actualmente gozan del carácter de "partículas elementales". Habría dos tipos de estos bloques básicos: filamentosos unidimensionales (las supercuerdas) y membranosos pdimensionales (llamados "branas"). Ninguno de ellos ha sido detectado. Para explicar el origen del universo, algunos físicos proponen que ciertas branas podrían flotar en una nueva dimensión espacial desconocida. Si dos de ellas colisionasen, podrían fundirse entre sí, dando lugar al Big Bang y a la aparición de un nuevo universo. Nuevamente, como en los ejemplos anteriores, todas estas teorías se basan en matemáticas coherentes, pero alejada de la realidad y de la experimentación. ¿La Física se convierte en Metafísica?

Javier de Lucas

You're Reading a Free Preview

Descarga
scribd
/*********** DO NOT ALTER ANYTHING BELOW THIS LINE ! ************/ var s_code=s.t();if(s_code)document.write(s_code)//-->