Está en la página 1de 75

Desde mediados del siglo xx, la investigación científica

cuenta con nuevos y poderosos aliados: los ordenado-


res digitales y la simulación numérica. No hay rama de
la ciencia que no se haya visto revolucionada por estas
nuevas herramientas. Ya sea para entender la estruc-
tura del universo a gran escala, la evolución del estado
de la atmósfera, las dinámicas de la vida o la inteligen-
cia humana, los ordenadores nos permiten jugar con
la realidad para estudiarla y comprenderla. Las ecua-
ciones, nuestros modelos matemáticos del universo y
la naturaleza, cobran vida en los chips de silicio de los
ordenadores digitales y recrean una imagen aproxima-
da del mundo, un retrato que podemos examinar. Así
avanza nuestro conocimiento, sobre el cálculo veloz y
automático de millones de operaciones matemáticas,
una simulación tras otra.

Vicent Botella i Soler es doctor en Física y escritor.


UNIVERSOS
SIMULADOS
La creación de un cosmos
algorítmico
SUMARIO

Introducción 7

01 J ugar con la re a lidad 13

02 Galaxias y nubes 41

03 Simular la vida 75

04 La inteligencia a rtificial a e s cena 111

Lectu ras recome ndadas 135

Índice 137
INTRODUCCIÓN

n el Museo de la Ciencia y de la Industria de Mánchester, en


E el Reino Unido, se conservan algunos telares mecánicos origi-
nales de los que poblaban las primeras grandes fábricas textiles y
que fueron protagonistas de la Revolución Industrial del siglo XIX.
El visitante puede observar algunos de ellos en funcionamiento,
como un telar que produce intricados bordados con el método de
Jacquard, un sistema de tarjetas perforadas que determinan el pa-
trón del bordado y la secuencia de movimientos necesarios para
producirlo de manera completamente mecánica. Este sistema se
considera precursor o inspiración de los ordenadores modernos.
Las tarjetas perforadas del telar actúan como una secuencia de ins-
trucciones, podríamos decir que un algoritmo primitivo, mediante
el que ordenamos al telar que haga por nosotros una serie de ope-
raciones y dibuje con el hilo sobre la tela una imagen de la realidad.
Los ordenadores, que la revolución digital del siglo xx ha con-
vertido en un elemento fundamental de nuestra economía y nues-
tra vida cotidiana, son en esencia máquinas capaces de ejecutar
órdenes (operaciones lógicas y matemáticas) a gran velocidad. Los

17
seres humanos hemos aprendido a describir la realidad con ecua-
ciones matemáticas y los ordenadores son las herramientas que
hemos desarrollado para investigar y simular la realidad usando
estas ecuaciones. Desde los trabajos pioneros de Alan Turing y
el matrimonio Von Neumann en la primera mitad del siglo XX y el
desarrollo de los primeros ordenadores (como el famoso ENIAC, la
gigantesca máquina que suele COOiiderarse como la primera com-
putadora de propósito general totalmente digital y que ocupaba
toda una habitación), las computadoras digitales han acelerado el
progreso científico, nos han asistido en un sinfín de descubrimien-
tos y han abierto nuevos campos de investigación que hubiera sido
imposible explorar sin estas herramientas.
En una simulación, el ordenador toma un cierto modelo mate-
mático de la realidad y produce una versión de esta con la que pode-
mos jugar e interaccionar, visualizarla o modificarla. La simulación
numérica nos permite, por tanto, comprobar si nuestro modelo es
correcto (porque reproduce la realidad observada), así como explo-
rar aspectos del sistema simulado con gran libertad, como si de un
experimento se tratase.
En las ciencias físicas, los ordenadores se utilizan para enten-
der mejor procesos y sistemas a todas las escalas. Nos permiten
simular las reacciones de las partículas fundamentales y estudiar
la formación de las galaxias, calcular la trayectoria de un asteroi-
de o pronosticar el tiempo y la evolución del clima. La simulación
numérica se utiliza en cosmología para corroborar modelos e in-
vestigar alternativas posibles. Los modelos cosmológicos son con-
juntos de ecuaciones que describen el universo como un todo. Para
decidir qué modelo es mejor o cuáles son los valores exactos de sus
parámetros, la comunidad científica realiza simulaciones de la dis-
tribución de materia y energía en una gran porción del universo,
desde el Big Bang hasta el tiempo presente, y comprueba si aque-
llo que se obtiene concuerda con las observaciones experimentales
del universo presente. Las simulaciones del universo son algunas

8 1
de las más complejas y costosas que jamás se hayan realizado y nos
ayudan a entender, por ejemplo, el papel que tiene la materia os-
cura en la formación de las galaxias y en la estructura a gran escala
del universo.
Al igual que la simulación de la evolución del universo, un proble-
ma como la previsión meteorológica de precisión es impracticable
sin ordenadores, por el vasto número de operaciones matemáticas
que requiere. Para prever el tiempo hay que simular en el ordenador
un modelo de la evolución de la atmósfera lo más detallado posible,
que se ajuste a las medidas experimentales de la red de observatorios
mundial y que sea capaz de simular el futuro de manera fiable. En
1922, antes de la aparición de los ordenadores digitales, Lewis Fry Ri-
chardson, uno de los padres de la meteorología moderna, imagina-
ba en su libro Weather Prediction by Numerical Processes un edificio
fantástico, una «fábrica de pronósticos» en la que equipos de calcu-
ladoras humanas se afanarían a realizar a mano los cálculos necesa-
rios para obtener un pronóstico meteorológico global y seguirle el
ritmo a la evolución atmosférica en tiempo real. Richardson imaginó
una especie de gran teatro de forma esférica en cuyas paredes estaría
representado el mapa del mundo y cada equipo, sentado en una par-
te distinta del globo, se encargaría de hacer los cálculos necesarios
para conocer la previsión del tiempo en su región geográfica. Estimó
que serían necesarias unas 64000 personas que deberían trabajar
sin pausa para conseguir obtener un pronóstico meteorológico útil.
Aunque el ingenioso sueño de Richardson nunca se llevó a cabo,
hasta la aparición de los ordenadores, otros proyectos científicos que
demandaban largos y tediosos cálculos numéricos sí recurrieron a
grandes equipos humanos formados casi exclusivamente por muje-
res. Es el caso de las «computadoras» humanas de la agencia espa-
cial NASA, que efectuaban cálculos aerodinámicos y orbitales para
el programa espacial, o el de las criptógrafas de Bletchley Park, que
se dedicaban a descodificar los mensajes cifrados del ejército nazi
durante la Segunda Guerra Mundial.

1 9
Hoy en día, todos los cálculos necesarios para un problema como
la previsión meteorológica se realizan con los chips de silicio de los
ordenadores. Gobiernos y centros de investigación de todo el mun-
do construyen superordenadores -auténticos mastodontes digi-
tales que están formados por miles de ordenadores más pequeños
interconectados que trabajan de manera coordinada- albergados
en grandes habitaciones refrigerada~ y que se dedican al cálculo de
miles de millones de operaciones matemáticas por segundo para
atacar los problemas más complicados y costosos.
Las ciencias de la vida, que en el último siglo han transitado
hacia el ámbito de las disciplinas cuantitativas y hacen un uso
cada vez mayor de modelos matemáticos, también se han visto re-
volucionadas por los beneficios de la tecnología digital. Mediante
la simulación conseguimos, por ejemplo, entender las propieda-
des y dinámicas de los elementos básicos de la vida a nivel mole-
cular, como el plegamiento de proteínas, que resulta esencial para
comprender enfermedades neurodegenerativas o diseñar fárma-
cos nuevos. Abordamos también otros sistemas más complejos,
como virus y células enteras, para entender sus propiedades, las
dinámicas de interacción entre sus partes y procesos, así como
con su entorno. En el caso de los virus, por ejemplo, simular las
propiedades físicas de estos y su interacción con la célula que in-
fectan, nos permite explorar posibles debilidades y vías para com-
batirlos. En neurociencia, el campo que se orienta al estudio del
sistema nervioso, existen grandes proyectos internacionales dedi-
cados a simular un cerebro entero, desde el relativamente humil-
de sistema nervioso del nematodo Caenorhabditis elegans (que
está constituido por poco más de trescientas neuronas), al cerebro
humano, que cuenta con más de 1011 neuronas y 1014 conexiones
sinápticas. En todos los casos se busca aprender construyendo:
crear una simulación numérica nos obliga a comprender todos los
detalles relevantes del sistema que nuestro modelo matemático
debe considerar.

10 1
Por otro lado, y guardando cierta relación con la neurociencia,
en los últimos años hemos asistido a un renacer de la investiga-
ción en inteligencia artificial gracias al éxito demostrado por algu-
nos algoritmos de aprendizaje de máquinas como las redes neuro-
nales artificiales. Estos algoritmos de aprendizaje automático se
alimentan de grandes cantidades de datos reales para aprender a
ejecutar una cierta tarea, como puede ser identificar a personas en
una fotografía, jugar al ajedrez o recomendar productos a clientes
de una tienda online. De este modo, no hemos de programar explí-
citamente qué queremos que haga el ordenador, sino que le damos
las órdenes necesarias para que aprenda por sí mismo a encontrar
patrones, reglas o estrategias adecuadas. Hemos conseguido así
simular aspectos de la inteligencia humana, e incluso superarla;
hemos creado algoritmos mejores que cualquier Horno sapiens en
actividades tan complejas como, por ejemplo, el milenario juego
del go. Además, los algoritmos de inteligencia artificial encuentran
un sinfín de aplicaciones industriales y están detrás de nuevos de-
sarrollos como los asistentes de voz, que reconocen y entienden el
habla humana, o los vehículos autónomos, que hacen uso de algo-
ritmos de visión por ordenador para conseguir circular de manera
segura sin asistencia humana. El progreso de la investigación en
inteligencia artificial y la explosión de aplicaciones que la aprove-
chan de un modo u otro han resucitado incluso la preocupación
por la singularidad tecnológica: ese hipotético momento en el que
las máquinas, dotadas de una inteligencia superior a la de los seres
humanos, podrán mejorarse a sí mismas, independizarse de sus
creadores humanos y cambiar radicalmente el paisaje de la civili-
zación humana. La singularidad tecnológica está, sin duda, muy
lejos, pero lo que puede no estarlo tanto es la automatización me-
diante algoritmos de inteligencia artificial y robótica de muchas
tareas y trabajos que hoy realizan personas.
Finalmente, el progreso tecnológico, especialmente por lo que
refiere al hardware, con avances-en campos como la ciencia de ma-

1 11
teriales, la computación cuántica o la computación biológica, ha-
cen prever que nuestra capacidad de simular la realidad aumentará
de un modo continuado en el futuro gracias a la aparición de orde-
nadores mejores y más potentes. Podremos simular sistemas cada
vez más complejos y a un nivel de detalle mayor, desvelar conoci-
miento nuevo y desarrollar aplicaciones novedosas. Como los tela-
res de la Revolución Industrial, nuestros ordenadores y algoritmos
han transformado la sociedad. El poder de simular la realidad (el
universo, la vida, la inteligencia humana) espolea esta revolución,
que sigue en marcha.

12 1
01 JUGAR CON LA REALIDAD

La aparición de los ordenadores desató


una revolución científica sin precedentes
al darnos el poder de simular la realidad.
La simulación por ordenador es hoy una
herramienta esencial de la investigación
científica. En el futuro, nuevos desarrollos
nos permitirán simular y desentrañar
aspectos de la realidad que ahora nos
son inaccesibles.
- f
t
iremos a nuestro alrededor, ¿qué vemos? Sin duda habremos
M visto infinidad de átomos y moléculas organizados de algún
modo particular: un árbol, un coche, un armario, una persona o una
multitud. Si hemos podido ver todo eso es porque millones de foto-
nes, cuantos de energía llegados del sol o salidos de una bombilla,
en su azaroso rebotar de una cosa a la otra han acabado entrando
por nuestra pupila y excitando las neuronas fotosensibles de nuestra
retina. Esto no es una simple anécdota. El universo es eso, siempre y
en todas partes: materia y energía en constante interacción. Enten-
der toda la diversidad y complejidad de fenómenos que emergen de
esa interacción es la vocación de la ciencia. Buscamos desvelar las
leyes naturales que rigen el comportamiento de la realidad a todas
las escalas, desde las partículas fundamentales al universo en su to-
talidad pasando por la complejidad de la materia viva.
Una herramienta fundamental en esta labor científica de explora-
ción y descubrimiento son las matemáticas. Galileo Galilei dijo que
el universo está escrito en lenguaje matemático y los siglos posterio-
res han demostrado con creces su afirmación. Las matemáticas nos

Jugar con la realidad 1 15


permiten describir con precisión la realidad, a través de ecuaciones
que se ajustan a nuestras observaciones y experimentos. Las grandes
teorías de la física como la teoría de la gravedad de Isaac Newton,
el electromagnetismo, la teoría de la
Estamos llegando relatividad o la mecánica cuántica son
al punto en el cual todas teorías matemáticas, escritas en
los problemas que ecuaciones. Otras disciplinas, como la
deberemos resolver biología o la medicina, también hacen
serán irresolubles sin ya un uso rutinario de las matemáticas
ordenadores. para describir y estudiar, por ejemplo,
lsAAc As1Mov los procesos de regulación genética o la
propagación de epidemias.
La llegada de los ordenadores, con su fantástica capacidad de
realizar cálculos velozmente, ha abierto nuevos horizontes en el
estudio matemático de la realidad. Ecuaciones y problemas antes
imposibles, ahora se dejan estudiar, calcular y visualizar con faci-
lidad. Ahora podemos simular la realidad, reproducir fenómenos
reales en un ordenador y jugar con ellos, observarlos, cambiar sus
propiedades y empujarlos hacia el futuro para ver su evolución. En
nuestros ordenadores observamos partículas elementales en coli-
sión, pronosticamos tormentas y queremos simular la inteligencia.
Recreamos, en chips de silicio, los orígenes del universo y su histo-
ria de millones de años. Reproducimos para entender. El ingenio
humano no descansa.

LOS INICIOS

Las primeras formulaciones matemáticas de leyes físicas en el


siglo xvn, con las leyes de Newton de la dinámica y la gravedad
como ejemplo paradigmático, desataron una auténtica euforia en
la comunidad científica por su gran poder descriptivo y predictivo.
Esta euforia se refleja claramente en la famosa cita de Pierre-Simon

16 1 Jugar con la realidad


Laplace que, en su Ensayo.filosófico sobre las probabilidades (1814),
escribió: «Una inteligencia que, en un momento dado, conociera
todas las fuerzas que ponen en movimiento la naturaleza y la situa-
ción de todos los entes que la componen, si además fuera suficien-
temente vasta como para someter a análisis estos datos, resumiría
en una misma fórmula los movimientos de los cuerpos más gran-
des del universo y los del más pequeño átomo; nada sería incierto
para ella, y el futuro, así como el pasado, se presentarían ante sus
ojos». Como bien dice la cita, esta hipotética «inteligencia», cono-
cida popularmente como el demonio o genio de Laplace, aun cono-
ciendo todas las leyes naturales que rigen el universo, necesitaría
ser «suficientemente vasta» para lidiar con la ingente cantidad de
datos y cálculos que el problema requiere. Laplace sabía que inclu-
so problemas más humildes presentaban el obstáculo de larguísi-
mos y tediosos cálculos.
Afortunadamente, en la misma época en la que Laplace publi-
có su ensayo, Charles Babbage, un matemático inglés, concibió
el diseño de los primeros modelos de ordenadores. Se trataba de
máquinas puramente mecánicas, sin ningún componente eléc-
trico, que se podían programar mediante tarjetas perforadas para
realizar secuencias de cálculos matemáticos. Babbage nunca lle-
gó a completar la construcción de sus máquinas (la máquina di-
ferencial y la máquina analítica) pero se ha comprobado que sus
diseños eran absolutamente correctos. Ada Lovelace, matemática
coetánea de Babbage e hija del poeta lord Byron, desarrolló algo-
ritmos para estas máquinas de calcular y es considerada por al-
gunos como la primera programadora informática de la historia.
Ya en el siglo XX, Alan Turing crearía el primer modelo teórico de
ordenador programable, la famosa máquina de Turing, y senta-
ría las bases de la computación moderna. Poco después, John von
Neumann, matemático estadounidense de origen húngaro, pro-
puso un esquema de los componentes esenciales (unidad central
de procesamiento, memoria, dispositivos de entrada/salida) de

J ugar con la rea lidad 1 17


los que debería constar un ordenador de propósito general y de su
funcionamiento (fig. 1).
En la primera mitad del siglo xx, el desarrollo de los prime-
ros ordenadores electromecánicos y con posterioridad totalmen-
te eléctricos, se vio espoleado por las carreras armamentísticas
y criptográficas de la Segunda Guerra Mundial. En esa época, y
antes de la aparición de los primeros ordenadores, los proyectos
que requerían resolver numerosas y complejas ecuaciones, ne-
cesitaban contratar ejércitos de «calculadoras» humanas. El La-
boratorio de Propulsión a Chorro de la NASA, por ejemplo, em-
pleaba en la década de 1940 (y hasta bien entrada la década de
1970) a un grupo de mujeres dedicadas a la sola tarea de realizar
cálculos, lápiz en mano, para los programas de exploración es-
pacial: desde cálculos aerodinámicos para el diseño de cohetes a
cálculos de órbitas de satélites.

r F,G. 1
UNIDAD CENTRAL
DE PROCESAMIENTO
.·-----········-···--··
: Unidad de control
.

e--
•............................ .

:
Unidad
aritmética/ lógica
•..... . ..... -.. -..... -· -8
MEMORIA

La arquitectura de computadoras que propuso Von Neumann refleja los


componentes esenciales de los que debe constar un ordenador de propósito
general y las relaciones entre estos para su funcionamiento.

18 1 Jugar con la realidad


El primer gran ordenador programable que se usó para fines cien-
tíficos fue el ENIAC (acrónimo inglés de cornputadora e integrador
numérico electrónico). Instalado en la
Universidad de Pensilvania en 1946, Hoy en día, un
ocupaba un total de 167 m 2, pesaba unas teléfono móvil tiene
27 toneladas y su programación corría a más potencia de
cargo de seis mujeres, las famosas pro- ordenador que toda
gramadoras del ENIAC. Diseñado ori- la NASA en 1969,
ginalmente para calcular trayectorias cuando llevó dos
balísticas para la armada americana, astronautas a
el ENIAC era miles de veces más rápi- la Luna.
do que un humano en esta tarea. John M1cH10 KAKu

von Neumann, Nicholas Metropolis y


Stanislaw Ulam emplearon el ENIAC para realizar algunas de las pri-
meras simulaciones con objetivos científicos, como la simulación de
reacciones termonucleares o los primeros pronósticos meteorológi-
cos por ordenador.
Durante la segunda mitad del siglo XX, las mejoras en el diseño
de los ordenadores se sucedieron rápidamente. Los avances en fí-
sica de semiconductores y electrónica permitieron reducir el tamaño
de los ordenadores y sustituir los aparatosos circuitos con tubos de
vacío por circuitos integrados. En 1965, Gordon Moore, un ingeniero
estadounidense que años después fundaría la compañía Intel, previó
que el número de transistores en un circuito integrado se duplicaría
cada dos años y que su coste se abarataría también de manera expo-
nencial. Es decir, cada vez se podría poner más potencia de cálculo
en un espacio más pequeño y de forma más económica. Su previsión
se cumplió y la progresiva miniaturización y reducción de costes ci-
mentó la revolución digital que ya en la década de 1980 empezó a
poner un ordenador en cada casa. Mientras niños, familias y trabaja-
dores de todo el mundo se familiarizaban con procesadores de texto,
hojas de cálculo y el juego del solitario, la comunidad científica se
lanzaba a explotar la veta de nuestra acelerada capacidad de simular

Jugar con la realidad 1 19


la realidad. Lo que antes era el privilegio de unos pocos con acceso a
ordenadores institucionales del tamaño de una habitación, ahora se
puede hacer en un ordenador personal de sobremesa.
A día de hoy, una gran parte de la población mundial vive inmer-
sa en una realidad dominada por las tecnologías digitales y consume
simulaciones constantemente: en forma de pronósticos meteoroló-
gicos, como videojuegos o películas de animación que simulan las
leyes físicas del mundo real u otras distintas, como pronósticos fi-
nancieros y análisis de riesgo, o al entrar en edificios cuya estructura
se simuló primero en un ordenador.

MODELOS Y SIMULACIONES

Sea cual sea el sistema (un átomo, una célula, un cohete) que quera-
mos simular, todo empieza por tener un modelo matemático de dicho
sistema. Un modelo no es más que un conjunto de ecuaciones que
describen de manera aproximada las relaciones entre las variables
del sistema. Por ejemplo, si lanzamos una piedra desde una torre,
las leyes del movimiento de Newton son el modelo matemático que
nos dice cómo cambian la posición y velocidad de la piedra a cada
instante en función de su posición y velocidad iniciales y de la ace-
leración de la gravedad. Si lo que queremos es describir el funciona-
miento del cerebro a nivel neuronal, necesitaremos las ecuaciones
que rigen el funcionamiento de las neuronas y su interacción mutua.
Cuando convertimos un modelo matemático en un programa
informático y reproducimos el comportamiento del sistema (la caí-
da de la piedra desde la torre o la actividad neuronal) en un ordena-
dor, decimos que hemos hecho una simulación del sistema (fig. 2).
Como bien saben los estudiantes de educación secundaria, para
el ejemplo concreto de la piedra que cae, no se necesitaría ningu-
na simulación. Este es un problema que se resuelve fácilmente con
lápiz y papel y se puede encontrar una solución del modelo: una

20 1 Jugar con la realidad


Í FIG. 2
REALIDAD SIMULACIÓN

Las simulaciones por ordenador nos permiten reproducir la realidad y validar si


los modelos matemáticos que usamos para describir los fenómenos reales son
suficientemente correctos.

ecuación que describe explícitamente la trayectoria de la piedra en


función del tiempo. Sin embargo, problemas como este son casi una
excepción. La norma es que el modelo matemático de nuestro siste-
ma no admita una solución sencilla, como en el caso de la actividad
neuronal en el cerebro, y sea necesaria una simulación para descri-
bir su comportamiento o evolución.
Podemos imaginar un modelo matemático como una gran má-
quina mecánica con muchos engranajes que tiene como única fun-
ción dibujar en una cinta de papel continuo una línea que represen-
ta el comportamiento de un sistema. Para algunas máquinas somos

Jugar con la realidad 1 21


capaces de encontrar la solución de antemano, es decir, sabemos
cuál será la línea dibujada con solo mirar sus engranajes y mecanis-
mos, sin mover la manivela que la pone en funcionamiento. Pero
en general, solamente al mover la manivela (haciendo una simula-
ción) somos capaces de ver qué línea se dibuja (cómo se comporta
el sistema).
Imaginemos que queremos simular el movimiento conjunto
del sistema formado por la Tierra, el Sol y un pequeño asteroide
que se acerca a la Tierra. Nos interesa conocer la trayectoria que se-
guirá el asteroide y su probabilidad de impacto con la Tierra. Para
simular la evolución de cualquier sistema, hemos de empezar des-
de algún estado inicial, es decir, hemos de proveer al modelo ma-
temático con los valores numéricos iniciales de las variables del
problema que queremos estudiar. Estos valores se conocen como
las condiciones iniciales del problema y determinar su valor es a
veces un problema en sí mismo. Por ejemplo, para poder simu-
lar la trayectoria del asteroide es fundamental conocer primero
su posición y velocidad puntuales. De otro modo sería imposible
estimar su probabilidad de impacto con la Tierra. Una vez estima-
das la posición y velocidad del asteroide mediante observaciones
experimentales y dentro de un margen de error, podemos simular
su trayectoria en un ordenador y calcular progresivamente la va-
riación de la atracción gravitatoria mutua entre todos los cuerpos
del sistema y la variación de sus posiciones y velocidades en el
tiempo (fig. 3).
Problemas de este tipo (e incluso otros más sencillos) pueden re-
querir millones de operaciones matemáticas, imposibles de llevar a
cabo por un humano en un tiempo razonable. Por este motivo, has-
ta la aparición de los ordenadores digitales nos tuvimos que limitar
a estudiar aquellos sistemas y modelos que podíamos resolver lápiz
en mano.
Afortunadamente, el desarrollo de los ordenadores, que calcu-
lan por nosotros a gran velocidad, nos ha permitido ampliar nues-

22 1 Jugar con la realidad


í F1G.3
Asteroide
(posición y velocidad puntua~

Trayectoria
simulada

Sol

La simulación da una trayectoria con una incertidumbre asociada que aumenta cuando
nos alejamos de las condiciones iniciales conocidas. En la ampliación se indica, en
negro, la trayectoria simulada en que la probabilidad de impacto del asteroide con la
Tierra es alta; mientras que es casi nula en la trayectoria de trazo gris.

tros horizontes inquisitivos y estudiar problemas antes impractica-


bles. Ahora podemos estudiar el movimiento conjunto de todos los
planetas y satélites del sistema solar, hacer previsiones meteoroló-
gicas con gran detalle o calcular todas las interacciones entre los
diferentes genes y proteínas de una sola célula.
La incorporación de la tecnología digital y la simulación por or-
denador al esfuerzo científico ha supuesto una revolución de am-
plísimas consecuencias con efectos directos en nuestra vida diaria.
No hay rama o campo de la ciencia que no se beneficie del uso de
estas herramientas, y hay algunas áreas de investigación que senci-

Jugar con la realidad 1 23


llamente no existirían si no fuera por nuestra recién adquirida ca-
pacidad de simular la realidad.

SIMULAR PARA ENTENDER

Para entender mejor los elementos y procesos esenciales de una


simulación podemos jugar a un juego. Imaginemos una cuadrícu-
la tan ancha como la página e infinitamente larga. Al empezar el
juego, la cuadrícula está vacía y en la primera fila pintamos de ne-
gro algunas casillas al azar. El juego consiste en rellenar las filas si-
guientes de manera consecutiva siguiendo una regla. Decidiremos
el color de cada casilla de una fila según el patrón de color de los
tres recuadros vecinos de la fila superior (fig. 4). Este juego es un
ejemplo clásico de los llamados autómatas celulares, introducidos
por Ulam y Von Neumann en la década de 1940 mientras investi-
gaban el crecimiento de cristales, la dinámica de fluidos o los siste-
mas autorreplicantes.
Existen 256 reglas posibles para este autómata celular. Dada una
cierta regla de evolución, nos podríamos preguntar: ¿qué aspecto
tendrá la cuadrícula cuando hayamos rellenado un gran número
de filas? ¿Surgirá algún patrón geométrico distinguible? ¿Cuál será
el patrón de color de la fila 2406? Para muchas de las 256 reglas, la
única manera de contestar a nuestras preguntas sobre sus estados
futuros es rellenar la cuadrícula fila por fila, es decir, simular el sis-
tema. Este problema tan sencillo contiene los elementos esenciales
de simulaciones más sofisticadas: partiendo de una condición ini-
cial (fila 1), aplicamos un modelo matemático (regla del autómata
celular) para reproducir y observar la evolución del sistema.
Es interesante remarcar que, a pesar de su simplicidad, estos
autómatas celulares y otros más complejos, como aquellos definidos
en cuadrículas bidimensionales, han encontrado múltiples aplica-
ciones como modelos de procesos naturales: desde los patrones de

24 1 J ugar con la realidad


r FIG. 4

REGLA DEL AUTÓMATA CELULAR

Fila 1 - ..:=i ll=a a::IJ OIII [IJ IT:11 ITIJ


♦ + ♦ + ♦

FUa1-
Fila 2 ■ 0 ■ ■ 0 ■ ■ ■

Fila 2

La evolución de un autómata celular según la regla 183 a partir de una condición


inicial aleatoria da lugar a un patrón complejo. imposible de prever de antemano.

pigmentación de algunos moluscos a la dinámica de excitación de


las células cardíacas.

EL ARTE DE APROXIMAR

Los autómatas celulares que acabamos de encontrar son sistemas


discretos: su estado solo admite dos valores, blanco o negro, y su

Jugar con la realidad 1 25


evolución se sucede en pasos, en filas. En este sentido, se parecen
bastante a un ordenador. Los ordenadores son sistemas discretos
(¡digitales!) por diseño. En su nivel más fundamental, un ordenador
es una máquina que lee y escribe ceros y unos en pasos discretos,
como las casillas blancas y negras que el autómata celular escribe
fila a fila. Los ceros y unos del ordenador representan números en
código binario e instrucciones que rigen su funcionamiento. Con
estos números binarios el ordenador puede realizar en su unidad
de procesamiento un pequeño repertorio de operaciones aritméti-
cas y lógicas sencillas, como sumar dos números. Cualquier algorit-
mo que realice un ordenador, por complejo que este sea, se reduce
a una serie ordenada y discreta de estas sencillas operaciones.
En nuestra realidad física, sin embargo, abundan los sistemas
continuos. El tiempo fluye de manera continua e infinitamente di-
visible (aunque la percepción del tictac del reloj parezca decirnos lo
contrario). Así, también la piedra que cae de la torre lo hace siguien-
do una trayectoria continua, y no saltando de una posición a otra.
El método más común para describir la dinámica de sistemas con-
tinuos es el cálculo diferencial, inventado por Newton y Leibniz, de
manera paralela, en el siglo XVII. La invención del cálculo diferencial
fue revolucionaria, y ha sido la herramienta fundamental de todas
las grandes teorías físicas desde entonces. Una ecuación diferencial
(o un conjunto de estas) <;!escribe cómo los cambios en unas variables
del sistema se traducen en cambios en el resto de variables.
Un ejemplo sencillo de ecuación diferencial sería:
dx
- =v(t )
dt

que podemos interpretar como: la velocidad ven cada instante t es


el espacio recorrido (dx) en un intervalo de tiempo muy corto (dt)
alrededor del instante t. Todas las variables involucradas en esta
ecuación (posición, velocidad y tiempo) son continuas. Encontrar
una solución a esta ecuación diferencial («integrarla», en el argot

26 1 Jugar con la realidad


>UNA NUEVA GEOMETRÍA
Uno de los campos de investigación científica que se desarrolló gracias
a la aparición de los ordenadores es el estudio de los objetos fractales.
Estas figuras geométricas autosemejantes se definen por algoritmos
iterativos simples y pueden aparecer también al simular ciertos sistemas
dinámicos. El conjunto de Mandelbrot se define a partir de la ecuación
iterada zn., = z/ + e, donde tanto z como e son números complejos. Para
un cierto valor de e, partimos desde el valor inicial z0 = Oy obtenemos z1, y
con este un z2, y así sucesivamente; si esta secuencia de números no di-
verge [se mantiene dentro de un rango de valores). entonces decimos que
e pertenece al conjunto de Mandelbrot. Construir una imagen detallada
de este fractal que capture su inmensa complejidad requiere millones de
cálculos: para cada número complejo e, hay que iterar la secuencia miles
de veces. El progreso de los ordenadores, y especialmente las mejoras
gráficas que nos permitieron visualizar estos bellos objetos, hizo de la
geometría fractal un campo muy popular a partir de 1970.

- Representación del conjunto de Mandelbrot.

27
habitual) quiere decir obtener una expresión explícita de la posi-
ción x en función del tiempo. Si la velocidad en la ecuación anterior
es constante y no depende del tiempo, la solución de la ecuación es
sencilla y toma la forma:

x(t) =vt+ x 0

donde x 0 es la posición en el instante t = O. Si, por el contrario, la ve-


locidad depende del tiempo de forma compleja, es posible que no
podamos resolver la ecuación por métodos analíticos y exactos. En
ese caso, para obtener la trayectoria x(t), debemos emplear méto-
dos numéricos. Un método numérico es un algoritmo matemático
que nos permite encontrar una solución aproximada a un proble-
ma de difícil solución a través de una serie de operaciones simples.
El método de Euler es uno de los métodos numéricos más bá-
sicos para la solución de ecuaciones diferenciales. Tomemos la
ecuación diferencial de nuestro ejemplo. El método de Euler con-
siste en sustituir el incremento de tiempo infinitesimal dt por un
incremento finito de tamaño h. Con esta sustitución, la ecuación
quedaría:

x (t+h )- x (t ) =v(t)
h
o lo que es lo mismo: x (t+h)=x(t )+h·v(t ).
Esta es una expresión explícita de la posición x en función
del tiempo que nos permite calcular la posición x sucesivamen-
te en un conjunto de puntos discretos a lo largo del tiempo y se-
parados por un intervalo h. Es decir, la trayectoria se calcula pro-
gresivamente partiendo de las condiciones iniciales en pasos de
tamaño h. Por ejemplo, conocidas x(O) y v(O), podemos calcular
x(h) =x(O)+h -v(O). Conocidax(h),calculamos x (2h ) = x (h )+h· v(h ),
y así sucesivamente (fig. 5). Por lo tanto, para llegar a conocer la tra-
yectoria en el tiempo 100h hemos de repetir este proceso 100 veces.

28 1 Jugar con la realidad


r FJG.5
X X

\
1

.____,_.... 'v'
h h

En trazo sólido se muestra la trayectoria real ly desconocida] del sistema. Los


puntos son la trayectoria simulada por el método de Euler en instantes separados
por un paso de tamaño h. Cuanto menor es h. mejor es la aproximación.

Métodos algorítmicos como el de Euler, por su carácter iterativo,


se pueden programar fácilmente en ordenadores digitales. Por otro
lado, conviene enfatizar el hecho de que la solución que se obtiene
es solo una aproximación, dado que el método supone que la velo-
cidad entre el instante t y t + h se mantiene constante en su valor
v(t). En general, el error de esta aproximación crece a medida que
progresamos en la trayectoria y nos alejamos de la condición ini-
cial. El error también depende del paso h : cuanto menor sea este,
mejor será la aproximación. Es decir, cuanta mayor precisión que-
ramos, menor ha de ser el paso h, y mayor el número de operacio-
nes a realizar para reconstruir toda la trayectoria. Es fácil imaginar
que, a medida que buscamos resolver problemas más complejos,

Jugar con la realidad 1 29


el número de operaciones a realizar se adentra en la espesura de lo
impracticable, si no contamos con un ordenador.
Es habitual que las simulaciones de sistemas físicos hagan
uso de métodos numéricos (similares en su naturaleza al méto-
do de Euler pero mucho más sofisticados) para integrar sistemas
de ecuaciones diferenciales y obtener la evolución en el tiempo de
sus variables. Toda simulación es por tanto una aproximación
numérica, y su precisión máxima dependerá de la potencia de
cálculo del ordenador. A la hora de llevar a cabo cualquier simu-
lación, ha de encontrarse un equilibrio entre la precisión que se
desea alcanzar y el tiempo de cómputo necesario para alcanzarla.
De ahí que simular sea, en gran parte, el arte de encontrar buenas
aproximaciones.

LA SIMULACIÓN CIENTÍFICA

A día de hoy, las simulaciones por ordenador se han convertido en


un elemento fundamental en todos los campos de la ciencia. El or-
denador es una herramienta indispensable, y a menudo, el vehícu-
lo principal de la investigación científica. Tanto es así que en los
artículos científicos es habitual encontrar observaciones hechas in
silico que, por analogía con in vivo, in vitro o in situ, es el término
acuñado para referirse a las simulaciones numéricas.
En física se hacen simulaciones para entender la formación
de las galaxias y de los sistemas planetarios, el cambio climático,
colisiones de partículas elementales o las propiedades de nuevos
materiales. En ingeniería se simulan estructuras para evaluar su
resistencia o sus propiedades aerodinámicas. En neurociencia se
puede simular el comportamiento de una sola neurona o el de mu-
chas neuronas en interacción, para mejorar nuestra comprensión
del funcionamiento del sistema nervioso. En biología, las simula-
ciones nos ayudan a explorar el funcionamiento celular, a desarro-

30 1 Jugar con la realidad


>SIMULAR EL AZAR
Los ordenadores son máqui-
nas deterministas. Es decir,
su funcionamiento, el curso
de las operaciones que rea-
lizan, sigue reglas estrictas
y no deja nada al azar. En el
universo y en la naturaleza,
sin embargo, existen multi-
tud de fenómenos aleatorios,
que no siguen ningún patrón
aparente y son imprevisibles,
como por ejemplo la desinte-
gración radiactiva, las muta -
ciones genéticas o la evolu-
ción del precio de una cierta - Una ruleta de casino es, en buena
aprox1mac1ón, un generador de números
acción en la bolsa. ¿Cómo po- aleatorios reales. En los ordenadores
demos incorporar fenómenos necesitamos simular el azar.
aleatorios a nuestras simula-
ciones si los ordenadores no dejan nada al azar? La solución más extendida
son los llamados generadores de números seudoaleatorios: programas de
ordenador que son capaces de producir secuencias de números que, desde
un punto de vista estadístico, se parecen muchísimo a secuencias de núme-
ros aleatorios !como los que podría producir una ruleta de casino]. Cuando
necesitamos introducir elementos aleatorios en una simulación, llamamos
a estos generadores e incorporamos su aparente aleatoriedad al modelo.
John von Neumann ya se encontró con este problema trabajando con el
ENIAC en la década de 1940 y desarrolló uno de los primeros algoritmos
de generación de números aleatorios. Más allá de la simulación numérica ,
los números aleatorios tienen múltiples aplicaciones y son esenciales en
algoritmos de integración y optimización.

31
llar nuevos fármacos o a estudiar la dinámica de poblaciones de
animales que interaccionan en un ecosistema.
Las simulaciones numéricas por or-
En cuanto una denador cumplen diferentes funciones
máquina analítica en la investigación científica. A veces
exista, esta guiará, solo queremos explorar, observar un sis-
necesariamente, el tema para entenderlo mejor o descubrir
curso futuro de la facetas nuevas de su comportarnien-
c1enc1a. to. Tradicionalmente, ante sistemas de
CHARLES BABBAGE gran complejidad, la ciencia ha seguido
la estrategia del reduccionismo: des-
componer el sistema en sus partes fundamentales y estudiarlas por
separado. Pero ¿y si queremos estudiar el sistema en toda su com-
plejidad, teniendo en cuenta el funcionamiento simultáneo de todas
sus partes y observar su interacción? En ese caso, podemos simular
el sistema a partir de los modelos matemáticos de sus partes indivi-
duales y jugar con él, perturbarlo, observar qué sucede si modifica-
mos ligeramente ciertos parámetros, y mejorar así nuestra compren-
sión. Podemos decir que las simulaciones nos ayudan a desandar el
camino del reduccionismo, a visualizar y entender la dinámica de
sistemas complejos.
Una aplicación práctica que ilustra bien este uso es la simula-
ción de grandes redes eléctricas. Estas redes, que distribuyen la
electricidad por todo un país o continente, son vastos sistemas di-
námicos complejos y sensibles a perturbaciones que han de estar
sujetos a un control constante para asegurar su estabilidad. Simular
su funcionamiento en un ordenador es fundamental para entender
el comportamiento del sistema en diferentes escenarios (picos de
demanda, progresiva incorporación de energías renovables, etc.) y
hacer los ajustes necesarios.
En otras ocasiones, las simulaciones nos pueden ayudar a validar
nuestros modelos y observaciones. Si, por ejemplo, una simulación
no consigue replicar aquello que observamos experimentalmente,

32 1 Jugar con la realidad


es porque nuestra descripción matemática no es la adecuada y la
simulación nos puede dar pistas de dónde está el problema y cómo
solucionarlo.
El premio Nobel de Física del año 2017 recayó en los astrofísicos
Rainer Weiss, Barry C. Barish y Kip S. Thorne «por sus contribucio-
nes decisivas al detector LIGO y la observación de ondas gravitato-
rias». Estas ondas son una previsión de la teoría de la relatividad
general de Einstein y no se detectaron hasta el año 2016, cuando
el observatorio LIGO midió la perturbación en el tejido del espa-
cio-tiempo provocada por la colisión de dos agujeros negros. Para
confirmar la naturaleza y el origen de estas ondas gravitatorias se
comparó las observaciones experimentales de LIGO con simulacio-
nes por ordenador de dos agujeros negros colapsando. La concor-
dancia de la simulación con la señal de las ondas gravitatorias de-
tectadas es espectacular (fig. 6). Este es un buen ejemplo de cómo
las simulaciones numéricas nos permiten validar nuestros mode-

r FIG. 6
1.0 Datos experimentales del detector LIGO

Datos de la simulación
0.5

-,; o.o
N
6
-e

ci.
E
<et
-0.5

-1.0 - + - - - - - - - - . - - - - - . . - - - - - - - r - - - - - - - r -
0.30 0,35 0,40 0,45
Tiempo (si
Observación experimenta l de una onda gravitatoria por el observatorio LI GO !trazo
grueso ) y simulación numérica de onda gravitatoria prod ucto del colapso de dos
agujeros neg ros !t razo finol.

J ugar con la realidad 1 33


los y observaciones experimentales, y juegan un papel fundamen-
tal en los grandes descubrimientos científicos.
Finalmente, un uso a destacar de las simulaciones es la previ-
sión de la evolución futura de un sistema, como en el caso de los
pronósticos meteorológicos o la previsión de la trayectoria de un
asteroide que hemos discutido anteriormente. En estos casos, la
simulación se alimenta de datos reales, mediciones del sistema
(temperatura, humedad, velocidad del viento, etc.) que sirven para
ajustar al máximo la simulación a la situación real antes de hacer
una previsión. En finanzas, por ejemplo, se desarrollan sofisticados
modelos del mercado para prever la evolución de los precios de las
diferentes acciones en función de sus valores presentes. Y en epi-
demiología se simula la propagación geográfica de enfermedades
contagiosas para establecer las medidas necesarias e intentar con-
trolar su avance, incorporando datos y observaciones de campo a la
simulación a medida que la epidemia avanza.

LAS GRANDES SIMULACIONES

Una simulación es tan buena como bueno sea el modelo matemáti-


co que la sustenta, y a su vez, el modelo se ha de adaptar o simplifi-
car según las limitaciones tecnológicas del ordenador a nuestra dis-
posición. Dicho de otro modo, cuanto mayor sea nuestra capacidad
de cálculo, mejores serán las simulaciones que podremos realizar.
Afortunadamente, cuando la velocidad o la memoria de un or-
denador no es suficiente para una cierta simulación, se puede co-
nectar a otros ordenadores y sumar así sus potencias de cálculo.
Un superordenador es precisamente eso, un conjunto de cientos o
miles de procesadores ensamblados que trabajan de manera coor-
dinada y cuya potencia de cálculo es muy superior a la de un or-
denador personal. Aunque los ordenadores personales son capa-
ces de simular una gran cantidad de modelos, es habitual que las

34 1 Jugar con la realidad


universidades y centros de investigación construyan y mantengan
superordenadores para uso de sus investigadores, que programan
en estas máquinas simulaciones mucho más complejas y precisas.
Por poner un ejemplo, en el año 2005,
un grupo de astrofísicos llevaron a cabo Cualquiera que
la llamada simulación del Milenio, en la intente generar
que simularon la evolución del universo números aleatorios
a gran escala. En concreto, se reprodujo mediante métodos
la evolución dinámica de 10 077 696 000 deterministas
partículas en interacción gravitatoria, estará. por supuesto,
desde los inicios del universo hasta el viviendo en pecado.
presente, en un cubo de 2,23 billones de JOHN VON NEUMANN

años-luz (un año-luz es la distancia que


recorre la luz en un año) de lado. Uno de los objetivos de la simu-
lación del Milenio era estudiar cómo se forman las galaxias y en la
simulación se obtuvieron alrededor de 2 •107 galaxias con un registro
completo de toda su evolución. La simulación se realizó en un super-
ordenador del Centro de Computación de la Sociedad Max-Planck en
Garching (Alemania), usando sus 512 procesadores durante 28 días y
requirió un total de unas 5 •1017 operaciones aritméticas (¡un 5 segui-
do de 17 ceros!).
En un ejemplo más reciente, geofísicos del Instituto de Ciencias
de la Tierra de Grenoble (ISTerre) publicaron en 2017 el resultado de
la simulación más detallada hasta la fecha del núcleo externo de la
Tierra. El núcleo externo, situado entre los 2890 km y los 5150 km
de profundidad bajo la corteza terrestre, es una capa de metal lí-
quido (mayoritariamente hierro) que rodea el núcleo interno del
planeta. La rotación del núcleo externo genera el campo magnético
terrestre, el escudo esencial que protege nuestra atmósfera de los
agresivos vientos solares. Entender la dinámica del núcleo exter-
no es, por tanto, fundamental para comprender las características
del campo magnético terrestre. Usando los 16000 procesadores del
superordenador OCCIGEN en Montpellier durante varios meses,

Jugar con la realidad 1 35


los investigadores consiguieron una simulación precisa en tres di-
mensiones de la dinámica del núcleo externo, lo que les permitió
extraer conclusiones de gran valor sobre las inhomogeneidades del
campo magnético terrestre o las observaciones de su constante de-
riva hacia el oeste.
El 15 de febrero de 2013 cayó sobre la ciudad rusa de Chelyabinsk
un asteroide de unos 20 metros de diámetro y unas 13 000 tonela-
das de peso. Al entrar en contacto con la atmósfera, esta enorme
roca empezó a desintegrarse convertida en una gran bola de fuego.
La luz causada por la desintegración se vio a más de 100 km de dis-
tancia y su onda expansiva causó grandes daños e hirió a más de
1200 personas. El asteroide no fue detectado debido a su pequeño
tamaño y porque se acercó a la Tierra desde la dirección del Sol, lo
que hizo imposible una detección temprana. Para entender mejor
este tipo de fenómenos y el daño que pueden producir diferentes
tipos de asteroide, científicos de la NASA simularon recientemen-
te en el superordenador Pleiades la onda de choque del asteroide
de Chelyabinsk. Usando su sofisticado programa de simulación
aerodinámica Cart3D sobre los 245 536 procesadores de Pleiades,
se obtuvo una simulación suficientemente fiel como para ser com-
parada con los datos recogidos en Chelyabinsk por las cámaras de
seguridad en el momento del impacto. La simulación consiguió
reproducir la llegada de la onda de choque a los diferentes pun-
tos de la superficie terrestre con una diferencia de unas pocas frac-
ciones de segundo. De este modo, validamos nuestra comprensión
del fenómeno y obtuvimos información valiosa sobre los efectos del
impacto de un asteroide, necesaria para diseñar los protocolos de
emergencia adecuados.
Este tipo de grandes simulaciones, en la frontera de la investi-
gación científica, se han convertido en habituales. Además de sus
innumerables aportaciones en investigación básica, las simulacio-
nes en superordenadores son un motor de desarrollo económico y
proporcionan información de la máxima relevancia para la toma de

36 1 Jugar con la realidad


40

35

30

25
e
:!
"0 20
~
~ 15

10

o
- Arriba a la izquierda, un detalle de la llamada simulación del Milenio donde se observa
la estructura del universo a gran escala. A la derecha, s1mulac1ón del núcleo externo
terrestre en tres d1mens1ones. realizada por los científicos del ISTerre, Grenoble
(Schaeffer et al.. Geophys,cal Journal lnternational. 2017). Abajo. s1mulac1ón de la NASA
de la onda de choque de un asteroide al adentrarse en la atmósfera terrestre .

Jugar con la realidad 1 37


decisiones políticas, como en el caso de las simulaciones de cambio
climático. Prueba de esto es que las grandes potencias mundiales
compiten ahora en la carrera de la supercomputación e invierten
en superordenadores cada vez mayores con el objetivo de permane-
cer a la cabeza del desarrollo científico y tecnológico. Pero más allá
de consideraciones estratégicas, el esfuerzo técnico, económico
y de colaboración que este tipo de simulación requiere da fe, ante
todo, del poder de nuestra curiosidad y de nuestra pasión por com-
prender todo lo que nos rodea.

RETOS FUTUROS

El uso de simulaciones numéricas como herramienta de investiga-


ción científica ha supuesto una revolución en nuestra manera de
hacer ciencia, acelerando el progreso y generando nuevos campos
de investigación y aplicaciones prácticas. ¿Qué retos propone esta
revolución? ¿Hacia dónde avanzamos?
Nuestra capacidad de simular la realidad aumenta constante-
mente. En paralelo y de manera complementaria avanzamos en el
desarrollo de nuevas tecnologías y en la investigación de modelos
y algoritmos de simulación más eficientes. La computación cuán-
tica, por ejemplo, promete crear ordenadores fundamentalmente
distintos de los actuales, que basen su funcionamiento en ciertas
propiedades de la materia a escalas muy pequeñas. Además de con-
seguir simular ciertos sistemas cuánticos de gran interés que ahora
se nos escapan, los ordenadores cuánticos conseguirían aumentar
nuestra capacidad de computación hasta niveles insospechados.
En este futuro de previsibles avances tecnológicos, podremos
simular sistemas cada vez más complejos y de una manera más
realista. Seguiremos desandando el camino del reduccionismo
hacia una comprensión holística de sistemas complejos que abar-
can muchas escalas de definición. En astrofísica y cosmología se

38 1 J ugar con la realidad


>SUPERORDENADORES
En grandes salas refrigeradas, diseñadas para disipar el calor generado
por su funcionamiento, viven los ordenadores más grandes del planeta.
Sus procesadores se reparten las operaciones de manera inteligente para
trabajar en paralelo. Grandes simulaciones del clima, el universo primige-
nio o complejas dinámicas moleculares ocupan su tiempo. Y cada segundo
cuenta, pues el coste energético y económico de estas instalaciones es al-
tísimo. De hecho, es habitual que los grupos de investigación hayan de pre-
sentar proyectos solventes antes de obtener acceso a un superordenador.
La velocidad de un superordenador se mide en flops, que es la cantidad de
operaciones aritméticas por segundo que este es capaz de realizar. Desde
los inicios de la supercomputación en la década de 1960, la velocidad de los
superordenadores ha aumentado de manera exponencial. Si en el año 2000
el superordenador más rápido alcanzaba los 5 teraflops (5 • 1011 flops]. en
2008 se llegaba a la cota de 1 petaflops (10 151, y en 2017 a los 93 petaflops
[93-10 15] del superordenador chino Sunway TaihuLight. i La velocidad de
cálculo se multiplicó por 1O000 en diecisiete años!

- El superordenador chino Sunway Ta1hulight, el más rápido del mundo en 2017, con
1O649600 núcleos dentro de 40 960 procesadores, 93 petaflops de velocidad media
de cálculo y un consumo eléctrico de 153,71 kW.

39
avanza hacia simulaciones de la evolución del universo que recreen
volúmenes cada vez mayores y sean precisas en un rango de escalas
físicas cada vez mayores. En meteorología, las mejoras tecnológicas
traerán previsiones más precisas. Podríamos incluso especular con
simulaciones de todo el planeta Tierra: modelos que incluyan toda
la dinámica atmosférica y oceánica, la biosfera, la economía global y
todas sus interacciones conjuntas. O una simulación del cuerpo hu-
mano que abarcara desde la regulación genética a la función de los
diferentes órganos y pudiera servir para simular con ella el efecto de
diferentes terapias antes de usarlas en un paciente.
En los últimos años, el campo de la inteligencia artificial ha re-
surgido con nuevas energías gracias al desarrollo de las redes neu-
ronales profundas, modelos matemáticos inspirados en el funcio-
namiento del cerebro que podemos programar y entrenar para que
realicen tareas como identificar peatones y obstáculos en tiempo
real a través de las cámaras de un vehículo autónomo. Este tipo
de programas simulan aspectos o funciones de la inteligencia hu-
mana en el ordenador y prometen un futuro lleno de aplicaciones
prácticas novedosas y espectaculares.
El progreso apasionante de la simulación científica no está exen-
to de desafíos: si aumentamos la precisión de las simulaciones hasta
hacerlas tan complejas como la realidad, ¿seremos capaces de com-
prenderlas?; o ¿entender el resultado de una simulación será casi tan
complicado como entender el sistema real?; si conseguimos crear un
ordenador verdaderamente inteligente, ¿lo entenderemos?
Como en cualquier otro momento de la historia, tenemos en-
frente un horizonte abierto de descubrimientos, desafíos y apren-
dizaje. Nosotros, simios inteligentes que habitamos una roca como
cualquier otra en la periferia de una de tantas galaxias, nos hemos
dotado de unas fabulosas herramientas, máquinas electrónicas de
cálculo, en las que reproducimos trozos de realidad para entender-
los. Nos guía aquella frase que Richard Feynman dejó escrita en su
pizarra: «No entiendo aquello que no puedo crear».

40 1 Jugar con la realidad


02 GALAXIAS Y NUBES

Las ciencias físicas usan simulaciones para


atacar todo tipo de problemas. Hay dos que
destacan por su complejidad y tamaño: la
formación de estructura a escalas cósmicas
y la previsión de la evolución atmosférica a
corto, medio y largo plazo. Es decir, simular
el universo y pronosticar el futuro de
nuestra atmósfera.
n el siglo xx nuestro conocimiento del universo y su historia ha
E avanzado a pasos agigantados. Mediante la conversación entre
observaciones experimentales y modelos teóricos hemos conseguido
desentrañar muchos de los mecanismos y procesos que nos han lleva-
do hasta aquí, así como establecer un mapa aproximado del universo
visible y nuestro humilde lugar en él. Pero cada respuesta engendra
preguntas nuevas y quedan muchos enigmas por resolver. Nos exi-
gimos mucho: nuestros modelos cosmológicos, las ecuaciones que
emplearnos para describir el universo, han de poder reproducir toda
su historia, desde el Big Bang hasta el momento presente, y todos los
detalles de los objetos que pueblan el espacio a todas las escalas.
Con este objetivo, grupos de investigadores de todo el mundo se
esfuerzan en simular la evolución del universo en grandes ordena-
dores. Estas simulaciones pretenden obtener corno resultado final
un universo simulado -artificial- cuyas propiedades estadísticas
coincidan al máximo con aquello que observarnos en la realidad.
De este modo validamos las hipótesis que hay implícitas en los mo-
delos y ponemos a prueba nuestra comprensión del universo.

Galaxias y nubes 1 43
Breve historia del cosmos

La Tierra, el planeta que habitamos, se mueve en el espacio trazan-


do una órbita elíptica alrededor del Sol, su estrella. El Sol es una
de las más de 200 000 millones de estrellas de la galaxia espiral de
la Vía Láctea y todas ellas orbitan alre-
Solo somos una dedor del centro galáctico (el Sol com-
especie avanzada de pleta una vuelta cada 230 millones de
monos en un planeta años, aproximadamente). Las galaxias,
menor de una a su vez, se organizan en cúmulos y su-
estrella del montón. percúmulos y danzan unas con otras
Pero podemos en escalas temporales mucho más lar-
entender el universo gas. La Vía Láctea, por ejemplo, perte-
y eso nos hace muy nece al supercúmulo de Virgo, un gru-
especiales. po de miles de galaxias que ocupa un
STEPHEN HAWKING volumen de unos 110 millones de años-
luz. Según nuestras observaciones, la
estructura del universo a escalas aún mayores tiene un aspecto fi-
lamentoso, con millones de galaxias organizadas en grandes hilos
o brazos de materia en una gran red cósmica (fig. 1).
Según el modelo que mejor explica toda la evidencia experimen-
tal acumulada, la historia del universo empezó hace 13800 millo-
nes de años con el Big Bang. En ese momento, el universo comen-
zó a expandirse y enfriarse desde un estado de altísima densidad.
En pocos segundos, la gran sopa cósmica se había enfriado lo bas-
tante como para que se pudieran formar los primeros protones y
neutrones, y estos se fusionaron en los primeros núcleos atómicos.
Para formar los primeros átomos, sin embargo, hubo que esperar
380 000 años, hasta que la temperatura fue suficientemente baja
como para que los electrones empezaran a unirse a los núcleos ató-
micos, y los fotones, que dominaban la escena, pudieran viajar con
libertad sin chocar con otras partículas. Es en ese momento cuan-
do decimos que la radiación se desacopla de la materia. Llegados a

44 1 Galaxias y nubes
r FIG. , - - - - - - - - - - - - - - - - - - - - - - - - - - ,
Supercúmulo de Virgo
Universo (0 -110-1o• años-luz!

Sistema solar Vía Láctea


(0 -1O 'º kml 10 -150-103 años-luz!

Las estrellas se agrupan en galaxias. y estas a su vez en cúmulos y supercúmulos


que se distribuyen como filamentos por todo el universo.

este punto, entramos en la llamada edad oscura, un período en el


cual la materia bariónica-llamamos así a la materia ordinaria for-
mada por protones y neutrones (bariones)- es simplemente una

Galaxias y nubes 1 45
gran nube de gas formada por átomos de hidrógeno y helio en su
mayor parte. Aún no hay estrellas ni otros objetos astrofísicos que
iluminen este gas, y de ahí el nombre de «edad oscura». A partir de
aquí, la fuerza de la gravedad, atrayendo la materia sobre sí misma,
creó zonas de gran densidad, donde se formaron las primeras es-
trellas y galaxias aproximadamente mil millones de años después
del Big Bang.

El lado oscuro de la materia

Al describir la evolución del universo, hemos dejado de mencionar


un ingrediente esencial: la materia oscura, una forma de materia de
naturaleza desconocida cuya existencia deducimos por sus efectos
sobre la materia ordinaria. La llamamos «materia» porque interac-
ciona gravitatoriamente con la materia conocida, es decir, sabemos
que tiene masa. Y es «oscura» -aunque quizá sería mejor decir «in-
visible»- porque no emite radiación electromagnética de ningún
tipo ni interacciona -que sepamos- de ningún otro modo que no
sea mediante la fuerza de la gravedad. Dado que todavía no la hemos
detectado directamente, la materia oscura tiene, de momento, rango
de conjetura o hipótesis, y nos ayuda a explicar una serie de observa-
ciones experimentales que no podríamos entender sin su presencia.
Según las estimaciones más aceptadas, la materia que vemos, todas
las estrellas y planetas, todo aquello compuesto de átomos, es tan
solo un 15 % de la materia del universo y el 85 % restante sería mate-
ria oscura.
Una de las observaciones más claras de los efectos de la materia
oscura se la debemos a la astrónoma estadounidense Vera Rubin.
En la década de 1960, Rubin observó un comportamiento inespe-
rado en las curvas de rotación galácticas. Una curva de rotación
galáctica no es más que un gráfico en el que se dibuja la velocidad
de rotación de las estrellas (eje y) en función de su distancia alcen-

46 1 Galaxias y nubes
tro galáctico (eje x). Las galaxias espirales, como la Vía Láctea o la
vecina Andrómeda, tienen la forma de un disco en que las estrellas
se distribuyen aproximadamente en un
plano y rotan en brazos espirales alre- No apuntes a las
dedor de un centro. La densidad de es- estrellas, ahí ya
trellas es mayor en el centro y decrece a sabemos lo que hay.
medida que nos alejamos de él. Apunta al espacio
Según la física clásica, en un siste- entre ellas, pues ahí
ma como el que acabamos de describir, yace el verdadero
donde la mayor parte de la masa está en misterio.
el centro, la velocidad de rotación alre- VERA R UBIN
dedor del centro decrece a medida que
nos alejamos de él. Es decir, las estrellas cercanas al centro tienen una
velocidad orbital mayor que las más alejadas. Esto es lo que sucede,
por ejemplo, en el sistema solar, donde la mayor parte de la masa se
concentra en el Sol y los planetas orbitan a velocidades cada vez me-
nores cuanto más nos alejamos de este.
Contra todo pronóstico, las curvas que Vera Rubín construyó
a partir de sus observaciones no decrecían con la distancia, sino
que se mantenían aproximadamente planas: es decir, las estrellas
rotaban todas a una velocidad similar, independientemente de su
distancia al centro.
Vista la evidencia, o bien nuestro modelo matemático (la física
clásica) es incorrecto o la distribución de masa de las galaxias es
distinta a la que podemos deducir por el brillo de sus estrellas. Una
curva de rotación galáctica como la observada se podría explicar si
la distribución de masa fuera de tipo esférico, y no como el disco
que observamos; es decir, si hubiera una cantidad extra de mate-
ria -materia oscura- que rodea la galaxia y que no podemos ver.
Alternativamente, se podrían proponer modificaciones a nuestras
ecuaciones que consiguieran explicar los resultados experimenta-
les sin tener que añadir elementos nuevos como la materia oscura,
cuya existencia no se ha detectado de manera directa. Sin embargo,

Galaxias y nubes 1 47
dado que la hipótesis de la materia oscura consigue explicar no solo
esta, sino otras observaciones experimentales, el consenso científi-
co actual es que las galaxias tienen, de hecho, un «halo» de materia
oscura a su alrededor.
Otro de los problemas que solventa la conjetura de la materia os-
cura es la formación misma de las galaxias. La estructura a gran es-
cala del universo, todos esos millones de galaxias esparcidas en una
red cósmica, no la podríamos explicar sin la actuación de la materia
oscura. Si solo existiera materia bariónica en el universo, la fuerza
de la gravedad no habría podido organizarla en las grandes estruc-
turas que observamos en los 13 800 millones de años transcurridos
desde el Big Bang. Según el paradigma actual, las estructuras que
observamos tienen como semilla original pequeñas fluctuaciones
cuánticas en los estados iniciales del universo, que fueron amplia-
das y fijadas por el fenómeno de la inflación, una expansión expo-
nencial y rapidísima del espacio-tiempo dentro del primer segundo
de vida del universo. No obstante, en el caso de la materia bariónica,
las diferencias de densidad resultantes no habrían podido sobrevi-
vir a la radiación dominante en la gran sopa cósmica. Los fotones,
en un chocar y rebotar constante contra todo, se encargaron de
mantener una distribución casi homogénea de materia ordinaria.
La materia oscura, sin embargo, al ser transparente a la radiación, sí
pudo empezar a condensar mucho antes sobre esas pequeñas fluc-
tuaciones de densidad bajo la acción de la gravedad. Llegados a los
380 000 años después del Big Bang, una vez desacoplada de la ra-
diación y con mayor libertad de movimiento, la materia ordinaria
se empezó a ver atraída gravitatoriamente hacia las zonas donde
la materia oscura se había condensado. Es decir, la materia oscura
formó una estructura previa, un paisaje con montañas y valles, que
determinó dónde iría a parar la materia bariónica (fig. 2).
Por este motivo, para entender la formación de estructuras en el
universo es esencial describir la evolución de la materia oscura y
su interacción con la materia ordinaria durante millones de años.

48 1 Galaxias y nubes
r F1G.2

'0

1s
"'
'0
¡¡;
..
e
o
Materia oscura

1•1ateria ordinaria
Espacio

OI
e
"'
m
OI
cii
..
-¡j
'0

.."'
'0

'0
o
1000 años
"'
'0

..
¡¡;
e
Materia oscura
o
..
Q.
E
¡::
Materia ordinaria
Espacio

Galaxias y cúmulos

'0
"'
'0
101 -1 O'
..
años ·¡¡;
o
e

Espacio

La fuerza de la gravedad ampllf·ca las fluctuaciones en la d1stribuc1ón de materia


oscura. Una vez desacoplada de la radiación, la materia ordinaria es atra ída a las
zonas de mayor densidad de materia oscura.

Galaxias y nubes 1 49
La energía oscura

Sabemos que el universo se expande desde que el astrónomo esta-


dounidense Edwin Hubble observó que las galaxias se alejaban las
unas de las otras. A finales de la década de 1990, observaciones nue-
vas y más precisas revelaron que el universo no solo se estaba expan-
diendo, sino que lo hacía con una aceleración positiva, ¡cada vez más
rápido!
Para que nuestro mejor modelo matemático de la geometría del
espacio-tiempo, la teoría general de la relatividad de Einstein, pueda
explicar esta expansión acelerada, es necesario introducir una cons-
tante en las ecuaciones. El valor de la llamada constante cosmológi-
ca, asociada popularmente al símbolo A («lambda»), se ajusta para
describir las observaciones experimentales y su interpretación física
es la de un tipo de energía, también de naturaleza desconocida, que
llena todo el universo de forma homogénea y que sería la causan-
te de la expansión acelerada del universo. Dado el valor de A, que
actualmente se ha fijado en A = 1,11 x 10 52 m-2, esta energía oscura
representaría alrededor del 70% de toda la materia-energía del uni-
verso, siendo un 25 % la contribución de la materia oscura, y solo un
5% la materia ordinaria que compone todo lo que vemos. Las obser-
vaciones de la expansión acelerada del universo y las conclusiones
que de ellas se extraen, les valieron el premio Nobel de Física de 2011
a Saul Perlmutter, Brian P. Schmidt y Adam G. Riess.

Simulaciones cosmológicas

El modelo de trabajo actual que da mejor cuenta de toda la evi-


dencia experimental es el llamado modelo ACDM (siglas en inglés
de/\- materia oscura fría). Este modelo cosmológico, fundamen-
tado en la relatividad general de Einstein, incorpora materia y
energía oscura y se define con seis parámetros -unas constantes

50 1 Galaxias y nubes
con significado físico (la edad del universo, la densidad de mate-
ria oscura...) cuyo valor no se deduce teóricamente, sino que se
ajusta a las observaciones experimentales-.
Una manera de poner a prueba y mejorar el modelo es mediante
grandes simulaciones numéricas de la evolución del universo: po-
nemos todos los ingredientes en una condición inicial ajustada a
nuestras observaciones y dejamos que las fuerzas fundamentales y
el tiempo hagan su trabajo. Idealmente, si nuestro modelo es bue-
no, una vez finalizada la simulación se habrá generado un universo
igual al que observarnos en la realidad, en todos sus aspectos y a
todas las escalas.
La base de todas las simulaciones de evolución del universo es
el llamado problema de N-cuerpos en interacción gravitatoria. Que-
remos simular cómo la materia se mueve y condensa merced a la
atracción de la gravedad a medida que el universo se expande y
enfría. Para ello, se simplifica el problema imaginando un espacio
(cúbico, una gran caja) en el cual hay un número muy grande (N) de
partículas masivas y que, por tanto, se atraen las unas a las otras.
El coste computacional de simular tales sistemas crece con el
número de partículas N, y por tanto, los investigadores han de en-
contrar un equilibrio entre resolución y eficacia cuando se diseñan
estas simulaciones. De hecho, las partículas en la simulación no
han de corresponder necesariamente con partículas físicas, sino
que pueden representar grandes cantidades de materia, y esto fija
la resolución máxima de la simulación.
También hay un repertorio de métodos para elegir a la hora de
resolver la dinámica exacta de los N-cuerpos. Por ejemplo, se pue-
den calcular a cada paso de la simulación todas las interacciones
gravitatorias entre partículas, o se puede calcular explícitamen-
te solo la interacción de las partículas más cercanas y describir
la atracción de aquellas más alejadas como una fuerza promedio.
También se puede considerar la distribución de materia en su con-
junto y estudiar la evolución de su densidad y velocidad como si de

Galaxias y nubes 1 51
un fluido se tratara. Cada uno de estos métodos tiene sus ventajas e
inconvenientes y su utilidad depende de las características concre-
tas de la simulación que se pret~nda realizar.
El número de cuerpos en interacción que somos capaces de si-
mular depende de la potencia de cálculo que esté a nuestra dispo-
sición. Desde las primeras simulaciones numéricas del problema
de N-cuerpos que consideraban unas 100 partículas, el número de
cuerpos considerados ha crecido exponencialmente año tras año.
En 2010, la simulación Bolshoi recreó la evolución de un sistema
¡de 1010 partículas!

La simulación Bolshoi y la distribución de materia


oscura

En el año 2010 se realizó la llamada simulación Bolshoi («grande»


en ruso) en el superordenador Pleiades de la NASA, con la inten-
ción de estudiar la formación y evolución de los halos de materia
oscura y cómo estos afectan a la distribución de galaxias que obser-
vamos y sus propiedades.
Los investigadores crearon un espacio tridimensional con forma
de caja y dividieron cada una de sus dimensiones en 2048 líneas.
Estas líneas crean una red o malla en el espacio de tres dimensio-
nes con aproximadamente 8600 millones de puntos de intersec-
ción. Como condición inicial de la simulación, en cada uno de estos
puntos se puso una partícula de materia oscura. Estas partículas no
se corresponden con partículas reales, sino que son idealizaciones,
masas puntuales que representan el equivalente a cientos de mi-
llones de veces la masa del Sol. El tamaño de la caja es entonces el
equivalente a un volumen de unos mil millones de años luz de lado.
Para aumentar el realismo de la simulación, se modificó la posi-
ción inicial de cada partícula ligeramente para ajustar la estadística
de la distribución de masa a la estadística de las fluctuaciones que

52 1 Galaxias y nubes
vemos en el fondo cósmico de microondas. Una vez fijada la con-
dición inicial, se da comienzo a la simulación en la que se han de
seguir el movimiento de todas estas partículas debido a su interac-
ción gravitatoria mutua.
En principio, a cada paso de la simulación se debería calcular
la interacción gravitatoria entre todos los pares de partículas: ¡del
orden de 1020 operaciones por paso! Como esto es impracticable,
la interacción entre las partículas se calcula a través de un campo
medio, el campo gravitatorio creado por la distribución de partí-
culas, y cuyo valor se computa solo en las celdas definidas por la
rejilla tridimensional. Además, para hacer la simulación más efi-
ciente y precisa, los investigadores usaron una técnica conocida
como refinamiento adaptativo de red (adaptive mesh refinement).
La idea fundamental de esta técnica es que no se necesita la mis-
ma precisión en todas las partes de la caja. Allí donde se concen-
tra un número mayor de partículas, se incrementa el número de
puntos donde calcular el campo gravitatorio para aumentar la re-
solución y simular la interacción de una manera más fehaciente.
Por el contrario, en las zonas de baja densidad se calcula el campo
gravitatorio en unos pocos puntos, lo que ahorra en tiempo de
cálculo sin perder precisión (fig. 3). Así, a medida que la simu-
lación avanza, los puntos de la caja donde se computa el campo
gravitatorio cambian siguiendo las variaciones en la distribución
de partículas.
En la simulación se puede observar en detalle cómo las partí-
culas de materia oscura, que empiezan en una distribución casi
homogénea, se van acumulando en ciertas zonas, aumentando la
densidad y formando halos y subhalos de materia oscura. La distri-
bución de masa dentro de la caja reproduce la imagen de esa gran
red cósmica con grandes hilos de masa que forman una especie de
enorme telaraña que rodea zonas inmensas casi vacías. Durante
todo el recorrido de la simulación Bolshoi se formaron unos 50 mi-
llones de halos, suficientes para obtener estadísticas precisas de

Galaxias y nubes 1 53
r F1G. 3
1.

1 • 1

• . . . . . . .. .
• • •• : • • : . • :•. • ..• t • +

. ..,.,........... . ....
..... .........~. •
.
~ . . ..... ......... .. .. ..

. . : ..
.•:


: ..
• A.+9 • .!_. • • • •

. . • . . . .. . . : : . . ... . . .
::-
\.
~:,
• ◄

..
• . . .· ... ·....: . . . : .•. . . . .
1
..........

.. .' • •
~-
. .
.• • . •
-- .f.-- - .!

.
.. . .• . . .
. ~- . -+---- 1
t -•

• .
. •
. . ..
1
t
.

_J
En la técnica del refinamiento adaptativo de red, se asignan más recu rsos
computacionales !más celdas] a las zonas de mayor densidad de partículas,
donde se necesita más deta lle.

su distribución en el espacio, así como de otras medidas de interés


como su velocidad radial o su distribución de masas.
Dado que la materia oscura es invisible. para comparar los resulta-
dos de la simulación Bolshoi con datos observacionales, es necesario
establecer algunas hipótesis sobre la relación entre la materia oscura
y la materia bariónica, que sí podemos ver. Sabemos, por ejemplo.
que existe una cierta relación de proporcionalidad entre la velocidad

54 1 Galaxias y nubes
de rotación de las estrellas en una galaxia y la luminosidad de esta.
Suponiendo que la velocidad de rotación de un halo de materia oscu-
ra es similar a la de las estrellas de la galaxia que contiene, se puede
contrastar la distribución de velocidad de los halos en la simulación y
la distribución de luminosidad de las galaxias en el universo real. Ha-
ciendo esta comparación, los investigadores encontraron una gran
concordancia estadística entre el universo simulado por Bolshoi y el
universo real al nivel de la distribución espacial de galaxias, lo que
confirma la capacidad del modelo A CDM de explicar la evolución del
universo y la formación de estructura a gran escala.

La simulación lllustris y la forma de las galaxias

La simulación Illustris, cuyos resultados se publicaron en 2014,


llevó la simulación de la evolución cosmológica varios pasos más
allá. Con el objetivo de aumentar el realismo y la precisión, se in-
cluyó no solo materia oscura, sino también materia bariónica, con
el aumento de complejidad que esto entraña: la materia bariónica
u ordinaria está sometida a todo tipo de interacciones y procesos
físicos en un rango amplísimo de escalas físicas que han de ser cap-
turados y descritos en el modelo. Se ha de seguir la pista del gas
interestelar a gran escala, los procesos de formación estelar en es-
calas de pocos parsecs (pe) e incluso agujeros negros y sus discos de
acreción a escalas mucho menores.
Illustris se define en una caja de 106,5 Mpc de lado (unos 350 mi-
llones de años-luz) y su resolución de masa (tamaño de la «partícula»
más pequeña), tanto para la materia oscura como la bariónica, es de
unas 106 masas solares. Para simular la hidrodinámica e interacción
gravitatoria de todas las partículas definidas en esta enorme caja,
se usó un método basado en teselaciones de Voronoid, que define
un patrón geométrico adaptativo que sigue la dinámica del fluido y
simplifica el cálculo de las ecuaciones. Después de más de 19 millo-

Galaxias y nubes 1 55
nes de horas de procesamiento acumuladas en 8192 procesadores
trabajando en paralelo, la simulación Illustris consiguió reproducir
las propiedades del universo, no solo a escalas cósmicas, sino tam-
bién a la escala de galaxias individuales, y describir en detalle su
morfología e incluso características de su composición química. Al
final de la simulación (momento presente), el universo simulado
por Illustris contenía 41416 galaxias, cada una de ellas compues-
tas por unos 500 elementos equivalentes a grupos de estrellas. Este
conjunto de galaxias presentaba todo el repertorio de formas que
observamos en la realidad: galaxias irregulares, elípticas, espirales,
espirales barradas, etc. Por primera vez una simulación del modelo
ACDM conseguía generar galaxias con simetría de disco, un proble-
ma que había permanecido sin resolver durante décadas debido a
la poca resolución de simulaciones anteriores. Además, Illustris re-
produjo en gran detalle las proporciones de elementos químicos pe-
sados (más allá del hidrógeno y el helio) en galaxias y nubes de gas.
Con todo, el nivel de detalle de esta simulación no es suficiente
para recrear fielmente galaxias enanas como las que orbitan alre-
dedor de la Vía Láctea. Aunque el progreso es constante, continúa
siendo extremadamente difícil construir simulaciones con la re-
solución suficiente para reproducir en detalle, en una sola simula-
ción, el universo en todo el rango de escalas de interés.

El proyecto Latte y las galaxias perdidas

La Vía Láctea convive con decenas de pequeñas galaxias satélite


como las famosas nubes de Magallanes que se ven brillar en las no-
ches del hemisferio sur.
Los modelos cosmológicos no han podido reproducir la estadís-
tica de estas pequeñas galaxias, también llamadas galaxias enanas.
De hecho, las simulaciones de evolución cosmológica sobreesti-
man de manera sistemática el número de galaxias enanas, lo que

56 1 Galaxias y nubes
>LA CONDICIÓN INICIAL
Toda simulación necesita empezar en algún sitio, una configuración inicial
de sus elementos a partir de la cual evolucionar. Es esencial que dicha
condición inicial sea realista si queremos que el resultado de la simulación
también lo sea. En las simulaciones del universo, ¿cuál es la condición
inicial?, ¿cómo se distribuía la materia justo después del Big Bang? En el
momento exacto en el que se formaron los primeros átomos al combinar-
se núcleos atómicos con electrones, la radiación [los fotones) empezó a
viajar libremente por el espacio. Estos fotones liberados siguen viajando
por el universo, y los podemos detectar. Se conocen como fondo cósmico de
microondas y son la luz más antigua que se puede observar; 380000 años
después del Big Bang, nos muestra una fotografía fija del universo que nos
permite ver cómo se distribuía la materia en el espacio en ese momento. Es
una distribución increíblemente homogénea, con fluctuaciones de apenas
unas pocas partes por millón, y nos ayuda a diseñar condiciones iniciales
realistas para nuestras simulaciones.

- En esta fotografía del fondo cósmico de microondas del experimento WMAP de


la NASA se aprecian las pequeñas fluctuaciones de temperatura que indican de
manera indirecta la distribución de materia.

57
da lugar al llamado problema de los «satélites perdidos»: no obser-
vamos tantas galaxias enanas como los modelos parecen predecir.
¿Debemos corregir el modelo? ¿Son incompletas las observaciones?
Hemos de tener en cuenta que las grandes simulaciones cosmo-
lógicas como Bolshoi e Illustris no están diseñadas para resolver de
manera precisa los detalles a escalas tan pequeñas. Para validar rigu-
rosamente el modelo ACDM y comprobar si es capaz de reproducir
el entorno local de la Vía Láctea es necesario hacer una nueva simu-
lación centrada en reproducir la formación de una sola galaxia y su
entorno local. Este era precisamente el objetivo del proyecto Latte,
que presentó sus resultados en 2016. En esta simulación, los inves-
tigadores reprodujeron la evolución de una galaxia del tamaño de la
Vía Láctea desde sus orígenes hasta el momento presente. Se incluyó
en el modelo materia oscura y bariónica, procesos de formación es-
telar y su interacción con el gas interestelar. La resolución de masa
es mucho mayor que en las simulaciones cosmológicas, con un valor
para las partículas bariónicas de tan solo 7 070 masas solares.
Al aumentar la resolución de la simulación e incorporar al mo-
delo fenómenos físicos que, por limitaciones computacionales, no
constaban en simulaciones anteriores, se obtuvo por fin una esta-
dística de galaxias enanas concordante con las observaciones ex-
perimentales. No solo se pudo reproducir el número promedio de
galaxias satélite, sino también muchas de las propiedades de sus
estrellas, como sus masas o velocidades. El modelo ACDM, por tan-
to, es perfectamente capaz de explicar aquello que observamos en
nuestro grupo local de galaxias y parece que ya no nos debemos
preocupar por las galaxias perdidas.

NUBES

Bajando de las nubes de gas y materia oscura que pueblan el uni-


verso hasta nuestro planeta y los avatares de nuestra vida diaria,

58 1 Galaxias y nubes
encontramos un problema cuya solución es tanto o más más com-
pleja que la de simular el nacimiento y evolución del universo: la
previsión meteorológica.
El poder de pronosticar el tiempo que va a hacer dentro de unas
horas o días tiene consecuencias e implicaciones prácticas inmen-
sas. Innumerables sectores económicos como la agricultura, la pes-
ca, el turismo, la energía o el transporte dependen de previsiones
meteorológicas para su funcionamiento normal, y los sistemas de
aviso de eventos extremos como huracanes o grandes inundacio-
nes ayudan a salvar vidas humanas a diario.
El problema no es nada sencillo: la atmósfera de nuestro plane-
ta es un gran sistema dinámico en cambio continuo afectado por
multitud de procesos físicos y químicos que están interconectados
en un rango enorme de escalas espaciales y temporales. Un mode-
lo matemático de la atmósfera terrestre que tenga como objetivo
hacer previsiones meteorológicas fiables ha de tomar en considera-
ción y describir con la mayor precisión posible todos los procesos
y dinámicas atmosféricas. Con la dificultad añadida de que estos
modelos son altamente no lineales y caóticos, lo cual complica la
construcción de previsiones precisas a largo plazo.
En el siglo xx, la previsión meteorológica vivió una auténtica re-
volución al calor del desarrollo de los ordenadores y otros desarro-
llos tecnológicos como los programas espaciales que pusieron en
órbita satélites de observación. Desde entonces, nuestra capacidad
de prever con precisión el tiempo que va a hacer aumenta de ma-
nera constante: nuestra habilidad para hacer pronósticos aumenta
alrededor de un día entero cada diez años. Es decir, la precisión con
la que ahora prevemos el tiempo dentro de cinco días es similar
a la·precisión con la que lo hacíamos a cuatro días vista hace una
década (fig. 4).
En el mes de octubre de 2012, los servicios meteorológicos se-
guían una tormenta tropical que se había gestado en el mar Cari-
be y a la que se bautizó como Sandy. La tormenta Sandy se dirigió

Galaxias y nubes 1 59
>NUESTRO UNIVERSO SIMULADO
Si nuestro modelo cosmológico es correcto, las ecuaciones que empleamos
para describir el universo han de poder reproducir toda su historia, con
todos los detalles de los objetos que pueblan el espacio a todas las escalas.
Sobre la base del modelo de trabajo actual IACDM] se han efectuado diver-
sas simulaciones por ordenador cuyos resultados concuerdan con nuestras
observaciones de la realidad.

A la derecha podemos ver la distribución


de materia oscura en una sección de la
caja de la simulación Bolshoi 120 101. que
estudiaba la formación y evolución de los
halos de matena oscura según el modelo
cosmológico J\CDM. La concordancia
estadística entre el universo simulado
de Bolshoi y el universo real
confirma el modelo

El proyecto Latte 120161. abajo. se


centraba en reproducir el entorno local
de una sola galaxia y confirmaba de
nuevo la validez del modelo J\CDM al
reproducir la estadística de las galaxias
enanas y resolver el problema de los
«satélites perdidos».

60
El proyecto lllustris (2014) simulaba la h1drod1námica e
interacciones gravitatorias de la materia bariónica y oscura
según el modelo /\COM y generó un repertorio de galaxias
(véase arriba, ordenadas aproximadamente según el diagrama
de Hubble) como las que observamos en la realidad.

@solshoi

L.atte

Fondo cósmico de microondas

Big Bang

o 13800 mili. años

61
r F,G. 4
98,5

~ 95,5
o
.l:! 90
ti
•O
e
...o
CL
80
-¡; 70
"0
e
•O 60
·¡¡;
"ü 50
...
41
a. 40

30
1981 1985 1989 1993 1997 2001 2005 2009 2013
Año
Evolución de la precisión de los pronósticos meteorológicos a 3, 5 y 7 días. Para
que un pronóstico sea útil, ha de superar el umbral del 60 %, y por encima de 80 %
ya se consideran pronosticas de gran precisión.

hacia el norte y, ya convertida en huracán, pasó por las Antillas,


Jamaica y Cuba. Las previsiones del centro nacional de meteoro-
logía estadounidense pronosticaban que la tormenta viraría al este
y se disiparía sobre el Atlántico sin más consecuencias. Sin embar-
go, el día 23 de octubre, el Centro Europeo de Previsiones Meteo-
rológicas a Medio Plazo alertó a sus colegas estadounidenses de
que sus modelos (que en ese momento eran de mayor resolución
que los estadounidenses) preveían que Sandy giraría a la izquierda
y tocaría la costa este de Estados Unidos en unos ocho días. Esta
alerta anticipada permitió a las autoridades prepararse y dar las
instrucciones necesarias a la población. Los daños provocados por
Sandy se contabilizaron en 75 000 millones de dólares y 223 vidas
humanas, y fue el cuarto huracán más devastador de la historia
de Estados Unidos. Sin la previsión anticipada de su llegada y el
consecuente margen de maniobra y preparación que tuvieron las

62 1 Galaxias y nubes
autoridades y la población civil, la devastación habría sido, a buen
seguro, mucho mayor.

Domadores de nubes

La humanidad lleva miles de años intentando prever el tiempo y en-


tender sus patrones y regularidades. Sin embargo, durante siglos, la
previsión meteorológica fue más un arte lleno de superstición que
una ciencia sistemática basada en observaciones y leyes empíricas.
Entre los pioneros de la meteorología moderna cabe desta-
car al vicealmirante de la Marina Real Británica Robert FitzRoy.
A FitzRoy se le recuerda, sobre todo, por haber sido el capitán del
navío HMS Beagle, que llevó a Charles Darwin, como naturalista
de la expedición, en el viaje alrededor del mundo que le inspiraría
su teoría de la evolución por selección natural. Sin embargo, Fitz-
Roy vivió, más allá del viaje del Beagle, otras aventuras también
muy reseñables. Se convirtió en uno de los primeros gobernado-
res de Nueva Zelanda, donde tuvo que actuar en defensa de la po-
blación maorí frente a los colonos, a su vuelta a Inglaterra, fue
elegido miembro de la Royal Society y se le encargó la dirección
de la primera oficina de previsión meteorológica. FitzRoy había
sido, durante su carrera como navegante, un firme defensor del
uso de métodos científicos para intentar prever el tiempo cam-
biante y mejorar la seguridad en la navegación. Más tarde, duran-
te su tiempo como meteorólogo oficial, FitzRoy obligó a que los
navíos recogieran datos meteorológicos (que su oficina se encar-
gaba de compilar) y popularizó el uso de barómetros en todos los
puertos para que se pudiera estimar la probabilidad de tormenta
antes de zarpar. La oficina de FitzRoy empezó a publicar previsio-
nes meteorológicas en 1860 y en 1861 publicó el primer pronóstico
oficial en prensa (en el diario The Times) para regocijo de la so-
ciedad victoriana. Aunque útiles y científicos, los pronósticos de

Galaxias y nubes 1 63
FitzRoy, basados en un conjunto muy modesto de observaciones
y que apenas alcanzaban las 48 horas, estaban lejos del ideal de
precisión y detalle de los actuales.
En esta breve historia simplificada que estamos trazando, el si-
guiente hito o paso significativo hacia mejores previsiones meteoro-
lógicas lo debemos al meteorólogo noruego Vilhelm Bjerknes. Este
sistematizó matemáticamente el problema de pronosticar la evolu-
ción atmosférica, eligiendo un conjunto de variables y ecuaciones
razonables que habían de ser evaluadas en dos pasos: un primer paso
en el que se determina el estado de la atmósfera, y un segundo en el
que se genera la previsión. Sin la posibilidad de construir soluciones
analíticas o numéricas para sus ecuaciones, Bjerknes desarrolló un
método gráfico para generar mapas con sus previsiones meteoroló-
gicas. En la época de Bjerknes, gracias a la invención del telégrafo, ya
se podía coordinar una red de observatorios y recoger el valor de las
variables atmosféricas relevantes en puntos lejanos del planeta de
forma casi simultánea. Esto era esencial si se quería conocer con una
cierta precisión el estado de la atmósfera.
Lewis Fry Richardson, matemático y meteorólogo inglés coetá-
neo de Bjerknes, continuó el trabajo de este con el primer intento
de construir una previsión por métodos numéricos (¡pero sin orde-
nador!). Tomando datos históricos de un día, Richardson constru-
yó una previsión para evaluar los cambios de presión y velocidad
del viento en dos puntos de Europa al cabo de seis horas desde el
momento inicial considerado. Richardson hizo todos los cálculos
numéricos a mano, con un método similar al método desarrollado
por Euler, proyectando el estado de la atmósfera en pequeños in-
tervalos de tiempo hacia el futuro. Aunque los resultados concretos
de la previsión fueron catastróficos, Richardson probó que una pre-
visión meteorológica numérica era posible.
En Estados Unidos, a principios de la década de 1950, un grupo
de científicos y meteorólogos que incluía, entre otros, a John y Klara
von Neumann y a Jule Charney, se dedicó de lleno a un proyecto de

64 1 Galaxias y nubes
previsión meteorológica que usaría por primera vez la potencia de
cálculo de un ordenador (en concreto, los pioneros ENIAC y MA-
NIAC I). El proyecto meteorológico de Von Neumann publicó cua-
tro previsiones meteorológicas de 24 horas realizadas con el ENIAC.
Estas previsiones daban unos resultados aceptables, aunque el
tiempo necesario para construirlas estaba solo ligeramente por de-
bajo de las 24 horas, sin prácticamente ninguna antelación sobre el
momento de interés, y limitando claramente su valor práctico. Pero
más allá de consideraciones sobre su utilidad real, el método de in-
tegración numérica ensayado en este estudio sentó las bases de to-
dos los modelos posteriores y el aumento en la velocidad de cálculo
de los ordenadores iba a hacer de las previsiones numéricas de la
evolución atmosférica una de las grandes revoluciones científicas
y tecnológicas del siglo XX. De hecho, cuando los investigadores del
proyecto meteorológico comunicaron a Richardson sus resultados,
este celebró el «enorme avance científico» que representaban.
Un avance tecnológico complementario al de la computación
numérica y que debemos mencionar por su relevancia para la pre-
visión meteorológica moderna fue el desarrollo de los satélites
artificiales para la observación del planeta desde el espacio. Con
estos pequeños observatorios en órbita podemos observar y medir
el estado de la atmósfera en cualquier punto del planeta e incorpo-
rar toda esta riqueza de datos a nuestras simulaciones. El primer
satélite para la observación meteorológica que consiguió un cierto
éxito fue el TIROS-!, lanzado por la NASA en 1960: orbitó la Tierra
durante 78 días y envió algunas de las primera imágenes de televi-
sión de nuestro planeta desde el espacio.

Las mariposas del caos

El desarrollo de la teoría del caos va ligado de una manera fundamen-


tal a la historia de la previsión meteorológica por métodos numéri-

Galaxias y nubes 1 65
cos. Aunque ya se habían descrito sistemas caóticos y se había intui-
do su complejidad dinámica con anterioridad, no fue hasta la década
de 1960 cuando, al intentar simular la evolución atmosférica, nos en-
contramos con la realidad del caos en todo su esplendor.
Conviene no llevarse a engaño por lo familiar de la palabra caos.
En ciencia, caos tiene una definición matemática muy concreta y
la teoría del caos no trata de todo aquello que en nuestra vida co-
tidiana podríamos llamar «caótico». Al contrario, la teoría del caos
describe unas curiosas características dinámicas que comparten
multitud de sistemas naturales y artificiales. Concretamente, los
sistemas caóticos presentan un comportamiento irregular, que no
se repite en ningún patrón previsible y cuya evolución es extrema-
damente sensible a pequeños cambios en las condiciones iniciales.
A principios de la década de 1960, Edward Lorenz, meteorólogo
norteamericano, investigaba un modelo simple de convección que
se reduce a un sistema de ecuaciones diferenciales de solo tres va-
riables y en las que a, r y b son unos parámetros constantes:

:=- a(X - Y)

dY =-XZ+rX -Y
dt
dZ =XY-bZ
dt

Como hemos explicado anteriormente, cualquier simulación


empieza en un cierto estado, una condición inicial. Simulando su
modelo numéricamente, Lorenz se dio cuenta, casi por accidente,
de que pequeñísimas diferencias en la condición inicial daban lu-
gar rápidamente a enormes diferencias en la evolución posterior
del sistema.
Este efecto se conoce popularmente como efecto mariposa debi-
do a una metáfora usada habitualmente para ilustrar el descubri-

66 1 Galaxias y nubes
- Arriba a la izquierda, Robert FitzRoy. A su derecha Klara y John von Neumann. Abajo,
previsión meteorológica global publicada por el Centro Europeo de Previsiones
Meteorológicas a Medio Plazo el viernes 26 de enero de 2018 para el martes 30 de
enero; la escala de gris codifica el error estimado a partir de un conjunto de previsiones.

Galaxias y nubes 1 67
miento y según la cual «el vuelo de una mariposa en Brasil puede
provocar un tornado en Texas». Es decir, una pequeña diferencia
en las condiciones de la atmósfera (el vuelo de la mariposa) puede
tener como consecuencia una diferencia enorme en la evolución
futura de la atmósfera (por ejemplo, que acaezca o no un tornado
en Texas).
El efecto mariposa se manifiesta en multitud de modelos ma-
temáticos de sistemas naturales y es una característica inevitable
de todos los modelos de evolución atmosférica. Esto añade un
obstáculo adicional al problema de la previsión meteorológica: la
incertidumbre, el error asociado a nuestras observaciones del es-
tado actual de la atmósfera se traduce rápidamente en una gran
incertidumbre en nuestra previsión, lo que dificulta las previsio-
nes a medio y largo plazo. Es decir, no solo hemos de conseguir un
buen modelo matemático que describa con precisión la atmósfera
y todas sus interacciones, también hemos de conseguir medir su
estado con gran precisión si queremos pronosticar su estado futuro
dentro de un error aceptable.

El pronóstico para mañana

Las previsiones meteorológicas que consumimos habitualmente


(para saber si el sábado va a llover o si el domingo habrá que poner
cadenas) son el resultado de un increíble esfuerzo científico y téc-
nico coordinado a nivel mundial.
La atmósfera y los océanos se monitorizan constantemente desde
satélites, estaciones meteorológicas, radares o boyas marítimas de
recogida de datos. Este flujo constante de datos es asimilado por
modelos numéricos procesados por superordenadores alrededor
del mundo. Las agencias nacionales de meteorología y organismos
internacionales como el Centro Europeo de Previsiones Meteoro-
lógicas a Medio Plazo (ECMWF, en Reading, Reino Unido), se en-

68 1 Galaxias y nubes
cargan de mantener estas instalaciones y publicar las previsiones
de sus modelos. Los modelos difieren entre sí según las especifica-
ciones y necesidades de cada centro. El ECMWF, por ejemplo, cal-
cula un modelo global de la atmósfera cuyas previsiones pueden
ser usadas como condición de contorno en modelos regionales de
mayor resolución.
Para el cálculo de las previsiones meteorológicas se utilizan méto-
dos similares a los que emplean los cosmólogos en sus simulaciones
de N cuerpos. Se divide la atmósfera en porciones o celdas defini-
das por una rejilla regular y tridimensional. El tamaño de las celdas
marca el límite de resolución espacial del modelo. Sobre este espacio
discreto se integran las ecuaciones hidrodinámicas y termodinámi-
cas que modelizan la dinámica de la atmósfera y los océanos. Estas
ecuaciones se integran con métodos similares al sencillo método de
Euler, que calculan los cambios en el valor de las variables (presión,
temperatura, densidad, etc.) paso a paso, en pequeños intervalos de
tiempo hacia el futuro. Todos aquellos procesos físicos o caracterís-
ticas del sistema que suceden a escalas más pequeñas y que no se
pueden resolver explícitamente en el modelo se resumen mediante
parámetros numéricos en las ecuaciones.
Actualmente, el modelo global de alta resolución del ECMWF
tiene una resolución espacial de 30 km y genera previsiones de
presión atmosférica, temperatura y velocidad del viento para los
diez días siguientes. Los modelos regionales para países o áreas es-
pecíficas alcanzan resoluciones espaciales de pocos kilómetros que
aumentan el detalle de la previsión y su coste computacional. Para
realizar sus previsiones, el ECMWF cuenta con un superordenador
equipado de 129960 procesadores capaces de alcanzar una veloci-
dad pico de 8499 teraflops.
Al consultar la previsión meteorológica para mañana veremos
que nos informa del estado futuro de la atmósfera en términos
de probabilidades (de precipitación, por ejemplo). Esto se debe
a que cualquier previsión del futuro está afectada por un error o

Galaxias y nubes 1 69
incertidumbre. Esta incertidumbre nace, en parte, porque los da-
tos observacionales que introducimos en el modelo ya tienen un
error asociado. Para determinar la incertidumbre de la previsión y
la probabilidad de diferentes escenarios, los modelos se integran
dentro del margen de error de las observaciones experimentales
para diferentes condiciones iniciales. Es decir, creamos muchas
previsiones que empiezan desde puntos ligeramente distintos y
luego combinamos los resultados (fig. 5). De manera simplifica-
da, si generamos cien mapas de precipitación para mañana y en
ochenta de ellos llueve en nuestra ciudad, podemos suponer como
previsión un 80% de probabilidad de precipitación.

La previsión del clima cambiante

La temperatura promedio de nuestra atmósfera aumenta año tras


año desde hace un siglo. El consenso científico es que este calenta-
miento global lo hemos provocado nosotros, los humanos, princi-
palmente por la emisión de gases de efecto invernadero. Las conse-
cuencias del cambio climático (deshielo de los polos, aumento del
nivel del mar, cambios en los patrones de precipitación, extinción
de especies, aumento de eventos extremos como inundaciones, se-
quías, olas de calor, etc.) representan uno de los mayores desafíos
para el futuro de la humanidad.
Para comprender mejor a qué nos enfrentamos y el alcance real
del fenómeno, la comunidad científica se esfuerza en simular los
posibles escenarios futuros. Utilizando modelos de circulación glo-
bal como el descrito anteriormente para la previsión meteorológi-
ca, se hacen simulaciones de la evolución atmosférica en las próxi-
mas décadas y siglos. En este caso, no nos interesa el detalle fino
de su evolución diaria y con gran resolución espacial, sino poder
pronosticar con acierto los valores promedio que definen el clima
en cada época. Es decir, no queremos saber si lloverá en París el 30

70 1 Galaxias y nubes
rFIG. 5
Condición inicial , -· .[-_- -- Incertidumbre


.. .. . ,

-------'1·
r /
r
L.---------J
(
( ._______,
CONJUNTO DE SIMULACIONES

~-+-- Probabilidad
de precipitación

Previsión
La probabilidad de un cierto evento meteorológico !como la precipitación o la
trayectoria de una tormenta) se obtiene generando un conjunto de simulaciones
individuales a partir de condiciones iniciales ligeramente distintas.

de mayo de 2100, sino cuál será la temperatura media del planeta


en 2100.
Esta última frase puede resultar sorprendente después de la dis-
cusión sobre el efecto mariposa. ¿No habíamos dicho que la pre-
visión a largo plazo es casi imposible debido a la naturaleza caóti-

Galaxias y nubes 1 71
ca del sistema? ¿Cómo nos atrevemos entonces a vaticinar lo que
pasará dentro de cien años? Para entenderlo, conviene recordar
la diferencia entre tiempo y clima. El
Si puedes simular el tiempo es como una variable que osci-
clima, puedes hacer la rápidamente y cuyas fluctuaciones
experimentos. Como son difíciles de prever, mientras que el
un Dios, puedes clima es el valor promedio de esta va-
mover continentes, riable calculado sobre largos períodos.
avivar el Sol o Aunque el tiempo es difícil de pronos-
atenuarlo, añadir ticar, la dinámica del clima se puede
o quitar gases de extrapolar al futuro con más facilidad
efecto invernadero o (fig. 6).
llenar la estratosfera Del mismo modo que en la previsión
de polvo. a corto plazo se usan conjuntos de mo-
PAUL N. EDWARDS delos para estimar el error de la previ-
sión, también en el estudio del cambio
climático se usan diferentes conjuntos de modelos para evaluar la
probabilidad de diferentes escenarios futuros. Dado que en la pre-
visión del clima influye de una manera determinante la acción del

r FIG. 6

Tiempo

Las fluctuaciones del tiempo son d1fíc1les de prever. pero el clima varía de una
manera más suave y fácil de extrapolar hacia el futuro.

72 1 Galaxias y nubes
>LA ECUACIÓN MÁS DIFÍCIL
La ecuación fundamental en los modelos de previsión meteorológica es la
ecuación de Navier-Stokes. Esta ecuación describe en general la dinámica
de cualquier fluido [como la atmósfera y los océanos]. Para un flujo incom-
presible [cuya densidad es constante]. toma la forma siguiente:

p( ~~ +(v·◊)v )== -Vp+pg+µv 2v


Esta ecuación relaciona los cambios en la velocidad del fluido con las fuer-
zas a las que está sometido en cada momento [¡, es la densidad, µ la vis-
cosidad, p la presión y g la aceleración de la gravedad]. La ecuación de
Navier-Stokes es extremadamente útil y se usa en multitud de aplicaciones
industriales y científicas en las que se necesita modelizar un fluJo. Sm em-
bargo, también es altamente no lineal y no acepta soluciones analíticas. Es
tan compleja que n1 siquiera sabemos si existen soluciones para todos
los escenarios posibles. Solo podemos simularla numéricamente y cru-
zar los dedos. Entre los «problemas del Milenio», hay uno dotado con un
millón de dólares para quien consiga probar la ex1stenc1a y unicidad de las
soluciones de la ecuación de Navier-Stokes en tres dimensiones.

- FluJo turbulento. una de las soluciones altamen te no lineales posibles de la


ecuación de Nav1er-Stokes.

73
hombre a través de la emisión de gases invernadero, es necesario
tomar esto en consideración en los modelos. Los llamados mo-
delos RCP (acrónimo de representative concentration pathways),
usados por el Panel Intergubernamental para el Cambio Climático
(IPCC) de las Naciones Unidas, suponen diferentes evoluciones para
la concentración de gases invernadero en el futuro. Por ejemplo, el
modelo RCPS.5 supone que la concentración de gases invernadero
continuará aumentando sin pausa, mientras que el RCP2.6 imagina
que las emisiones alcanzarán su máximo en la década 2010-2020,
para decaer después. Desgraciadamente, todos los modelos sin ex-
cepción pronostican para el próximo siglo una continuación del ca-
lentamiento global observado, con un incremento en la temperatura
global de unos 2 ºC.
Existe un gran consenso en la comunidad científica alrededor
del cambio climático y de la necesidad de evaluar la magnitud de
la catástrofe que se avecina. El acuerdo de París de 2015, auspiciado
por las Naciones Unidas, emplaza a los países firmantes a tomar
medidas para mitigar la emisión de gases de efecto invernadero
con el objetivo de limitar el incremento de la temperatura media a
1,5 º C. En este contexto, las simulaciones del clima futuro son una
herramienta crucial a la hora de evaluar riesgos, prever el impacto
de nuestras acciones y diseñar políticas encaminadas a contener y
revertir el daño.

74 1 Galaxias y nubes
Apoyemos a nuestros autores favoritos adquiriendo el libro en formato real .

Ciencia y Mas Alla

Grupo “ Proyecto Delta “

Recompilacion de libros digitalizados

Communicate con nosotros , para encontrar mas libros o leerlo completo entra o manda mensaje al
siguiente

enlace : https://www.facebook.com/Recomendacion-de-Libros-Cientificos-108256341080433/

https://www.facebook.com/ion.keylands/

Siguenos en

Telegram

Facebook

WhatSap

También podría gustarte