Documentos de Académico
Documentos de Profesional
Documentos de Cultura
Introducción 7
02 Galaxias y nubes 41
03 Simular la vida 75
Índice 137
INTRODUCCIÓN
17
seres humanos hemos aprendido a describir la realidad con ecua-
ciones matemáticas y los ordenadores son las herramientas que
hemos desarrollado para investigar y simular la realidad usando
estas ecuaciones. Desde los trabajos pioneros de Alan Turing y
el matrimonio Von Neumann en la primera mitad del siglo XX y el
desarrollo de los primeros ordenadores (como el famoso ENIAC, la
gigantesca máquina que suele COOiiderarse como la primera com-
putadora de propósito general totalmente digital y que ocupaba
toda una habitación), las computadoras digitales han acelerado el
progreso científico, nos han asistido en un sinfín de descubrimien-
tos y han abierto nuevos campos de investigación que hubiera sido
imposible explorar sin estas herramientas.
En una simulación, el ordenador toma un cierto modelo mate-
mático de la realidad y produce una versión de esta con la que pode-
mos jugar e interaccionar, visualizarla o modificarla. La simulación
numérica nos permite, por tanto, comprobar si nuestro modelo es
correcto (porque reproduce la realidad observada), así como explo-
rar aspectos del sistema simulado con gran libertad, como si de un
experimento se tratase.
En las ciencias físicas, los ordenadores se utilizan para enten-
der mejor procesos y sistemas a todas las escalas. Nos permiten
simular las reacciones de las partículas fundamentales y estudiar
la formación de las galaxias, calcular la trayectoria de un asteroi-
de o pronosticar el tiempo y la evolución del clima. La simulación
numérica se utiliza en cosmología para corroborar modelos e in-
vestigar alternativas posibles. Los modelos cosmológicos son con-
juntos de ecuaciones que describen el universo como un todo. Para
decidir qué modelo es mejor o cuáles son los valores exactos de sus
parámetros, la comunidad científica realiza simulaciones de la dis-
tribución de materia y energía en una gran porción del universo,
desde el Big Bang hasta el tiempo presente, y comprueba si aque-
llo que se obtiene concuerda con las observaciones experimentales
del universo presente. Las simulaciones del universo son algunas
8 1
de las más complejas y costosas que jamás se hayan realizado y nos
ayudan a entender, por ejemplo, el papel que tiene la materia os-
cura en la formación de las galaxias y en la estructura a gran escala
del universo.
Al igual que la simulación de la evolución del universo, un proble-
ma como la previsión meteorológica de precisión es impracticable
sin ordenadores, por el vasto número de operaciones matemáticas
que requiere. Para prever el tiempo hay que simular en el ordenador
un modelo de la evolución de la atmósfera lo más detallado posible,
que se ajuste a las medidas experimentales de la red de observatorios
mundial y que sea capaz de simular el futuro de manera fiable. En
1922, antes de la aparición de los ordenadores digitales, Lewis Fry Ri-
chardson, uno de los padres de la meteorología moderna, imagina-
ba en su libro Weather Prediction by Numerical Processes un edificio
fantástico, una «fábrica de pronósticos» en la que equipos de calcu-
ladoras humanas se afanarían a realizar a mano los cálculos necesa-
rios para obtener un pronóstico meteorológico global y seguirle el
ritmo a la evolución atmosférica en tiempo real. Richardson imaginó
una especie de gran teatro de forma esférica en cuyas paredes estaría
representado el mapa del mundo y cada equipo, sentado en una par-
te distinta del globo, se encargaría de hacer los cálculos necesarios
para conocer la previsión del tiempo en su región geográfica. Estimó
que serían necesarias unas 64000 personas que deberían trabajar
sin pausa para conseguir obtener un pronóstico meteorológico útil.
Aunque el ingenioso sueño de Richardson nunca se llevó a cabo,
hasta la aparición de los ordenadores, otros proyectos científicos que
demandaban largos y tediosos cálculos numéricos sí recurrieron a
grandes equipos humanos formados casi exclusivamente por muje-
res. Es el caso de las «computadoras» humanas de la agencia espa-
cial NASA, que efectuaban cálculos aerodinámicos y orbitales para
el programa espacial, o el de las criptógrafas de Bletchley Park, que
se dedicaban a descodificar los mensajes cifrados del ejército nazi
durante la Segunda Guerra Mundial.
1 9
Hoy en día, todos los cálculos necesarios para un problema como
la previsión meteorológica se realizan con los chips de silicio de los
ordenadores. Gobiernos y centros de investigación de todo el mun-
do construyen superordenadores -auténticos mastodontes digi-
tales que están formados por miles de ordenadores más pequeños
interconectados que trabajan de manera coordinada- albergados
en grandes habitaciones refrigerada~ y que se dedican al cálculo de
miles de millones de operaciones matemáticas por segundo para
atacar los problemas más complicados y costosos.
Las ciencias de la vida, que en el último siglo han transitado
hacia el ámbito de las disciplinas cuantitativas y hacen un uso
cada vez mayor de modelos matemáticos, también se han visto re-
volucionadas por los beneficios de la tecnología digital. Mediante
la simulación conseguimos, por ejemplo, entender las propieda-
des y dinámicas de los elementos básicos de la vida a nivel mole-
cular, como el plegamiento de proteínas, que resulta esencial para
comprender enfermedades neurodegenerativas o diseñar fárma-
cos nuevos. Abordamos también otros sistemas más complejos,
como virus y células enteras, para entender sus propiedades, las
dinámicas de interacción entre sus partes y procesos, así como
con su entorno. En el caso de los virus, por ejemplo, simular las
propiedades físicas de estos y su interacción con la célula que in-
fectan, nos permite explorar posibles debilidades y vías para com-
batirlos. En neurociencia, el campo que se orienta al estudio del
sistema nervioso, existen grandes proyectos internacionales dedi-
cados a simular un cerebro entero, desde el relativamente humil-
de sistema nervioso del nematodo Caenorhabditis elegans (que
está constituido por poco más de trescientas neuronas), al cerebro
humano, que cuenta con más de 1011 neuronas y 1014 conexiones
sinápticas. En todos los casos se busca aprender construyendo:
crear una simulación numérica nos obliga a comprender todos los
detalles relevantes del sistema que nuestro modelo matemático
debe considerar.
10 1
Por otro lado, y guardando cierta relación con la neurociencia,
en los últimos años hemos asistido a un renacer de la investiga-
ción en inteligencia artificial gracias al éxito demostrado por algu-
nos algoritmos de aprendizaje de máquinas como las redes neuro-
nales artificiales. Estos algoritmos de aprendizaje automático se
alimentan de grandes cantidades de datos reales para aprender a
ejecutar una cierta tarea, como puede ser identificar a personas en
una fotografía, jugar al ajedrez o recomendar productos a clientes
de una tienda online. De este modo, no hemos de programar explí-
citamente qué queremos que haga el ordenador, sino que le damos
las órdenes necesarias para que aprenda por sí mismo a encontrar
patrones, reglas o estrategias adecuadas. Hemos conseguido así
simular aspectos de la inteligencia humana, e incluso superarla;
hemos creado algoritmos mejores que cualquier Horno sapiens en
actividades tan complejas como, por ejemplo, el milenario juego
del go. Además, los algoritmos de inteligencia artificial encuentran
un sinfín de aplicaciones industriales y están detrás de nuevos de-
sarrollos como los asistentes de voz, que reconocen y entienden el
habla humana, o los vehículos autónomos, que hacen uso de algo-
ritmos de visión por ordenador para conseguir circular de manera
segura sin asistencia humana. El progreso de la investigación en
inteligencia artificial y la explosión de aplicaciones que la aprove-
chan de un modo u otro han resucitado incluso la preocupación
por la singularidad tecnológica: ese hipotético momento en el que
las máquinas, dotadas de una inteligencia superior a la de los seres
humanos, podrán mejorarse a sí mismas, independizarse de sus
creadores humanos y cambiar radicalmente el paisaje de la civili-
zación humana. La singularidad tecnológica está, sin duda, muy
lejos, pero lo que puede no estarlo tanto es la automatización me-
diante algoritmos de inteligencia artificial y robótica de muchas
tareas y trabajos que hoy realizan personas.
Finalmente, el progreso tecnológico, especialmente por lo que
refiere al hardware, con avances-en campos como la ciencia de ma-
1 11
teriales, la computación cuántica o la computación biológica, ha-
cen prever que nuestra capacidad de simular la realidad aumentará
de un modo continuado en el futuro gracias a la aparición de orde-
nadores mejores y más potentes. Podremos simular sistemas cada
vez más complejos y a un nivel de detalle mayor, desvelar conoci-
miento nuevo y desarrollar aplicaciones novedosas. Como los tela-
res de la Revolución Industrial, nuestros ordenadores y algoritmos
han transformado la sociedad. El poder de simular la realidad (el
universo, la vida, la inteligencia humana) espolea esta revolución,
que sigue en marcha.
12 1
01 JUGAR CON LA REALIDAD
LOS INICIOS
r F,G. 1
UNIDAD CENTRAL
DE PROCESAMIENTO
.·-----········-···--··
: Unidad de control
.
e--
•............................ .
:
Unidad
aritmética/ lógica
•..... . ..... -.. -..... -· -8
MEMORIA
MODELOS Y SIMULACIONES
Sea cual sea el sistema (un átomo, una célula, un cohete) que quera-
mos simular, todo empieza por tener un modelo matemático de dicho
sistema. Un modelo no es más que un conjunto de ecuaciones que
describen de manera aproximada las relaciones entre las variables
del sistema. Por ejemplo, si lanzamos una piedra desde una torre,
las leyes del movimiento de Newton son el modelo matemático que
nos dice cómo cambian la posición y velocidad de la piedra a cada
instante en función de su posición y velocidad iniciales y de la ace-
leración de la gravedad. Si lo que queremos es describir el funciona-
miento del cerebro a nivel neuronal, necesitaremos las ecuaciones
que rigen el funcionamiento de las neuronas y su interacción mutua.
Cuando convertimos un modelo matemático en un programa
informático y reproducimos el comportamiento del sistema (la caí-
da de la piedra desde la torre o la actividad neuronal) en un ordena-
dor, decimos que hemos hecho una simulación del sistema (fig. 2).
Como bien saben los estudiantes de educación secundaria, para
el ejemplo concreto de la piedra que cae, no se necesitaría ningu-
na simulación. Este es un problema que se resuelve fácilmente con
lápiz y papel y se puede encontrar una solución del modelo: una
Trayectoria
simulada
Sol
La simulación da una trayectoria con una incertidumbre asociada que aumenta cuando
nos alejamos de las condiciones iniciales conocidas. En la ampliación se indica, en
negro, la trayectoria simulada en que la probabilidad de impacto del asteroide con la
Tierra es alta; mientras que es casi nula en la trayectoria de trazo gris.
FUa1-
Fila 2 ■ 0 ■ ■ 0 ■ ■ ■
Fila 2
EL ARTE DE APROXIMAR
27
habitual) quiere decir obtener una expresión explícita de la posi-
ción x en función del tiempo. Si la velocidad en la ecuación anterior
es constante y no depende del tiempo, la solución de la ecuación es
sencilla y toma la forma:
x(t) =vt+ x 0
x (t+h )- x (t ) =v(t)
h
o lo que es lo mismo: x (t+h)=x(t )+h·v(t ).
Esta es una expresión explícita de la posición x en función
del tiempo que nos permite calcular la posición x sucesivamen-
te en un conjunto de puntos discretos a lo largo del tiempo y se-
parados por un intervalo h. Es decir, la trayectoria se calcula pro-
gresivamente partiendo de las condiciones iniciales en pasos de
tamaño h. Por ejemplo, conocidas x(O) y v(O), podemos calcular
x(h) =x(O)+h -v(O). Conocidax(h),calculamos x (2h ) = x (h )+h· v(h ),
y así sucesivamente (fig. 5). Por lo tanto, para llegar a conocer la tra-
yectoria en el tiempo 100h hemos de repetir este proceso 100 veces.
\
1
.____,_.... 'v'
h h
LA SIMULACIÓN CIENTÍFICA
31
llar nuevos fármacos o a estudiar la dinámica de poblaciones de
animales que interaccionan en un ecosistema.
Las simulaciones numéricas por or-
En cuanto una denador cumplen diferentes funciones
máquina analítica en la investigación científica. A veces
exista, esta guiará, solo queremos explorar, observar un sis-
necesariamente, el tema para entenderlo mejor o descubrir
curso futuro de la facetas nuevas de su comportarnien-
c1enc1a. to. Tradicionalmente, ante sistemas de
CHARLES BABBAGE gran complejidad, la ciencia ha seguido
la estrategia del reduccionismo: des-
componer el sistema en sus partes fundamentales y estudiarlas por
separado. Pero ¿y si queremos estudiar el sistema en toda su com-
plejidad, teniendo en cuenta el funcionamiento simultáneo de todas
sus partes y observar su interacción? En ese caso, podemos simular
el sistema a partir de los modelos matemáticos de sus partes indivi-
duales y jugar con él, perturbarlo, observar qué sucede si modifica-
mos ligeramente ciertos parámetros, y mejorar así nuestra compren-
sión. Podemos decir que las simulaciones nos ayudan a desandar el
camino del reduccionismo, a visualizar y entender la dinámica de
sistemas complejos.
Una aplicación práctica que ilustra bien este uso es la simula-
ción de grandes redes eléctricas. Estas redes, que distribuyen la
electricidad por todo un país o continente, son vastos sistemas di-
námicos complejos y sensibles a perturbaciones que han de estar
sujetos a un control constante para asegurar su estabilidad. Simular
su funcionamiento en un ordenador es fundamental para entender
el comportamiento del sistema en diferentes escenarios (picos de
demanda, progresiva incorporación de energías renovables, etc.) y
hacer los ajustes necesarios.
En otras ocasiones, las simulaciones nos pueden ayudar a validar
nuestros modelos y observaciones. Si, por ejemplo, una simulación
no consigue replicar aquello que observamos experimentalmente,
r FIG. 6
1.0 Datos experimentales del detector LIGO
Datos de la simulación
0.5
-,; o.o
N
6
-e
ci.
E
<et
-0.5
-1.0 - + - - - - - - - - . - - - - - . . - - - - - - - r - - - - - - - r -
0.30 0,35 0,40 0,45
Tiempo (si
Observación experimenta l de una onda gravitatoria por el observatorio LI GO !trazo
grueso ) y simulación numérica de onda gravitatoria prod ucto del colapso de dos
agujeros neg ros !t razo finol.
35
30
25
e
:!
"0 20
~
~ 15
10
o
- Arriba a la izquierda, un detalle de la llamada simulación del Milenio donde se observa
la estructura del universo a gran escala. A la derecha, s1mulac1ón del núcleo externo
terrestre en tres d1mens1ones. realizada por los científicos del ISTerre, Grenoble
(Schaeffer et al.. Geophys,cal Journal lnternational. 2017). Abajo. s1mulac1ón de la NASA
de la onda de choque de un asteroide al adentrarse en la atmósfera terrestre .
RETOS FUTUROS
- El superordenador chino Sunway Ta1hulight, el más rápido del mundo en 2017, con
1O649600 núcleos dentro de 40 960 procesadores, 93 petaflops de velocidad media
de cálculo y un consumo eléctrico de 153,71 kW.
39
avanza hacia simulaciones de la evolución del universo que recreen
volúmenes cada vez mayores y sean precisas en un rango de escalas
físicas cada vez mayores. En meteorología, las mejoras tecnológicas
traerán previsiones más precisas. Podríamos incluso especular con
simulaciones de todo el planeta Tierra: modelos que incluyan toda
la dinámica atmosférica y oceánica, la biosfera, la economía global y
todas sus interacciones conjuntas. O una simulación del cuerpo hu-
mano que abarcara desde la regulación genética a la función de los
diferentes órganos y pudiera servir para simular con ella el efecto de
diferentes terapias antes de usarlas en un paciente.
En los últimos años, el campo de la inteligencia artificial ha re-
surgido con nuevas energías gracias al desarrollo de las redes neu-
ronales profundas, modelos matemáticos inspirados en el funcio-
namiento del cerebro que podemos programar y entrenar para que
realicen tareas como identificar peatones y obstáculos en tiempo
real a través de las cámaras de un vehículo autónomo. Este tipo
de programas simulan aspectos o funciones de la inteligencia hu-
mana en el ordenador y prometen un futuro lleno de aplicaciones
prácticas novedosas y espectaculares.
El progreso apasionante de la simulación científica no está exen-
to de desafíos: si aumentamos la precisión de las simulaciones hasta
hacerlas tan complejas como la realidad, ¿seremos capaces de com-
prenderlas?; o ¿entender el resultado de una simulación será casi tan
complicado como entender el sistema real?; si conseguimos crear un
ordenador verdaderamente inteligente, ¿lo entenderemos?
Como en cualquier otro momento de la historia, tenemos en-
frente un horizonte abierto de descubrimientos, desafíos y apren-
dizaje. Nosotros, simios inteligentes que habitamos una roca como
cualquier otra en la periferia de una de tantas galaxias, nos hemos
dotado de unas fabulosas herramientas, máquinas electrónicas de
cálculo, en las que reproducimos trozos de realidad para entender-
los. Nos guía aquella frase que Richard Feynman dejó escrita en su
pizarra: «No entiendo aquello que no puedo crear».
Galaxias y nubes 1 43
Breve historia del cosmos
44 1 Galaxias y nubes
r FIG. , - - - - - - - - - - - - - - - - - - - - - - - - - - ,
Supercúmulo de Virgo
Universo (0 -110-1o• años-luz!
Galaxias y nubes 1 45
gran nube de gas formada por átomos de hidrógeno y helio en su
mayor parte. Aún no hay estrellas ni otros objetos astrofísicos que
iluminen este gas, y de ahí el nombre de «edad oscura». A partir de
aquí, la fuerza de la gravedad, atrayendo la materia sobre sí misma,
creó zonas de gran densidad, donde se formaron las primeras es-
trellas y galaxias aproximadamente mil millones de años después
del Big Bang.
46 1 Galaxias y nubes
tro galáctico (eje x). Las galaxias espirales, como la Vía Láctea o la
vecina Andrómeda, tienen la forma de un disco en que las estrellas
se distribuyen aproximadamente en un
plano y rotan en brazos espirales alre- No apuntes a las
dedor de un centro. La densidad de es- estrellas, ahí ya
trellas es mayor en el centro y decrece a sabemos lo que hay.
medida que nos alejamos de él. Apunta al espacio
Según la física clásica, en un siste- entre ellas, pues ahí
ma como el que acabamos de describir, yace el verdadero
donde la mayor parte de la masa está en misterio.
el centro, la velocidad de rotación alre- VERA R UBIN
dedor del centro decrece a medida que
nos alejamos de él. Es decir, las estrellas cercanas al centro tienen una
velocidad orbital mayor que las más alejadas. Esto es lo que sucede,
por ejemplo, en el sistema solar, donde la mayor parte de la masa se
concentra en el Sol y los planetas orbitan a velocidades cada vez me-
nores cuanto más nos alejamos de este.
Contra todo pronóstico, las curvas que Vera Rubín construyó
a partir de sus observaciones no decrecían con la distancia, sino
que se mantenían aproximadamente planas: es decir, las estrellas
rotaban todas a una velocidad similar, independientemente de su
distancia al centro.
Vista la evidencia, o bien nuestro modelo matemático (la física
clásica) es incorrecto o la distribución de masa de las galaxias es
distinta a la que podemos deducir por el brillo de sus estrellas. Una
curva de rotación galáctica como la observada se podría explicar si
la distribución de masa fuera de tipo esférico, y no como el disco
que observamos; es decir, si hubiera una cantidad extra de mate-
ria -materia oscura- que rodea la galaxia y que no podemos ver.
Alternativamente, se podrían proponer modificaciones a nuestras
ecuaciones que consiguieran explicar los resultados experimenta-
les sin tener que añadir elementos nuevos como la materia oscura,
cuya existencia no se ha detectado de manera directa. Sin embargo,
Galaxias y nubes 1 47
dado que la hipótesis de la materia oscura consigue explicar no solo
esta, sino otras observaciones experimentales, el consenso científi-
co actual es que las galaxias tienen, de hecho, un «halo» de materia
oscura a su alrededor.
Otro de los problemas que solventa la conjetura de la materia os-
cura es la formación misma de las galaxias. La estructura a gran es-
cala del universo, todos esos millones de galaxias esparcidas en una
red cósmica, no la podríamos explicar sin la actuación de la materia
oscura. Si solo existiera materia bariónica en el universo, la fuerza
de la gravedad no habría podido organizarla en las grandes estruc-
turas que observamos en los 13 800 millones de años transcurridos
desde el Big Bang. Según el paradigma actual, las estructuras que
observamos tienen como semilla original pequeñas fluctuaciones
cuánticas en los estados iniciales del universo, que fueron amplia-
das y fijadas por el fenómeno de la inflación, una expansión expo-
nencial y rapidísima del espacio-tiempo dentro del primer segundo
de vida del universo. No obstante, en el caso de la materia bariónica,
las diferencias de densidad resultantes no habrían podido sobrevi-
vir a la radiación dominante en la gran sopa cósmica. Los fotones,
en un chocar y rebotar constante contra todo, se encargaron de
mantener una distribución casi homogénea de materia ordinaria.
La materia oscura, sin embargo, al ser transparente a la radiación, sí
pudo empezar a condensar mucho antes sobre esas pequeñas fluc-
tuaciones de densidad bajo la acción de la gravedad. Llegados a los
380 000 años después del Big Bang, una vez desacoplada de la ra-
diación y con mayor libertad de movimiento, la materia ordinaria
se empezó a ver atraída gravitatoriamente hacia las zonas donde
la materia oscura se había condensado. Es decir, la materia oscura
formó una estructura previa, un paisaje con montañas y valles, que
determinó dónde iría a parar la materia bariónica (fig. 2).
Por este motivo, para entender la formación de estructuras en el
universo es esencial describir la evolución de la materia oscura y
su interacción con la materia ordinaria durante millones de años.
48 1 Galaxias y nubes
r F1G.2
'0
1s
"'
'0
¡¡;
..
e
o
Materia oscura
1•1ateria ordinaria
Espacio
OI
e
"'
m
OI
cii
..
-¡j
'0
.."'
'0
'0
o
1000 años
"'
'0
..
¡¡;
e
Materia oscura
o
..
Q.
E
¡::
Materia ordinaria
Espacio
Galaxias y cúmulos
'0
"'
'0
101 -1 O'
..
años ·¡¡;
o
e
Espacio
Galaxias y nubes 1 49
La energía oscura
Simulaciones cosmológicas
50 1 Galaxias y nubes
con significado físico (la edad del universo, la densidad de mate-
ria oscura...) cuyo valor no se deduce teóricamente, sino que se
ajusta a las observaciones experimentales-.
Una manera de poner a prueba y mejorar el modelo es mediante
grandes simulaciones numéricas de la evolución del universo: po-
nemos todos los ingredientes en una condición inicial ajustada a
nuestras observaciones y dejamos que las fuerzas fundamentales y
el tiempo hagan su trabajo. Idealmente, si nuestro modelo es bue-
no, una vez finalizada la simulación se habrá generado un universo
igual al que observarnos en la realidad, en todos sus aspectos y a
todas las escalas.
La base de todas las simulaciones de evolución del universo es
el llamado problema de N-cuerpos en interacción gravitatoria. Que-
remos simular cómo la materia se mueve y condensa merced a la
atracción de la gravedad a medida que el universo se expande y
enfría. Para ello, se simplifica el problema imaginando un espacio
(cúbico, una gran caja) en el cual hay un número muy grande (N) de
partículas masivas y que, por tanto, se atraen las unas a las otras.
El coste computacional de simular tales sistemas crece con el
número de partículas N, y por tanto, los investigadores han de en-
contrar un equilibrio entre resolución y eficacia cuando se diseñan
estas simulaciones. De hecho, las partículas en la simulación no
han de corresponder necesariamente con partículas físicas, sino
que pueden representar grandes cantidades de materia, y esto fija
la resolución máxima de la simulación.
También hay un repertorio de métodos para elegir a la hora de
resolver la dinámica exacta de los N-cuerpos. Por ejemplo, se pue-
den calcular a cada paso de la simulación todas las interacciones
gravitatorias entre partículas, o se puede calcular explícitamen-
te solo la interacción de las partículas más cercanas y describir
la atracción de aquellas más alejadas como una fuerza promedio.
También se puede considerar la distribución de materia en su con-
junto y estudiar la evolución de su densidad y velocidad como si de
Galaxias y nubes 1 51
un fluido se tratara. Cada uno de estos métodos tiene sus ventajas e
inconvenientes y su utilidad depende de las características concre-
tas de la simulación que se pret~nda realizar.
El número de cuerpos en interacción que somos capaces de si-
mular depende de la potencia de cálculo que esté a nuestra dispo-
sición. Desde las primeras simulaciones numéricas del problema
de N-cuerpos que consideraban unas 100 partículas, el número de
cuerpos considerados ha crecido exponencialmente año tras año.
En 2010, la simulación Bolshoi recreó la evolución de un sistema
¡de 1010 partículas!
52 1 Galaxias y nubes
vemos en el fondo cósmico de microondas. Una vez fijada la con-
dición inicial, se da comienzo a la simulación en la que se han de
seguir el movimiento de todas estas partículas debido a su interac-
ción gravitatoria mutua.
En principio, a cada paso de la simulación se debería calcular
la interacción gravitatoria entre todos los pares de partículas: ¡del
orden de 1020 operaciones por paso! Como esto es impracticable,
la interacción entre las partículas se calcula a través de un campo
medio, el campo gravitatorio creado por la distribución de partí-
culas, y cuyo valor se computa solo en las celdas definidas por la
rejilla tridimensional. Además, para hacer la simulación más efi-
ciente y precisa, los investigadores usaron una técnica conocida
como refinamiento adaptativo de red (adaptive mesh refinement).
La idea fundamental de esta técnica es que no se necesita la mis-
ma precisión en todas las partes de la caja. Allí donde se concen-
tra un número mayor de partículas, se incrementa el número de
puntos donde calcular el campo gravitatorio para aumentar la re-
solución y simular la interacción de una manera más fehaciente.
Por el contrario, en las zonas de baja densidad se calcula el campo
gravitatorio en unos pocos puntos, lo que ahorra en tiempo de
cálculo sin perder precisión (fig. 3). Así, a medida que la simu-
lación avanza, los puntos de la caja donde se computa el campo
gravitatorio cambian siguiendo las variaciones en la distribución
de partículas.
En la simulación se puede observar en detalle cómo las partí-
culas de materia oscura, que empiezan en una distribución casi
homogénea, se van acumulando en ciertas zonas, aumentando la
densidad y formando halos y subhalos de materia oscura. La distri-
bución de masa dentro de la caja reproduce la imagen de esa gran
red cósmica con grandes hilos de masa que forman una especie de
enorme telaraña que rodea zonas inmensas casi vacías. Durante
todo el recorrido de la simulación Bolshoi se formaron unos 50 mi-
llones de halos, suficientes para obtener estadísticas precisas de
Galaxias y nubes 1 53
r F1G. 3
1.
1 • 1
• . . . . . . .. .
• • •• : • • : . • :•. • ..• t • +
•
. ..,.,........... . ....
..... .........~. •
.
~ . . ..... ......... .. .. ..
•
. . : ..
.•:
•
-·
: ..
• A.+9 • .!_. • • • •
. . • . . . .. . . : : . . ... . . .
::-
\.
~:,
• ◄
..
• . . .· ... ·....: . . . : .•. . . . .
1
..........
.. .' • •
~-
. .
.• • . •
-- .f.-- - .!
.
.. . .• . . .
. ~- . -+---- 1
t -•
• .
. •
. . ..
1
t
.
•
_J
En la técnica del refinamiento adaptativo de red, se asignan más recu rsos
computacionales !más celdas] a las zonas de mayor densidad de partículas,
donde se necesita más deta lle.
54 1 Galaxias y nubes
de rotación de las estrellas en una galaxia y la luminosidad de esta.
Suponiendo que la velocidad de rotación de un halo de materia oscu-
ra es similar a la de las estrellas de la galaxia que contiene, se puede
contrastar la distribución de velocidad de los halos en la simulación y
la distribución de luminosidad de las galaxias en el universo real. Ha-
ciendo esta comparación, los investigadores encontraron una gran
concordancia estadística entre el universo simulado por Bolshoi y el
universo real al nivel de la distribución espacial de galaxias, lo que
confirma la capacidad del modelo A CDM de explicar la evolución del
universo y la formación de estructura a gran escala.
Galaxias y nubes 1 55
nes de horas de procesamiento acumuladas en 8192 procesadores
trabajando en paralelo, la simulación Illustris consiguió reproducir
las propiedades del universo, no solo a escalas cósmicas, sino tam-
bién a la escala de galaxias individuales, y describir en detalle su
morfología e incluso características de su composición química. Al
final de la simulación (momento presente), el universo simulado
por Illustris contenía 41416 galaxias, cada una de ellas compues-
tas por unos 500 elementos equivalentes a grupos de estrellas. Este
conjunto de galaxias presentaba todo el repertorio de formas que
observamos en la realidad: galaxias irregulares, elípticas, espirales,
espirales barradas, etc. Por primera vez una simulación del modelo
ACDM conseguía generar galaxias con simetría de disco, un proble-
ma que había permanecido sin resolver durante décadas debido a
la poca resolución de simulaciones anteriores. Además, Illustris re-
produjo en gran detalle las proporciones de elementos químicos pe-
sados (más allá del hidrógeno y el helio) en galaxias y nubes de gas.
Con todo, el nivel de detalle de esta simulación no es suficiente
para recrear fielmente galaxias enanas como las que orbitan alre-
dedor de la Vía Láctea. Aunque el progreso es constante, continúa
siendo extremadamente difícil construir simulaciones con la re-
solución suficiente para reproducir en detalle, en una sola simula-
ción, el universo en todo el rango de escalas de interés.
56 1 Galaxias y nubes
>LA CONDICIÓN INICIAL
Toda simulación necesita empezar en algún sitio, una configuración inicial
de sus elementos a partir de la cual evolucionar. Es esencial que dicha
condición inicial sea realista si queremos que el resultado de la simulación
también lo sea. En las simulaciones del universo, ¿cuál es la condición
inicial?, ¿cómo se distribuía la materia justo después del Big Bang? En el
momento exacto en el que se formaron los primeros átomos al combinar-
se núcleos atómicos con electrones, la radiación [los fotones) empezó a
viajar libremente por el espacio. Estos fotones liberados siguen viajando
por el universo, y los podemos detectar. Se conocen como fondo cósmico de
microondas y son la luz más antigua que se puede observar; 380000 años
después del Big Bang, nos muestra una fotografía fija del universo que nos
permite ver cómo se distribuía la materia en el espacio en ese momento. Es
una distribución increíblemente homogénea, con fluctuaciones de apenas
unas pocas partes por millón, y nos ayuda a diseñar condiciones iniciales
realistas para nuestras simulaciones.
57
da lugar al llamado problema de los «satélites perdidos»: no obser-
vamos tantas galaxias enanas como los modelos parecen predecir.
¿Debemos corregir el modelo? ¿Son incompletas las observaciones?
Hemos de tener en cuenta que las grandes simulaciones cosmo-
lógicas como Bolshoi e Illustris no están diseñadas para resolver de
manera precisa los detalles a escalas tan pequeñas. Para validar rigu-
rosamente el modelo ACDM y comprobar si es capaz de reproducir
el entorno local de la Vía Láctea es necesario hacer una nueva simu-
lación centrada en reproducir la formación de una sola galaxia y su
entorno local. Este era precisamente el objetivo del proyecto Latte,
que presentó sus resultados en 2016. En esta simulación, los inves-
tigadores reprodujeron la evolución de una galaxia del tamaño de la
Vía Láctea desde sus orígenes hasta el momento presente. Se incluyó
en el modelo materia oscura y bariónica, procesos de formación es-
telar y su interacción con el gas interestelar. La resolución de masa
es mucho mayor que en las simulaciones cosmológicas, con un valor
para las partículas bariónicas de tan solo 7 070 masas solares.
Al aumentar la resolución de la simulación e incorporar al mo-
delo fenómenos físicos que, por limitaciones computacionales, no
constaban en simulaciones anteriores, se obtuvo por fin una esta-
dística de galaxias enanas concordante con las observaciones ex-
perimentales. No solo se pudo reproducir el número promedio de
galaxias satélite, sino también muchas de las propiedades de sus
estrellas, como sus masas o velocidades. El modelo ACDM, por tan-
to, es perfectamente capaz de explicar aquello que observamos en
nuestro grupo local de galaxias y parece que ya no nos debemos
preocupar por las galaxias perdidas.
NUBES
58 1 Galaxias y nubes
encontramos un problema cuya solución es tanto o más más com-
pleja que la de simular el nacimiento y evolución del universo: la
previsión meteorológica.
El poder de pronosticar el tiempo que va a hacer dentro de unas
horas o días tiene consecuencias e implicaciones prácticas inmen-
sas. Innumerables sectores económicos como la agricultura, la pes-
ca, el turismo, la energía o el transporte dependen de previsiones
meteorológicas para su funcionamiento normal, y los sistemas de
aviso de eventos extremos como huracanes o grandes inundacio-
nes ayudan a salvar vidas humanas a diario.
El problema no es nada sencillo: la atmósfera de nuestro plane-
ta es un gran sistema dinámico en cambio continuo afectado por
multitud de procesos físicos y químicos que están interconectados
en un rango enorme de escalas espaciales y temporales. Un mode-
lo matemático de la atmósfera terrestre que tenga como objetivo
hacer previsiones meteorológicas fiables ha de tomar en considera-
ción y describir con la mayor precisión posible todos los procesos
y dinámicas atmosféricas. Con la dificultad añadida de que estos
modelos son altamente no lineales y caóticos, lo cual complica la
construcción de previsiones precisas a largo plazo.
En el siglo xx, la previsión meteorológica vivió una auténtica re-
volución al calor del desarrollo de los ordenadores y otros desarro-
llos tecnológicos como los programas espaciales que pusieron en
órbita satélites de observación. Desde entonces, nuestra capacidad
de prever con precisión el tiempo que va a hacer aumenta de ma-
nera constante: nuestra habilidad para hacer pronósticos aumenta
alrededor de un día entero cada diez años. Es decir, la precisión con
la que ahora prevemos el tiempo dentro de cinco días es similar
a la·precisión con la que lo hacíamos a cuatro días vista hace una
década (fig. 4).
En el mes de octubre de 2012, los servicios meteorológicos se-
guían una tormenta tropical que se había gestado en el mar Cari-
be y a la que se bautizó como Sandy. La tormenta Sandy se dirigió
Galaxias y nubes 1 59
>NUESTRO UNIVERSO SIMULADO
Si nuestro modelo cosmológico es correcto, las ecuaciones que empleamos
para describir el universo han de poder reproducir toda su historia, con
todos los detalles de los objetos que pueblan el espacio a todas las escalas.
Sobre la base del modelo de trabajo actual IACDM] se han efectuado diver-
sas simulaciones por ordenador cuyos resultados concuerdan con nuestras
observaciones de la realidad.
60
El proyecto lllustris (2014) simulaba la h1drod1námica e
interacciones gravitatorias de la materia bariónica y oscura
según el modelo /\COM y generó un repertorio de galaxias
(véase arriba, ordenadas aproximadamente según el diagrama
de Hubble) como las que observamos en la realidad.
@solshoi
L.atte
Big Bang
61
r F,G. 4
98,5
~ 95,5
o
.l:! 90
ti
•O
e
...o
CL
80
-¡; 70
"0
e
•O 60
·¡¡;
"ü 50
...
41
a. 40
30
1981 1985 1989 1993 1997 2001 2005 2009 2013
Año
Evolución de la precisión de los pronósticos meteorológicos a 3, 5 y 7 días. Para
que un pronóstico sea útil, ha de superar el umbral del 60 %, y por encima de 80 %
ya se consideran pronosticas de gran precisión.
62 1 Galaxias y nubes
autoridades y la población civil, la devastación habría sido, a buen
seguro, mucho mayor.
Domadores de nubes
Galaxias y nubes 1 63
FitzRoy, basados en un conjunto muy modesto de observaciones
y que apenas alcanzaban las 48 horas, estaban lejos del ideal de
precisión y detalle de los actuales.
En esta breve historia simplificada que estamos trazando, el si-
guiente hito o paso significativo hacia mejores previsiones meteoro-
lógicas lo debemos al meteorólogo noruego Vilhelm Bjerknes. Este
sistematizó matemáticamente el problema de pronosticar la evolu-
ción atmosférica, eligiendo un conjunto de variables y ecuaciones
razonables que habían de ser evaluadas en dos pasos: un primer paso
en el que se determina el estado de la atmósfera, y un segundo en el
que se genera la previsión. Sin la posibilidad de construir soluciones
analíticas o numéricas para sus ecuaciones, Bjerknes desarrolló un
método gráfico para generar mapas con sus previsiones meteoroló-
gicas. En la época de Bjerknes, gracias a la invención del telégrafo, ya
se podía coordinar una red de observatorios y recoger el valor de las
variables atmosféricas relevantes en puntos lejanos del planeta de
forma casi simultánea. Esto era esencial si se quería conocer con una
cierta precisión el estado de la atmósfera.
Lewis Fry Richardson, matemático y meteorólogo inglés coetá-
neo de Bjerknes, continuó el trabajo de este con el primer intento
de construir una previsión por métodos numéricos (¡pero sin orde-
nador!). Tomando datos históricos de un día, Richardson constru-
yó una previsión para evaluar los cambios de presión y velocidad
del viento en dos puntos de Europa al cabo de seis horas desde el
momento inicial considerado. Richardson hizo todos los cálculos
numéricos a mano, con un método similar al método desarrollado
por Euler, proyectando el estado de la atmósfera en pequeños in-
tervalos de tiempo hacia el futuro. Aunque los resultados concretos
de la previsión fueron catastróficos, Richardson probó que una pre-
visión meteorológica numérica era posible.
En Estados Unidos, a principios de la década de 1950, un grupo
de científicos y meteorólogos que incluía, entre otros, a John y Klara
von Neumann y a Jule Charney, se dedicó de lleno a un proyecto de
64 1 Galaxias y nubes
previsión meteorológica que usaría por primera vez la potencia de
cálculo de un ordenador (en concreto, los pioneros ENIAC y MA-
NIAC I). El proyecto meteorológico de Von Neumann publicó cua-
tro previsiones meteorológicas de 24 horas realizadas con el ENIAC.
Estas previsiones daban unos resultados aceptables, aunque el
tiempo necesario para construirlas estaba solo ligeramente por de-
bajo de las 24 horas, sin prácticamente ninguna antelación sobre el
momento de interés, y limitando claramente su valor práctico. Pero
más allá de consideraciones sobre su utilidad real, el método de in-
tegración numérica ensayado en este estudio sentó las bases de to-
dos los modelos posteriores y el aumento en la velocidad de cálculo
de los ordenadores iba a hacer de las previsiones numéricas de la
evolución atmosférica una de las grandes revoluciones científicas
y tecnológicas del siglo XX. De hecho, cuando los investigadores del
proyecto meteorológico comunicaron a Richardson sus resultados,
este celebró el «enorme avance científico» que representaban.
Un avance tecnológico complementario al de la computación
numérica y que debemos mencionar por su relevancia para la pre-
visión meteorológica moderna fue el desarrollo de los satélites
artificiales para la observación del planeta desde el espacio. Con
estos pequeños observatorios en órbita podemos observar y medir
el estado de la atmósfera en cualquier punto del planeta e incorpo-
rar toda esta riqueza de datos a nuestras simulaciones. El primer
satélite para la observación meteorológica que consiguió un cierto
éxito fue el TIROS-!, lanzado por la NASA en 1960: orbitó la Tierra
durante 78 días y envió algunas de las primera imágenes de televi-
sión de nuestro planeta desde el espacio.
Galaxias y nubes 1 65
cos. Aunque ya se habían descrito sistemas caóticos y se había intui-
do su complejidad dinámica con anterioridad, no fue hasta la década
de 1960 cuando, al intentar simular la evolución atmosférica, nos en-
contramos con la realidad del caos en todo su esplendor.
Conviene no llevarse a engaño por lo familiar de la palabra caos.
En ciencia, caos tiene una definición matemática muy concreta y
la teoría del caos no trata de todo aquello que en nuestra vida co-
tidiana podríamos llamar «caótico». Al contrario, la teoría del caos
describe unas curiosas características dinámicas que comparten
multitud de sistemas naturales y artificiales. Concretamente, los
sistemas caóticos presentan un comportamiento irregular, que no
se repite en ningún patrón previsible y cuya evolución es extrema-
damente sensible a pequeños cambios en las condiciones iniciales.
A principios de la década de 1960, Edward Lorenz, meteorólogo
norteamericano, investigaba un modelo simple de convección que
se reduce a un sistema de ecuaciones diferenciales de solo tres va-
riables y en las que a, r y b son unos parámetros constantes:
:=- a(X - Y)
dY =-XZ+rX -Y
dt
dZ =XY-bZ
dt
66 1 Galaxias y nubes
- Arriba a la izquierda, Robert FitzRoy. A su derecha Klara y John von Neumann. Abajo,
previsión meteorológica global publicada por el Centro Europeo de Previsiones
Meteorológicas a Medio Plazo el viernes 26 de enero de 2018 para el martes 30 de
enero; la escala de gris codifica el error estimado a partir de un conjunto de previsiones.
Galaxias y nubes 1 67
miento y según la cual «el vuelo de una mariposa en Brasil puede
provocar un tornado en Texas». Es decir, una pequeña diferencia
en las condiciones de la atmósfera (el vuelo de la mariposa) puede
tener como consecuencia una diferencia enorme en la evolución
futura de la atmósfera (por ejemplo, que acaezca o no un tornado
en Texas).
El efecto mariposa se manifiesta en multitud de modelos ma-
temáticos de sistemas naturales y es una característica inevitable
de todos los modelos de evolución atmosférica. Esto añade un
obstáculo adicional al problema de la previsión meteorológica: la
incertidumbre, el error asociado a nuestras observaciones del es-
tado actual de la atmósfera se traduce rápidamente en una gran
incertidumbre en nuestra previsión, lo que dificulta las previsio-
nes a medio y largo plazo. Es decir, no solo hemos de conseguir un
buen modelo matemático que describa con precisión la atmósfera
y todas sus interacciones, también hemos de conseguir medir su
estado con gran precisión si queremos pronosticar su estado futuro
dentro de un error aceptable.
68 1 Galaxias y nubes
cargan de mantener estas instalaciones y publicar las previsiones
de sus modelos. Los modelos difieren entre sí según las especifica-
ciones y necesidades de cada centro. El ECMWF, por ejemplo, cal-
cula un modelo global de la atmósfera cuyas previsiones pueden
ser usadas como condición de contorno en modelos regionales de
mayor resolución.
Para el cálculo de las previsiones meteorológicas se utilizan méto-
dos similares a los que emplean los cosmólogos en sus simulaciones
de N cuerpos. Se divide la atmósfera en porciones o celdas defini-
das por una rejilla regular y tridimensional. El tamaño de las celdas
marca el límite de resolución espacial del modelo. Sobre este espacio
discreto se integran las ecuaciones hidrodinámicas y termodinámi-
cas que modelizan la dinámica de la atmósfera y los océanos. Estas
ecuaciones se integran con métodos similares al sencillo método de
Euler, que calculan los cambios en el valor de las variables (presión,
temperatura, densidad, etc.) paso a paso, en pequeños intervalos de
tiempo hacia el futuro. Todos aquellos procesos físicos o caracterís-
ticas del sistema que suceden a escalas más pequeñas y que no se
pueden resolver explícitamente en el modelo se resumen mediante
parámetros numéricos en las ecuaciones.
Actualmente, el modelo global de alta resolución del ECMWF
tiene una resolución espacial de 30 km y genera previsiones de
presión atmosférica, temperatura y velocidad del viento para los
diez días siguientes. Los modelos regionales para países o áreas es-
pecíficas alcanzan resoluciones espaciales de pocos kilómetros que
aumentan el detalle de la previsión y su coste computacional. Para
realizar sus previsiones, el ECMWF cuenta con un superordenador
equipado de 129960 procesadores capaces de alcanzar una veloci-
dad pico de 8499 teraflops.
Al consultar la previsión meteorológica para mañana veremos
que nos informa del estado futuro de la atmósfera en términos
de probabilidades (de precipitación, por ejemplo). Esto se debe
a que cualquier previsión del futuro está afectada por un error o
Galaxias y nubes 1 69
incertidumbre. Esta incertidumbre nace, en parte, porque los da-
tos observacionales que introducimos en el modelo ya tienen un
error asociado. Para determinar la incertidumbre de la previsión y
la probabilidad de diferentes escenarios, los modelos se integran
dentro del margen de error de las observaciones experimentales
para diferentes condiciones iniciales. Es decir, creamos muchas
previsiones que empiezan desde puntos ligeramente distintos y
luego combinamos los resultados (fig. 5). De manera simplifica-
da, si generamos cien mapas de precipitación para mañana y en
ochenta de ellos llueve en nuestra ciudad, podemos suponer como
previsión un 80% de probabilidad de precipitación.
70 1 Galaxias y nubes
rFIG. 5
Condición inicial , -· .[-_- -- Incertidumbre
•
.. .. . ,
-------'1·
r /
r
L.---------J
(
( ._______,
CONJUNTO DE SIMULACIONES
~-+-- Probabilidad
de precipitación
Previsión
La probabilidad de un cierto evento meteorológico !como la precipitación o la
trayectoria de una tormenta) se obtiene generando un conjunto de simulaciones
individuales a partir de condiciones iniciales ligeramente distintas.
Galaxias y nubes 1 71
ca del sistema? ¿Cómo nos atrevemos entonces a vaticinar lo que
pasará dentro de cien años? Para entenderlo, conviene recordar
la diferencia entre tiempo y clima. El
Si puedes simular el tiempo es como una variable que osci-
clima, puedes hacer la rápidamente y cuyas fluctuaciones
experimentos. Como son difíciles de prever, mientras que el
un Dios, puedes clima es el valor promedio de esta va-
mover continentes, riable calculado sobre largos períodos.
avivar el Sol o Aunque el tiempo es difícil de pronos-
atenuarlo, añadir ticar, la dinámica del clima se puede
o quitar gases de extrapolar al futuro con más facilidad
efecto invernadero o (fig. 6).
llenar la estratosfera Del mismo modo que en la previsión
de polvo. a corto plazo se usan conjuntos de mo-
PAUL N. EDWARDS delos para estimar el error de la previ-
sión, también en el estudio del cambio
climático se usan diferentes conjuntos de modelos para evaluar la
probabilidad de diferentes escenarios futuros. Dado que en la pre-
visión del clima influye de una manera determinante la acción del
r FIG. 6
Tiempo
Las fluctuaciones del tiempo son d1fíc1les de prever. pero el clima varía de una
manera más suave y fácil de extrapolar hacia el futuro.
72 1 Galaxias y nubes
>LA ECUACIÓN MÁS DIFÍCIL
La ecuación fundamental en los modelos de previsión meteorológica es la
ecuación de Navier-Stokes. Esta ecuación describe en general la dinámica
de cualquier fluido [como la atmósfera y los océanos]. Para un flujo incom-
presible [cuya densidad es constante]. toma la forma siguiente:
73
hombre a través de la emisión de gases invernadero, es necesario
tomar esto en consideración en los modelos. Los llamados mo-
delos RCP (acrónimo de representative concentration pathways),
usados por el Panel Intergubernamental para el Cambio Climático
(IPCC) de las Naciones Unidas, suponen diferentes evoluciones para
la concentración de gases invernadero en el futuro. Por ejemplo, el
modelo RCPS.5 supone que la concentración de gases invernadero
continuará aumentando sin pausa, mientras que el RCP2.6 imagina
que las emisiones alcanzarán su máximo en la década 2010-2020,
para decaer después. Desgraciadamente, todos los modelos sin ex-
cepción pronostican para el próximo siglo una continuación del ca-
lentamiento global observado, con un incremento en la temperatura
global de unos 2 ºC.
Existe un gran consenso en la comunidad científica alrededor
del cambio climático y de la necesidad de evaluar la magnitud de
la catástrofe que se avecina. El acuerdo de París de 2015, auspiciado
por las Naciones Unidas, emplaza a los países firmantes a tomar
medidas para mitigar la emisión de gases de efecto invernadero
con el objetivo de limitar el incremento de la temperatura media a
1,5 º C. En este contexto, las simulaciones del clima futuro son una
herramienta crucial a la hora de evaluar riesgos, prever el impacto
de nuestras acciones y diseñar políticas encaminadas a contener y
revertir el daño.
74 1 Galaxias y nubes
Apoyemos a nuestros autores favoritos adquiriendo el libro en formato real .
Communicate con nosotros , para encontrar mas libros o leerlo completo entra o manda mensaje al
siguiente
enlace : https://www.facebook.com/Recomendacion-de-Libros-Cientificos-108256341080433/
https://www.facebook.com/ion.keylands/
Siguenos en
Telegram
WhatSap