Documentos de Académico
Documentos de Profesional
Documentos de Cultura
1 Introducción
El presente informe ha sido realizado con el propósito de dejar documentado el
proceso de ejecución del modelo WRF, en su versión 3.9 con datos provenientes de GFS.
El mismo parte desde la finalización de la guía de instalación elaborada por este mismo
equipo de como compilar y configurar WRF, tanto en ICC como GCC.
Como última instancia, además, se agrega un capítulo explicando cuales son los pasos
necesarios para ejecutar el modelo en el cluster YAKU del LH-CETA. A continuación se
detalla cada etapa.
2 Pre-procesamiento
Para comenzar la ejecución del modelo es necesario contar, por un lado, con los
archivos GFS de la fecha que se desea modelar. Estos archivos tienen la extensión “.grib2”
y pueden ser descargados desde la web del NOAA (http://nomads.ncep.noaa.gov). Una vez
descargados los GFS que se necesitan para una determinada fecha, es necesario
configurar adecuadamente el namelist para ejecutar el modelo sobre esa determinada
fecha.
1 - Geogrid
2 - Ungrib
3 - Metgrid
2.2.1 Geogrid.exe
El objetivo de GEOGRID es definir el (los) dominio (s) de simulación e interpolar
varios conjuntos de datos terrestres a las grillas del modelo.
Por defecto, además de calcular latitud y longitud para cada punto de la grilla,
Geogrid interpolará las categorías de suelo, categoría de uso del suelo, altura del terreno,
temperatura media anual del suelo, fracción de vegetación mensual, albedo mensual,
albedo máximo de nieve y categoría de pendiente para las mallas del modelo.
_______________________________________________________________________
Este paso del software WPS debe ser ejecutado 1 vez por cada conjunto de datos
geográficos estadísticos utilizados. Los mismos son descargados a través del link provisto
en la guía anterior. Una vez descargados, se descomprime el archivo y se debe indicar en el
namelist.wps donde están ubicados estos datos geográficos:
geog_data_path = '/ubicacion/de/los/datos/WPS_GEOG'
./geogrid.exe
Si se utiliza una arquitectura distribuida (MPI), se debe ejecutar con el siguiente comando:
mpirun -n N ./geogrid.exe
2.2.2 Ungrib.exe
El objetivo de UNGRIB es descomprimir los datos meteorológicos GRIB (GRIB1 y
GRIB2) y empaquetarlos en un formato de archivo intermedio.
UNGRIB
- NO depende de ningún dominio de modelo WRF.
- NO es dependiente de GEOGRID.
- NO reduce los datos de acuerdo con las especificaciones de su modelo de dominio.
Simplemente desempaqueta los campos requeridos y los escribe en un formato que el
programa METGRID puede leer.
- utiliza Vtables (ver ejemplos de tablas en el directorio WPS / ungrib / Variable_Tables /)
para especificar qué campos desempaquetar de los archivos GRIB. Los Vtables enumeran
los campos y sus códigos GRIB que se deben desempaquetar de los archivos GRIB.
Este paso del WPS debe ser ejecutado cada vez que modelamos una nueva fecha.
Para poder ejecutarlo se debe ingresar al directorio de instalación de WPS y ejecutar las
siguiente línea de bash:
./ungrib.exe
Si se utiliza una arquitectura distribuida (MPI), se debe ejecutar con el siguiente comando:
mpirun -n N ./ungrib.exe
_______________________________________________________________________
Siendo N el número de procesos MPI a crear.
2.2.3 Metgrid.exe
El objetivo de METGRID es interpolar horizontalmente los datos meteorológicos en el
dominio de su modelo.
La salida de metgrid.exe se usa como entrada para WRF. y es entonces el último paso del
pre-procesamiento del modelo.
./metgrid.exe
Si se utiliza una arquitectura distribuida (MPI), se debe ejecutar con el siguiente comando:
mpirun -n N ./metgrid.exe
3 Procesamiento
Una vez finalizada la ejecución de metgrid, a la salida, se generan unos archivos con el
nombre de met_em_d<número de dominio>.<fecha>. Estos archivos deben ser copiados a
la carpeta “em_real” del directorio de instalación de WRF. El mismo se encuentra en
/directorio/de/instalación/WRFV3/test/em_real
3.1.1 time_control
_______________________________________________________________________
3.1.2 domains
3.1.3 physics
3.2 Real.exe
Habiendo finalizado la edición del namelist.input se puede proceder a la etapa del
procesamiento.
_______________________________________________________________________
El primer paso es el programa “real.exe”. Este programa interpola verticalmente los archivos
met_em* (generados por metgrid.exe), crea archivos de límite y de condición inicial, y
realiza algunas comprobaciones de coherencia.
./real.exe
Si se utiliza una arquitectura distribuida (MPI), se debe ejecutar con el siguiente comando:
mpirun -n N ./real.exe
Al finalizar, “real.exe” habrá creado 2 archivos que son necesarios para poder ejecutar el
modelo WRF (wrf.exe).
3.3 Wrf.exe
Este es el programa que genera el pronóstico del modelo.
./wrf.exe
Si se utiliza una arquitectura distribuida (MPI), se debe ejecutar con el siguiente comando:
mpirun -n N ./wrf.exe
Al finalizar, “wrf.exe” habrá creado 1 archivo que contiene el pronóstico modelado. Este
archivo se llama “wrfout_d<número de dominio>.<fecha>” (por defecto, si es que no se
modificó en el namelist.input).
4 WRF en YAKU
Los pasos necesarios para ejecutar el modelo WRF en el cluster, si bien son los mismos
anteriormente explicados, se necesitan realizar unos cambios a ellos.
_______________________________________________________________________
En primera instancia, se debe tener en cuenta que el cluster utiliza los llamados “módulos
de entorno” y un administrador de colas de trabajo para los diferentes usuarios que hacen
uso del cluster.
Debido a esto, para enviar a la cola de trabajos una corrida del wrf, es necesario agragarla a
la cola y esto se hace a través de la elaboración de un script.
Una vez que se tiene la carpeta, es necesario pegar dentro de la carpeta los archivos GFS
descargados con anterioridad desde la ubicación explicada en los capítulos previos de esta
guía. Con el comando “ls” podemos ver que archivos estan dentro de la carpeta de la
corrida.
[test@master pruebaWRF]$ ls
GFS_2018010918+000.grib2 GFS_2018010918+006.grib2 GFS_2018010918+012.grib2
GFS_2018010918+018.grib2 GFS_2018010918+024.grib2 GFS_2018010918+030.grib2
GFS_2018010918+036.grib2
GFS_2018010918+003.grib2 GFS_2018010918+009.grib2 GFS_2018010918+015.grib2
GFS_2018010918+021.grib2 GFS_2018010918+027.grib2 GFS_2018010918+033.grib2
GFS_2018010918+039.grib2
Una vez que tenemos los GFS, podremos crear el archivo que se envía a la cola de trabajo.
Esto lo hacemos con el programa nano de la siguiente manera:
_______________________________________________________________________
[test@master pruebaWRF]$ touch wrf.sh
[test@master pruebaWRF]$ chmod +x wrf.sh
[test@master pruebaWRF]$ nano wrf.sh
#!/bin/bash
#SBATCH --job-name=pruebaWRF
#SBATCH --partition=normal
#SBATCH --ntasks=64
#SBATCH --nodes=2
#SBATCH --ntasks-per-node=32
#SBATCH --exclusive
#SBATCH --mail-type=ALL
#SBATCH --mail-user=mail del usuario
################### Configuracion de WRF ###################
Donde:
Una vez terminado, debajo de la última línea se deben agregar las siguientes líneas:
prun ./geogrid
prun ./ungrib
prun ./metgrid
prun ./real.exe
prun ./wrf.exe
_______________________________________________________________________
Es necesario que dentro de la carpeta de la corrida se encuentren los namelist tanto de
WPS como de WRF.
Submitted batch job 713 (713 es el ID del trabajo, este número siempre será diferente)
En caso de querer ejectuar el modelo a través de LAN TCP, es necesario modificar el valor
de una variable de entorno llamada “I_MPI_FABRICS” al valor “tcp”:
En caso de querer regresar a Inbiniband, solo basta con quitarle el valor a la variable
anterior: