Está en la página 1de 123

SWAT-CUP

Programas SWATCalibration y la incertidumbre

Karim C. Abbaspour

abbaspour@eawag.ch
SWAT-CUP: SWAT Calibración y Programas de incertidumbre - Un Manual del usuario.

 EAWAG 2015

2
DESCARGO DE RESPONSABILIDAD

Este informe documenta SWAT-CUP, un programa de ordenador para la calibración de los modelos de
Swat. SWAT-CUP4 es un programa de dominio público, y como tal puede usarse y copiarse libremente.
El programa vincula SUFI2, PSO, pegamento, sombrilla, y los procedimientos MCMC a SWAT. Permite el
análisis de sensibilidad, calibración, validación y análisis de la incertidumbre de los modelos SWAT.
SWAT-CUP 2012 ha sido probado para todos los procedimientos antes de su liberación. Sin embargo, no
se da ninguna garantía de que el programa es completamente libre de errores. Si tiene problemas con el
código, encontrar errores, o si tiene sugerencias para la mejora, por favor escribir al grupo SWAT-CUP en
Googleaplastar-cup@googlegroups.com
Pagina de contenido

Alimento para el pensamiento en la calibración y la aplicación de las cuencas hidrográficas models6

SUFI-2 dieciséis

base conceptual del análisis de incertidumbre SUFI-2 routine17

SUFI-2 como una optimización algorithm19

SWAT-CUP 20

Paso a paso Creación de entrada SWAT-SUFI2 Files21

parametrización de SWAT-CUP51

Función objetiva definition55

Sensibilidad analysis59

Paralelo Processing63

validación de SUFI264

La secuencia de programa execution65

Cómo ... ..66

PSO 70

Introducción a PSO71

PEGAMENTO 74

Introducción a GLUE75

acoplamiento COLA a SWAT-CUP 77

La validación de GLUE78

Archivo Definition79

Sombrilla 81

Introducción a ParaSol82

Acoplar el parasol a SWAT-CUP 83


Sombrilla: Optimización y la incertidumbre análisis 85

MCMC 92

Introducción a MCMC 93

Paso a paso de ejecución de MCMC 96

referencias 98
Alimento para el pensamiento en la calibración y la aplicación de modelos de cuencas

El análisis de calibración y la incertidumbre de los modelos de cuencas distribuidos también está


rodeado de algunos problemas graves que merecen la atención y la consideración cuidadosa de los
investigadores. Estos son: 1) Parametrización de modelos de cuencas. 2) La definición de lo que es un
“modelo de cuenca calibrada” y cuáles son los límites de su uso. 3) La condicionalidad de un modelo de
cuenca calibrado. 4) La calibración de las cuencas alto grado de administración donde los procesos
naturales juegan un papel secundario, y 5) la incertidumbre y los problemas de no unicidad. Estos temas
se discuten brevemente aquí.

1) parametrización del modelo

En caso de que una unidad de suelo que aparece en varios lugares en una cuenca, bajo diferentes usos
del suelo y / o zonas climáticas, tener los mismos o diferentes parámetros? Probablemente debería
tener diferentes parámetros. El mismo argumento se podría hacer con el resto de parámetros
distribuidos. ¿Hasta dónde hay que dirigirse con esta diferenciación? Por un lado podríamos tener miles
de parámetros a calibrar, y el otro es posible que no tenga suficiente resolución espacial en el modelo
para ver la diferencia entre las diferentes regiones. Este equilibrio no es fácil de determinar y la elección
de parametrización afectará a los resultados de la calibración. Información detallada sobre parámetros
espaciales es indispensable para la construcción de un modelo de cuenca correcta. Una combinación de
los datos medidos y técnicas de análisis espacial utilizando funciones pedotransferencia, análisis
geoestadísticos,

2) Cuando se calibra un modelo de la cuenca?

Si un modelo de cuenca se calibra utilizando los datos de descarga en la salida de la cuenca, puede ser
llamado el modelo calibrado para que cuenca? Si añadimos la calidad del agua a los datos y volver a
calibrar, los parámetros hidrológicos obtenidos con base en la descarga solo va a cambiar. Es el nuevo
modelo calibrado para esa cuenca? ¿Y si le sumamos los datos de descarga de las estaciones dentro de
la cuenca? ¿El nuevo modelo dará cargas correctas de diferentes usos del suelo en la cuenca? Tal vez no,
a no ser que se incluyen las cargas en el proceso de calibración (ver Abbaspour et al., 2007). Por lo tanto,
una pregunta importante que surge es: “¿con qué propósito podemos utilizar un modelo de cuencas
calibrada?” Por ejemplo: ¿Cuáles son los requisitos de un modelo de cuenca calibrada si queremos hacer
el análisis del cambio de uso del suelo? O bien, el cambio climático análisis? O, análisis de las relaciones
de aguas arriba / aguas abajo en la asignación y distribución de agua? Puede cualquier dirección modelo
de cuenca calibrada sola todos estos problemas? Podemos tener varios modelos de calibrado para la
misma cuenca, donde cada modelo es aplicable a un determinado objetivo? Tenga en cuenta que estos
modelos más probable tener diferentes parámetros que representan procesos diferentes (ver
Abbaspour et al. 1999).

3) La condicionalidad de los modelos de cuencas calibrados

La condicionalidad es un problema importante con los modelos calibrados. Esto se relaciona con la
pregunta anterior relativa a la limitación en el uso de un modelo calibrado. parámetros calibrados están
condicionadas en la elección de la función objetivo, el tipo y el número de puntos de datos y el
procedimiento utilizado para la calibración, entre otros factores. En un estudio anterior (Abbaspour et
al. 1999), se investigó las consecuencias del uso de diferentes variables y combinación de variables de
entre carga de presión, contenido de agua, y la salida acumulada en la estimación de parámetros
hidráulicos por modelado inverso. El estudio inversa
combinado un procedimiento de optimización global con una solución numérica de las unidimensionales
Richards variable saturados flujo ecuación. Se analizaron los experimentos de drenaje de múltiples pasos
con condiciones de contorno controlados en grandes lisímetros. parámetros hidráulicos estima en base
a diferentes funciones objetivo eran todos diferentes entre sí; Sin embargo, una prueba significativa de
los resultados de simulación basados en estos parámetros reveló que la mayoría de los conjuntos de
parámetros de simulación produjo resultados similares. A pesar de la prueba de significación, de alto
nivel de las actuaciones de los parámetros ajustados reveló que eran altamente condicional con
respecto a las variables utilizadas en la función objetivo y el tipo de propia función objetivo.
Matemáticamente, podemos expresar un modelo M calibrada como:

METRO
pag, G, w, b, v, m,.)
 M (

donde  es un vector de parámetros, p es un procedimiento de calibración, g es el tipo de función


objetivo, w es un vector de pesos en la función objetivo, b es las condiciones de contorno, v es las
variables utilizadas en la función objetivo, m se el número de v de observados, etc. por lo tanto, un
modelo calibrado está condicionada en el procedimiento utilizado para la calibración, en la función
objetivo, en los pesos utilizados en la función objetivo, de las condiciones iniciales y de contorno, el tipo
y la longitud de medida los datos utilizados en la calibración, etc. Tal modelo no puede claramente ser
aplicado para cualquier análisis de escenarios.

4) La calibración de las cuencas alto grado de administración

En las cuencas alto grado de administración, los procesos naturales juegan un papel secundario. Si los
datos de gestión detallada no está disponible, entonces el ejemplo de estas cuencas no será posible.
Ejemplos de gestiones son presas y embalses, las transferencias de agua, y el riego de pozos profundos.
En la Figura 1a se muestra el efecto de Aswan presa en la descarga aguas abajo antes y después de su
funcionamiento. Está claro que sin el conocimiento de la operación de la presa, que no sería posible
modelar los procesos posteriores. Figura 1B muestra el efecto de humedal en aguas arriba de descarga,
en el medio, y aguas abajo de Niger Delta interior.

Figura 1. izquierda) Efecto de Aswan presa en abajo de descarga de corriente antes y después de su
operación en 1967. derecha) La influencia de Niger delta interior en el medio de flujo en sentido
ascendente, dentro de, y aguas abajo del humedal. (Después de Schuol et al., 2008a, b)
En la Figura 2 el efecto del riego en ET real y la humedad del suelo se ilustra en Esfahan, Irán. Esfahan es
una región de alta irrigación con un balance hídrico negativo para casi la mitad del año.

60 100
(un) 90 (si)
UNctual miT (metrometro 1 mes)

50 80

El agua del suelo (mm)


40 70
60
30 50
40
20
30
10 20
10
0 0

Mes
Mes

con el riego sin riego

Figura 2. Ilustración de las diferencias en ET real predicha (a) y la humedad del suelo (b) con y sin
considerar el riego en la provincia de Esfahan, Irán. Las variables son las medias mensuales para el
periodo de 1990-2002. (Después de Faramarzi et al., 2009)

En el estudio de los recursos hídricos en Irán, Faramarzi et al., (2008) produjeron un “mapa de gestión
del agua” (Figura 3) con el fin de explicar los resultados de la calibración de un modelo hidrológico del
país.

Mapa gestión Figura 3. El agua de Irán mostrando algunas de las actividades del hombre durante 1990-
2002. Las ubicaciones de mapa muestra de presas, depósito, las transferencias de agua y la cosecha de
las aguas subterráneas (fondo shows población provinciales de base). Después de Faramarzi et al.,
(2009).
5) problemas de incertidumbre

Otro problema con la calibración de los modelos de cuencas es el de la incertidumbre en las


predicciones. modelos de cuencas sufren de grandes incertidumbres del modelo. Estos se pueden dividir
en: la incertidumbre del modelo conceptual, la incertidumbre de entrada, y la incertidumbre de
parámetros. La incertidumbre del modelo conceptual (o incertidumbre estructural) podrían ser de las
siguientes situaciones: a) incertidumbres del modelo debido a simplificaciones en el modelo conceptual,
b) incertidumbres modelo debido a procesos que ocurren en los, c) incertidumbres modelo de cuenca
pero no incluidos en el modelo debido a los procesos que se incluyen en el modelo, pero sus apariciones
en las incertidumbres) modelo de la cuenca son desconocidos para el modelador, y D debido a los
procesos desconocidos para el modelador y no incluidos en el modelo, ya sea!

la incertidumbre de entrada es como resultado de errores en los datos de entrada, tales como la lluvia, y
lo más importante, la extensión de datos de puntos de grandes áreas en modelos distribuidos.
incertidumbre en los parámetros generalmente es causada como resultado de la inherente no unicidad
de los parámetros de modelación inversa. Parámetros representan procesos. El hecho de que los
procesos pueden compensar entre sí da lugar a muchos conjuntos de parámetros que producen la
misma señal de salida. Una breve explicación de los problemas de incertidumbre se ofrece a
continuación.

5.1) La incertidumbre del modelo conceptual

a) incertidumbres del modelo debido a las simplificaciones en el modelo conceptual. Por ejemplo, los
supuestos en la ecuación de la pérdida de suelo universal para estimar la pérdida de sedimento, o los
supuestos en el cálculo de la velocidad del flujo en un río. Las figuras 4a y 4b muestran algunas
ilustraciones gráficas.

Fig. 4. (a la izquierda) Un modelo conceptual simplificada de la hidrología en una cuenca donde se


ignora Revap. (Derecha) Un proceso natural cerca de la fuente del río Amarillo en China estragos de
juego con la carga de río en base a la USLE!

b) incertidumbres del modelo debido a los procesos que ocurren en la cuenca, pero no incluidos en el
modelo. Por ejemplo, la erosión eólica (Fig. 5 a la izquierda), erosiones causadas por deslizamientos de
tierra (Fig. 5 a la derecha), y el “efecto de segundo tormenta” efectuar la movilización de las partículas
de la superficie del suelo (véase Abbaspour et al., 2007).
Figura 5. natural no procesos incluidos en la mayoría de los modelos de cuencas pero con un gran
impacto en la hidrología y la calidad del agua de una cuenca, aunque por un corto período

c) incertidumbres del modelo debido a los procesos que se incluyen en el modelo, pero sus apariciones
en la cuenca son desconocidos para el modelador o inexplicable; por ejemplo, diversas formas de
depósitos, la transferencia de agua, riego, o gestión de la granja que afecta a la calidad del agua, etc.
(Fig. 6, 7).

Fig. 6. prácticas de gestión agrícolas, tales como la extracción de agua y la cría de animales puede
afectar a la cantidad y calidad del agua. Estos, no siempre se sabe que el modelador.
Fig. 7. El control del agua y las desviaciones de agua pueden cambiar el flujo de maneras que son
desconocidos para el modelador y, por lo tanto, no puede tenerse en cuenta en el modelo.

d) incertidumbres del modelo debido a los procesos desconocidos para el modelador y no incluidos en el
modelo, ya sea! Estos incluyen el vertido de material de desecho y los productos químicos en los ríos, o
procesos que pueden durar durante un número de años y cambiar drásticamente la calidad hidrología o
agua, tales como construcciones a gran escala de carreteras, presas, puentes, túneles, etc. La figura 8
muestra algunas situaciones que podrían agregar sustancial “modelo de error conceptual” en nuestro
análisis.

Fig. 8 grandes proyectos de construcción, tales como carreteras, presas, túneles, puentes, etc. pueden
cambiar el caudal del río y de la calidad del agua para un número de años. Esto puede no ser conocida o
cuentas por el modelador o el modelo
5.2) La incertidumbre de entrada

Además de la incertidumbre del modelo, existen incertidumbres debido a errores en las variables de
entrada, tales como las precipitaciones y la temperatura, como mediciones de puntos se utilizan en
modelos distribuidos. Es muy difícil dar cuenta de la incertidumbre de entrada. Algunos investigadores
proponen que tratan a los insumos como variable aleatoria, lo que permite ajustándolas para obtener
mejores simulaciones. A medida que los resultados del modelo son muy sensibles a los datos de
entrada, especialmente las precipitaciones, se debe tener cuidado en este tipo de enfoques. En las
regiones montañosas, la incertidumbre de entrada podría ser muy grande.

5.3) Parámetro no unicidad

Un solo resultados de los parámetros valorados en una sola señal de modelo en el modelado directo. En
una aplicación inversa, una señal observada, sin embargo, podría ser más-menos reproducida con miles
de diferentes conjuntos de parámetros. Esta singularidad no es una propiedad inherente de modelación
inversa (IM). IM, en los últimos años han convertido en un método muy popular para la calibración (por
ejemplo, Beven y Binley, 1992, 2001;. Abbaspour y otros, 1997, 2007;. Duan et al., 2003; Gupta et al,
1998). IM está relacionada con el problema de hacer inferencias acerca de los sistemas físicos de
variables de salida medidos del modelo (por ejemplo, la descarga del río, concentración de sedimentos).
Esto es atractivo porque la medición directa de los parámetros que describen el sistema físico es mucho
tiempo, costoso y tedioso, y a menudo tiene una aplicabilidad limitada. Debido a que casi todas las
mediciones están sujetas a cierto grado de incertidumbre,

GW_DELAY CH_N2 CN2 REVAPMN Sol_AWC sol


3.46 0,0098 50 0.8 0.11 0,010
0.34 0,131 20 2.4 0,2 3 0,011

Figura 9. Ejemplo de muestra dos señales de descarga similares parámetro no unicidad basado en
muy diferentes valores de los parámetros

Además, dado que sólo se puede medir un número limitado de datos (ruidoso) y porque los sistemas
físicos son normalmente modelados por ecuaciones del continuo, no hay problema inverso hidrológico
es realmente única solución. En otras palabras, si hay un único modelo que se ajuste a las mediciones
habrá
muchos de ellos. Un ejemplo se muestra en la Figura 9 en la que dos conjuntos de parámetros muy
diferentes producen señales similares a la descarga observada. Nuestro objetivo en la modelación
inversa es entonces para caracterizar el conjunto de modelos, principalmente a través de la distribución
de la asignación (incertidumbres) a los parámetros, que se ajustan los datos y satisfagan nuestras
presunciones, así como otra información previa.

El efecto de queso suizo

El problema no unicidad también puede ser visto desde el punto de vista de la función objetivo. Trazado
de la superficie de respuesta-función objetivo para dos por dos combinaciones de parámetros podría ser
bastante revelador. A modo de ejemplo, véase la Figura 10 donde la inversa de una función objetivo se
representa en función de dos parámetros, por lo tanto, los mínimos locales se muestran como picos.
Tamaño y distribución de estos picos se asemeja a los agujeros misteriosos en un bloque de queso suizo
Emmental donde el tamaño de cada hoyo representa la incertidumbre local. Nuestra experiencia
muestra que cada método de calibración converge a uno de esos picos (ver los artículos por Yang et al.,
2008, Schuol et al., 2008a, y Faramarzi et al., 2008). Yang et al., (2008) en comparación generalizada
Likelihood incertidumbre de la estimación (pegamento) (Beven y Binley, 1992), solución de parámetros
(Parasol) (Van Griensven y Meixner, 2003a), Secuencial de montaje incertidumbre (SUFI2) (Abbaspour et
al, 2004;. 2007), y la cadena de Markov Monte Carlo (MCMC) (por ejemplo, Kuczera y Parent, 1998;
Marshall et al, 2004;.. Vrugt et al, 2003 ;. Yang et al, 2007) métodos en una aplicación a una cuenca en
china. Encontraron que estos diferentes programas de optimización de cada encontraron una solución
diferente en diferentes lugares en los espacios de parámetros con más menos los mismos resultados de
descarga. La Tabla 1 presenta un resumen de la comparación. Encontraron que estos diferentes
programas de optimización de cada encontraron una solución diferente en diferentes lugares en los
espacios de parámetros con más menos los mismos resultados de descarga. La Tabla 1 presenta un
resumen de la comparación. Encontraron que estos diferentes programas de optimización de cada
encontraron una solución diferente en diferentes lugares en los espacios de parámetros con más menos
los mismos resultados de descarga. La Tabla 1 presenta un resumen de la comparación.

Para limitar la no unicidad, la función objetivo se debe hacer lo más completa posible mediante la
inclusión de diferentes flujos y cargas (ver Abbaspour et al., 2007). La desventaja de esto es que una
gran cantidad de datos debe ser medido para la calibración. El uso de los datos de teledetección, cuando
esté disponible, podría ser de gran utilidad. De hecho, creemos que el próximo gran salto en el
modelado de cuencas se hizo como resultado de los avances en la disponibilidad de los datos de
teledetección.

También podrían existir más errores en las mismas mediciones que utilizamos para calibrar el modelo.
Estos errores pueden ser muy grandes, por ejemplo, en los datos y tomar muestras de sedimentos si se
utiliza para la calibración. Otro vale la pena mencionar es que la incertidumbre de la “incertidumbre
modelador”! Se ha demostrado que antes de la experiencia de los modeladores podría hacer una gran
diferencia en la calibración del modelo. Esperamos que los paquetes como SWAT-CUP pueden ayudar a
la incertidumbre disminución modelador mediante la eliminación de algunas fuentes probables de
modelado y de calibración errores.

En una nota final, es altamente deseable separar cuantitativamente el efecto de diferentes


incertidumbres sobre los resultados del modelo, pero esto es muy difícil de hacer. El efecto combinado,
sin embargo, siempre debe ser cuantificado en el modelo pone a cabo.
Figura 10. Una función objetivo multidimensional es “multimodal” lo que significa que hay muchas
áreas de buenas soluciones con diferentes incertidumbres tanto como los agujeros misteriosos en
una rebanada de queso suizo.
Tabla 1. Resumen de las estadísticas que comparan diferentes procedimientos de calibración de incertidumbre.

Criterio PEGAMENTO Sombrilla SUFI-2 inferencia bayesiana con


cont. autoregr. modelo
de error
MCMC ES
la función objetivo Nash-Sutcliffe Nash-Sutcliffe Nash-Sutcliffe enviar. enviar.
prob. prob.
densidad densidad
un CN2.mgt -16,8 (-29,6, - -21,0 (-21,9, - -26,9 (-30,0, -7,2) -14,2 (-16,8, - -19.60
v ESCO.hru 9.8) 1 20.1) 0.82 (0.43, 1.0) 11.6) 0.62
v EPCO.hru 0.76 (0.02, 0.97) 0.67 (0.65, 0.69) 1 (0,34, 1,0) 0.74 (0.63, 0.75) 0.27
r SOL_K.sol 0.22 (0.04, 0.90) 0.16 (0.13, 0.20) -0,1 (-0,58, 0,34) 0.94 (0.39, 0.98) 0.01
un SOL_AWC.sol -0,16 (-0,36, -0.37 (-0.41, - 0.07 (0.05, 0.15) -0,29 (-0,31, 0,78) 0.05
v ALPHA_BF.gw 0,78) 0.34) 0.51 (0.23, 0.74) 0,12 (0,1, 0,13) 0.91
v GW_DELAY.gw 0.11 (0.01, 0.15) 0.07 (0.08, 0.08) 190.07 (100.2, 300) 0.14 (0.11, 0.15) 33.15
r SLSUBBSN.hru 0.12 (0.06, 0.97) 0.12 (0.08, 0.13) -0,52 (-0,60, 0,03) 25.5 (17.8, 33.3) 0.58
un CH_K2.rte 159,58 (9.7, 107,7 (91.2,115.2) 83.95 (69.4, 150.0) -0,55 (-0,56, 147.23
un OV_N.hru 289,3) -0,59 (-0,60; - 0.06 (0.00, 0.11) 0,15) 0.08
2
2σseco
-0,45 (-0,56, 0.58) - 78.3 (68.0, 86.2) 0.87
σmojado 0.46) 35.70 - 0.12 (0.00, 0.19) 2.30
2
τseco 78,19 (6,0, 144,8) (27.72,37.67) - 0.93 (0.81, 1.10) 28.47
2
τmojado 0.05 (0.00, 0.20) 0.11 (0.07, 0.10) - 2.81 (2.4, 3.9) 0.92
- - 38.13 (29.5, 53.8)
- 3,42 (2,4, 8,0)
-
-
NS para cal (val) 0,80 (0,78) 0,82 (0,81) 0,80 (0,75) 0,77 (0,77) 0,64 (0,71)
R2 para cal (val) 0,80 (0,84) 0,82 (0,85) 0,81 (0,81) 0,78 (0,81) 0,70 (0,72)
LogPDF para cal (val) -1989 (-926) -2,049 (-1,043) -2,426 (-1,095) -1521 (-866) -1650 (-801)
3
p-factor de de cal 79% (69%) 18% (20%) 84% (82%) 85% (84%) -
(Val)
4
d-factor de de cal 0,65 (0,51) 0,08 (0,07) 1,03 (0,82) 1,47 (1,19) -
(Val)
Incertidumbre Todas las Parámetro Todas las fuentes Parámetro Parámetro
fuentes de de
descrito por incertidumbre única incertidumbre única incertidumb
incertidumbre incertidumbre re
parámetro solamente
incertidumbre
dificultad de muy fácil fácil fácil más complicado más
implementar. Complicado
Número de carreras 10000 7500 1500 + 1500 5000 + 20.000 + 100'000
20'000
1
c (a, b) para cada medio de parámetros: c es la mejor estimación de parámetros, (a, b) es el
rango del parámetro incertidumbre 95%, excepto SUFI-2 (en SUFI-2, este intervalo indica la
distribución de los parámetros final).
2
la σdry, σwet, τdry, y τwet utilizan para calcular el calcular el logaritmo de la probabilidad posterior
función de densidad (PDF) son de lo mejor de MCMC.
3
p-factor de significa que el porcentaje de observaciones cubierto por el 95PPU
4
d-factor de significa anchura relativa de la banda de probabilidad del 95% (después de Yang et al., 2008)
SUFI2
La incertidumbre secuencial
de montaje de la versión 2

calibración de descarga

700
los datos medidos entre corchetes por el 95PPU = 91%

600 d-factor de = 1,0

500
descarga diaria (m3 s-1)

400

300

200

100

0
01.01.9101.07.9101.01.9201.07.9201.01.9301.07.9301.01.9401.07.9401.01.9501.07.9501.01.96

Fecha
base conceptual de la rutina de análisis SUFI-2 incertidumbre
El enfoque “determinista” a la calibración se ha quedado desfasado e inaceptable. Ejemplo de
optimización determinista es “ensayo y error”. Lo que significa que seguir ajustando los parámetros
hasta obtener una especie de ajuste razonable entre la simulación y la observación. Informar de este
como un modelo calibrado, en mi opinión está mal, y no va a estar en cualquier tribunal de justicia, si se
trata de eso. Aquí, no vamos a discutir más a fondo los enfoques deterministas que dan lugar a un único
conjunto de parámetros que dicen representar a la “mejor simulación”.

En la calibración “estocástico”, reconocemos los errores e incertidumbres en nuestro trabajo de


modelado y tratar de capturar, en cierta medida, nuestra ignorancia y la falta de comprensión de los
procesos en los sistemas naturales. Existe una relación íntima entre la calibración y la incertidumbre
(Abbaspour, et al., 2015). Informar de la incertidumbre no es un lujo en el modelado, es una necesidad.
Sin la incertidumbre, la calibración no tiene sentido y engañosa. Además, cualquier análisis con el
modelo calibrado debe incluir la incertidumbre en el resultado mediante la propagación de las
incertidumbres de los parámetros.

En SUFI-2, la incertidumbre en los parámetros, expresado como rangos (distribuciones uniformes),


representa todas las fuentes de incertidumbres tales como la incertidumbre en las variables de
conducción (por ejemplo, precipitación), modelo conceptual, parámetros y datos medidos. Propagación
de las incertidumbres en los cables de parámetros a las incertidumbres en las variables de salida del
modelo, que se expresan como las distribuciones de probabilidad del 95%. Estos se calculan a los 2,5% y
97,5% los niveles de la distribución acumulativa de una variable de salida generada por la propagación
de las incertidumbres de los parámetros utilizando muestreo hipercubo latino. Esto se conoce como la
incertidumbre de predicción de 95%, o 95PPU. Estos 95PPUs son los resultados de los modelos de
calibración en un enfoque estocástico. Es importante darse cuenta de que no tenemos una sola señal
que representa los resultados del modelo,

En SUFI2, queremos que nuestro modelo de resultado (95PPU) envuelve la mayor parte de las
observaciones. Observación, es lo que hemos medido en el sistema natural. La observación es
importante porque es la culminación de todos los procesos que tienen lugar en la región de estudio. El
argumento, sin embargo ingenua, es que si capturamos la observación correctamente con nuestro
modelo, entonces de alguna manera estamos capturando correctamente todos los procesos que
conducen a la observación. El problema, por supuesto, es que a menudo una combinación de procesos
equivocados en nuestro modelo también puede producir buenos resultados de la simulación. Por esta
razón, los más variables (que representan diferentes procesos) que incluyen en la función objetivo,
tanto más probable es que para evitar los procesos equivocados.

Para cuantificar el ajuste entre resultado de la simulación, expresado como 95PPU, y la observación
expresada como una única señal (con algún error asociado con él) se nos ocurrió dos estadísticas:. P-
factor y R-factor (ver Abbaspour et al, 2004, 2007 referencias proporcionadas en la lista de referencia de
SWAT-CUP). Factor P es el porcentaje de los datos observados envuelto por nuestro resultado de
modelado, la 95PPU. R-factor es el espesor de la envoltura 95PPU. En SUFI2, tratamos de obtener
valores razonables de estos dos factores. Aunque nos gustaría para capturar la mayor parte de nuestras
observaciones en el sobre 95PPU, tendríamos al mismo tiempo como tener un pequeño sobre. No
existen cifras exactas de lo que estos dos factores deben ser, al igual que el hecho de que no existen
cifras concretas para R2 o NS. Cuanto más grandes son, mejor que son. Para el factor P, hemos sugerido
un valor de> 70% para la descarga,

SUFI2 opera mediante la realización de varias iteraciones, por lo general a más <5. En cada iteración, los
rangos de parámetros quedan zoom más pequeña en una región del espacio de parámetros, que
produjo mejores resultados en el
iteración anterior. Naturalmente, como intervalos de parámetros se hacen más pequeños, el sobre
95PPU se hace más pequeño, dando lugar a menor factor P y más pequeño R-factor. A medida que cada
iteración zoom en una mejor región del espacio de parámetros, obtenidos por la iteración anterior, se va
a encontrar un “mejor” solución mejor. Por lo tanto, si usted tiene NS como su función objetivo, por lo
que recibirá un mejor NS en iteraciones posteriores, pero el factor P y el factor R disminuirá debido a
intervalos de parámetros estrechos. Pero la idea no es encontrar que los llamados “mejor simulación”.
Porque, 1) no son siempre mejores simulaciones, y 2) la diferencia entre el “mejor simulación” y el
“siguiente mejor simulación” y el “siguiente siguiente mejor simulación” es por lo general
estadísticamente insignificante (por ejemplo, NS = 0,83 vs NS = 0,81 probablemente no son
significativamente diferentes), lo que significa que podrían ser identificados tanto como las mejores
simulaciones. Sin embargo, aunque las diferencias son insignificantes en términos del valor de la función
objetivo, que son muy importantes en términos de valores de los parámetros. Por lo tanto, la solución
siguiente mejor no puede ser ignorada.

El concepto detrás del análisis de la incertidumbre del algoritmo SUFI-2 se representa gráficamente en
la siguiente figura. Esta figura ilustra que un solo valor de parámetro (que se muestra por un punto)
conduce a una única respuesta del modelo (Fig. A), mientras que la propagación de la incertidumbre en
un parámetro (mostrada por una línea) conduce a la 95PPU ilustrados por la región sombreada en
Figura b. A medida que aumenta la incertidumbre de los parámetros, la incertidumbre de salida
también aumenta (no necesariamente de forma lineal) (Fig. C). Por lo tanto, sufi-2 comienza asumiendo
una gran incertidumbre en los parámetros (dentro de un rango físicamente significativa), de modo que
los datos medidos cae inicialmente dentro de la 95PPU, a continuación, disminuye esta incertidumbre
en pasos, mientras que el control de la P-factor y el factor de R-. En cada paso, intervalos de parámetros
anteriores son actualizados por el cálculo de la matriz de sensibilidad (equivalente a Jacobiano), y
equivalente de una matriz de Hesse, seguido por el cálculo de matriz de covarianza, los intervalos de
confianza del 95% de los parámetros, y la matriz de correlación. Los parámetros se actualizan a
continuación, de tal manera que los nuevos rangos son siempre menores que los intervalos anteriores,
y se centran en la mejor simulación (para más detalles, véase Abbaspour et al., 2004, 2007).

Una ilustración conceptual de la relación entre la incertidumbre de parámetros y


predicción incertidumbre
La bondad de ajuste y el grado en que las cuentas modelo calibrado para las incertidumbres son
evaluados por la encima de dos medidas. Teóricamente, el valor para los rangos de P-factor de entre 0 y
100%, mientras que la de rangos R-factor de entre 0 y el infinito. AP-factor de 1 y R-factor de de cero es
una simulación que corresponde exactamente a los datos medidos. El grado en que estamos lejos de
estas cifras se puede utilizar para juzgar la fuerza de nuestra calibración. UN
mayor factor P puede lograrse a costa de un factor R más grande.

Por lo tanto, a menudo se debe alcanzar un equilibrio entre los dos. Cuando se alcanzan valores
aceptables de factor R y el factor de P-, entonces las incertidumbres de los parámetros son los rangos de
los parámetros deseados. Además bondad de ajuste se puede cuantificar por el coeficiente de Nash-
Sutcliff (NS) entre las observaciones y la final “mejor” simulación R2 y / o. Cabe señalar que no buscamos
el “mejor simulación” como en un procedimiento de este tipo estocástico la “mejor solución” es en
realidad los intervalos de parámetros finales.

Si inicialmente nos propusimos intervalos de parámetros igual al máximo rangos físicamente


significativas y todavía no puede encontrar un 95PPU que soportes de cualquiera o más de los datos, por
ejemplo, si se produce la situación en la Figura d, entonces el problema no es uno de calibración de
parámetros y las modelo conceptual debe ser reexaminado.

SUFI-2 como un algoritmo de optimización


Para una descripción de SUFI-2 ver Abbaspour et al., (2004, 2007). Las referencias se proporcionan en el
directorio de referencia de SWAT-CUP.

Para un protocolo de calibración ver Abbaspour et al., (2015).


http://www.sciencedirect.com/science/article/pii/S0022169415001985
SWAT-CUP
la calibración del modelo automatizada requiere que los parámetros del modelo de incertidumbre se
cambian sistemáticamente, el modelo se ejecuta, y los resultados requeridos (correspondientes a los
datos medidos) se extraen de los archivos de salida del modelo. La función principal de una interfaz es
para proporcionar un enlace entre la entrada / salida de un programa de calibración y el modelo. La
forma más sencilla de manejar el intercambio de archivos es a través de los formatos de archivo de
texto.

SWAT-CUP es una interfaz que se desarrolló para SWAT. El uso de este interfaz genérica, ninguna
calibración / incertidumbre o programa de sensibilidad fácilmente pueden vincularse a SWAT. Un
diagrama esquemático de la relación entre SWAT y cinco programas de optimización se ilustra en la
figura siguiente.
Paso a paso Creación de entrada SWAT-SUFI2 Archivos

SUFI2_LH_sample.exe par_inf.txt

par_val.txt SUFI2_new_pars.exe

APOYO
SWAT_Edit.exe SUFI2_swEdit.def

entradas
SWAT
modificados

swat.exe

APLASTAR
salidas
SUFI2_extract_rch.exe observed.txt
SUFI2_extract_rch.def

SUFI2_goal_fn.exe
goal.txt
*.fuera
Se satisface criterios de calibración?
SUFI2_95ppu.exe No

si

detener
1. Antes de SWAT-CUP
Familiarizarse con los parámetros de SWAT. Todos ellos se explican en el SWAT de E / S manual.
Además, lea la teoría y aplicación de SWAT-SUFI2 al principio de este manual y en los siguientes
documentos:
‐ Jue. papel de cuencas (Abbaspour et al., 2007)
‐ aplicación Landfill en Suiza (Abbaspour et al., 2004)
‐ La aplicación continental en África (Schuol et al, 2008a, b) y Europa (Abbaspour et al, 2014)
‐ La aplicación basada en los países en Irán (Faramarzi et al., 2008)
‐ La comparación de los diferentes programas de optimización (Yang et al., 2008)
‐ El documento de procesamiento en paralelo (Rouholahnejad et al., 2013)
‐ El papel de la aplicación del Mar Negro (Rouholahnejad et al., 2014)
‐ La aplicación a toda Europa (Abbaspour et al., 2015)
(http://www.sciencedirect.com/science/article/pii/S0022169415001985)
Y las restantes en el directorio C: \ SWAT \ SWAT-CUP \ \ ExternalData
Referencias

2. Inicio SWAT-CUP
Instalar el SWAT-CUP en C: \ SWAT \ SWAT-CUP, el mismo directorio que el SWAT e iniciar el programa
pulsando el icono SWAT-CUP en el escritorio:

3. Abrir un Proyecto

‐ Para abrir un proyecto nuevo o viejo: Prensa thesymbol en la parte superior izquierda esquina

y elegir un “nuevo” o un viejo proyecto “abierto”


‐ Para un nuevo proyecto localizar un directorio SWAT “TxtInOut”. Cualquier archivo con “TxtInOut” en
la cadena de nombre sería aceptable

‐ Elija versiones SWAT y procesador

‐ Seleccionar un programa de la lista proporcionada (SUFI2, pegamento, sombrilla, MCMC, PSO). Una
explicación detallada del procedimiento SUFI-2 se ofrece aquí, pero todos los programas siguen el
mismo formato.

‐ Dar un nombre al proyecto y un lugar en el proyecto SWAT-CUP puede ser salvado.


Tenga en cuenta la adición por defecto al nombre proporcionado en la ventana a la derecha de la
ventana “Nombre del proyecto”. Para un proyecto SUFI2, el SWAT-CUP nombre de directorio completo
en el siguiente ejemplo sería test_1.Sufi2.SwatCup, que residirá en c: \ ArcSWAT-proyectos \ directorio
Black_Sea.

En este punto El programa crea el directorio del proyecto deseado y copias de todos los archivos allí
TxtInOut desde la ubicación indicada en el directorio del proyecto SWAT-CUP. También crea un
directorio llamado “copia de seguridad” en el mismo directorio y copia del proyecto SWAT-CUP todos
los archivos de SWAT TxtInOut allí. Los parámetros de los archivos en el directorio de copia de
seguridad sirven como los parámetros por defecto y no cambian durante el proceso de calibración. El
directorio de copia de seguridad es siempre necesaria - como su forma original - porque, cambios
relativos que se han hecho a los parámetros durante la calibración, se hicieron con relación a los valores
de los parámetros en el directorio de copia de seguridad. Por lo tanto, es importante que el directorio
de copia de seguridad no se cambia nunca.

4. Los archivos de salida de SWAT


Puede calibrar el modelo basado en las variables de output.rch, output.hru, output.sub, output.res,
output.mgt, y ahora también los archivos generados por hora. Sin embargo, la interfaz muestra sólo
.rch, .hru, y .sub. A medida que más a menudo que tienen ya sea de descarga, los datos de nutrientes, o
los datos de sedimentos, sólo éstos se muestran en la interfaz. Basta con hacer clic y activar el archivo
que desea utilizar (es decir, las variables observadas en el que residen archivo SWAT (s)).
5. Las entradas de calibración
Bajo las entradas de calibración editar los siguientes archivos:

‐ Par_inf.txt
Este archivo reside en el directorio del proyecto en el directorio SUFI2.IN. Contiene parámetros de
entrada para ser optimizados. Se proporciona un ejemplo, que tiene que ser editado por el usuario. Los
ejemplos se muestra el formato del archivo. Editarla para sus necesidades. se proporciona una vista de
texto y una vista de formulario. La vista de formulario ayuda con la búsqueda de la sintaxis de parámetro
correcto o expresión. Todos los parámetros de SWAT (hasta el momento de la compilación de la última
versión del golpe violento taza) se pueden encontrar aquí. La opinión de la forma siguiente protocolo
estándar de Windows y se aconseja a los usuarios a familiarizarse con este módulo probando diferentes
características de la misma. Lo que se hace en la vista formulario, aparece en la vista de texto y
viceversa. También se anima a los usuarios a probar cosas diferentes en la vista de la forma y el aspecto
en el que en la vista de texto para familiarizarse con esta característica importante y única de SWAT-
CUP.

Este archivo contiene el número de parámetros a optimizar y el número de simulaciones para hacer en
la iteración actual. SUFI2 es iterativo, cada iteración contiene una serie de simulaciones. Alrededor de
500 simulaciones se recomiendan en cada iteración. Pero si un proyecto swat toma demasiado tiempo
para correr, menor número de simulaciones (200-300) en cada iteración podría ser aceptable. Los
parámetros se muestrearon mediante esquema de hipercubo latino explica más adelante en el manual.
Por lo general, no más de 4 iteraciones son suficientes para llegar a una solución aceptable. Un módulo
de procesamiento en paralelo también está disponible para acelerar el proceso de calibración.

Para aprender más acerca de “parametrización” y calificadores parámetro r, v, y por favor, vea la sección
de “parametrización” a continuación.
¿Qué parámetros de uso dependen de la función objetivo. Inicialmente, en cada caso, el flujo debe ser
calibrado y las variables, entonces la calidad del agua añadido de uno en uno (ver Abbaspour et al.,
2007, 2015 para las opciones de parámetros y protocolo de calibración).

‐ SUFI2_swEdit.def
Este archivo contiene el principio y el fin de la simulación años. Tenga en cuenta que la simulación de
comenzar no incluye el período de calentamiento. SWAT simula el período de calentamiento, pero no
se imprime ningún resultado, por lo tanto, estos años no se consideran en SWAT-CUP. Puede comprobar
output.rch archivo de SWAT para ver cuando el principio y los tiempos de simulación final es.
‐ File.cio
Este es un archivo de SWAT. Se pone aquí por conveniencia. Lo que necesita de este archivo son los años
de simulación y el número de años de calentamiento (NYSKIP) para proporcionar correctamente SWAT-
CUP con el comienzo y el año final de la simulación. Se recomienda que usted tiene 2-3 años de período
de calentamiento.

.............

.............

Miss-especificando las fechas correctas es la causa del mayor error del usuario! Tenga en cuenta lo siguiente:

- En el ejemplo anterior, a partir de años de simulación SWAT es 1987, año final es 2001
- Hay 3 años de periodo arriba caliente según lo indicado por NYSKIP. Por lo tanto, los archivos de
salida SWAT contienen datos de 1990 a 2001. Estas fechas son de interés para SWAT-CUP. Así,
en SWAT-CUP comenzando el año es 1990 y el año final es 2.001.
- También tenga en cuenta que SWAT-CUP requiere el IDAF a estar al principio del año (siempre
1) y IDAL a ir hasta el final del año (365 o 366 para los años bisiestos). Por lo tanto, la simulación
SWAT siempre debe ser desde el principio hasta el final del año. Por lo que sus datos climáticos
deben ser desde el principio hasta el final del año.

‐ Absolute_SWAT_Values.txt
Todos los parámetros que deben ir provistos debe ser en este archivo más su absoluta min y rangos
max. Actualmente la mayoría, pero tal vez no todos los parámetros se incluyen en este archivo. Basta
con añadir a ella los parámetros que no existen. El programa SWAT_Edit.exe, que sustituye en el
parámetros de los archivos de SWAT, no permite parámetros fuera de estos límites en archivos de
SWAT.

etcétera
6. Observación
Bajo observación son tres archivos que contienen las variables observadas. variables observadas
corresponden a las variables en output.rch, output.hru y output.sub, output.res y archivos output.mgt,
aunque estos dos últimos no aparecen en SWAT-CUP.

Inicialmente, se desactivan todas las opciones. Para activar tiene que elegir qué archivo SWAT contiene
los datos simulados (paso 4 anterior). Las variables de diferentes archivos pueden incluirse para formar
una función objetivo de múltiples componentes. Simplemente única editar el archivo (s) que se aplica a
su proyecto y no se preocupan por los que no lo hacen. El formato debe ser exactamente como se
muestra en los ejemplos proporcionados en el programa. Los tres archivos Observed_rch.txt,
Observed_hru.txt y Observed_bsn.txt Aquí se pueden editar, pero observed_res.txt para los datos de
depósito y observed_mgt.txt para el rendimiento del cultivo están también disponibles que podrían ser
editado directamente en el directorio. \ SUFI2.IN en el directorio del proyecto SWAT-CUP.

Valores faltantes

El formato de los archivos de observación son como se muestra en los ejemplos proporcionados. Estos
archivos pueden hacer fácilmente en Excel y pegar aquí. En los archivos observados Es posible que haya
falta de datos que pueden ser explicados como se muestra en los archivos de ejemplo y se explica a
continuación.

La primera columna tiene números secuenciales desde el comienzo del período de tiempo de
simulación. En el siguiente ejemplo, los primeros 10 meses faltan por lo que la primera columna
comienza a partir de 11. También, mes 18,19, y 20 están desaparecidos.
La segunda columna tiene un “formato arbitrario” pero debe ser una cadena conectada. A
continuación, se muestra la variable nombre, mes y año. La tercera columna es el valor de la variable.

Si el flujo base se separó, y se utiliza el flujo de base dinámica, a continuación, también debe añadirse
una cuarta columna que indica el flujo base. El ejemplo de un archivo de observación con el flujo base se
da en observada + .txt en. \ Directorio SUFI2.IN.

Todos los archivos txt otra observación _ *. Tienen el mismo formato. Este archivo indica a los
programas de extracto de SWAT-CUP lo que se quiere extraer los archivos de salida SWAT.

Los archivos observed_rch.txt pueden contener muchas variables tales como descarga, sedimentos,
nitrato, etc., que aparecen en el archivo de salida output.hru SWAT. Sólo tiene que utilizar el mismo
formato para todas las variables que se muestran en los ejemplos. Además, para el nombre de las
variables, ser coherente en todos los archivos SWAT-CUP.

7. Extracción
En virtud de extracción se encuentran dos tipos de archivos .txt y .def correspondientes de nuevo a
SWAT archivos de salida output.rch, output.hru y output.sub. Si tiene observaciones correspondientes a
las variables en estos archivos, entonces usted necesita para extraer los valores simulados
correspondientes de sólo estos archivos.
.TXT archivos contienen simplemente los nombres de los archivos que los valores extraídos deben ser
escritas a, y los archivos .def definen qué tienen que ser extraídos de la que subcuencas variables. Estos
archivos son relativamente explica por sí misma. Aquí de nuevo sólo editar los archivos necesarios.

En el ejemplo dado, tenemos 4 variables medidas, 3 descargas de subcuencas 1,3,7 y 1 de nitrato de


subcuenca 7. Los archivos de extracción de SWAT-CUP extraer los correspondientes datos simulados de
archivo output.rch y escribirlos en el archivos indicado aquí para cada simulación.

A continuación se muestra un ejemplo de SUFI2_extrcat_rch.def


El archivo es auto-explicativo. Estamos extrayendo 2 variables: la descarga y nitrato. Están en las
columnas 7 y 18 en el archivo output.rch. Hay un total de 20 subcuencas en el proyecto. Para la
descarga, tenemos fluir mediciones de subcuencas 1, 3, y 7. Para nitrato hemos medición a partir de
número subcuenca 7 solamente.La fecha de inicio “no” incluye el período de calentamiento.

8. Función objetiva
A continuación, se define la función objetivo. En este paso dos archivos Observed.txt y
Var_file_name.txt deben ser editados. El archivo Observed.txt contiene toda la información en
observed_rch.txt, observed_hru.txt, archivos observed_sub.txt, más algo de información extra para el
cálculo de la función objetivo.

-Var_file_name.txt contiene los nombres de todas las variables que se deben incluir en el en la función
objetivo. Estos nombres son similares a los nombres en el var_file _ *. Txt en la sección de extracción.

-Observed.txt archivo también es bastante explica por sí mismo.


En este ejemplo tenemos 4 variables. Tenemos una opción para elegir entre 10 diferentes funciones
objetivo. Lea la sección Función objetivo abajo para una explicación más detallada de las funciones.

La tercera línea es opcional para funcionar, pero debe haber un número aquí. Si expresa un valor umbral
de aquí, a continuación, todas las simulaciones con el valor de la función objetivo mejor que el umbral se
recogieron y el 95PPU calculan en base a las simulaciones. Aquí, el SUFI2 llega a ser similar al
pegamento. El p-factor y el factor R para un umbral dado pueden ser diferentes de la solución en la que
el umbral no se considera. Tenga en cuenta que el valor de umbral debe corresponder al tipo de función
objetivo que se utiliza.

separación del caudal base

Se proporcionan dos opciones a considerar separación del caudal base: estática y dinámica. En el caso
estático, se utiliza un valor de umbral constante para el flujo de base. Estos valores, divide la señal de
descarga en dos partes. Los valores más pequeños que el umbral y los valores mayores que el umbral se
tratan como dos variables y llevan dos pesos diferentes. Esto es para asegurar que, por ejemplo, el flujo
de base tiene los mismos valores que fluye del pico. Sin esta división, si se elige la opción 2 para la
función objetivo, es decir, el error cuadrado medio (véase la sección función objetivo más adelante),
entonces los flujos pequeños no van a tener mucho efecto en la optimización. Por lo tanto, el flujo
máximo dominará los procesos. Con la opción de umbral estático, pequeños flujos se pueden dar un
peso mayor en la función objetivo para que tengan casi la misma contribución a la función objetivo
como fluye el pico. La separación del flujo de base es más eficaz cuando se elige la opción 2 para la
función objetivo. Separar el flujo de base no se convierta en muy crítico si R2 o Br2 se utiliza para la
función objetivo.

Umbral = 35

Para no usar esta opción, simplemente umbral de separación de conjunto de flujo constante en un valor
negativo (-1 decir para una variable que es siempre positivo) y los pesos para más pequeño y más
grande fluye a 1.
En el caso dinámico, un programa de separación de flujo se debe utilizar para calcular el flujo base.
Tanto flujo observada y caudal base entonces deben aparecer en el archivo observed.txt como dos
columnas separadas, columna 3 y columna 4, respectivamente, como se muestra en la observada + .txt
ejemplo archivo en. \ Directorio SUFI2.IN.

Porcentaje de error medido

Este valor se refiere al error de medición. Un valor por defecto de 10% no se especifica, pero los
usuarios pueden cambiar esta basado en su conocimiento. Este valor es razonable para el flujo, pero
debe ser más alto para otras variables tales como sedimentos y nitrato, etc.

9. No_Observations
La sección No_Observation está diseñado para la extracción y visualización de incertidumbres para las
variables para las que no tenemos ninguna observación, pero me gustaría ver cómo se simulan tales
como diversas cargas de nutrientes, o la humedad del suelo, ET, etc. Los archivos .txt son inactivo.

Los archivos .def tienen más o menos el mismo formato que la sección de extracción.

Extract_rch_No_Obs.defExtract_hru_No_Obs.defExtract_sub_No_Obs.def

Estos archivos también es auto-explicativo. El número de variables, para obtener números de columna
(secuencial), y los nombres de variables representativas se especifican (R- se utiliza aquí para indicar
estos son de SWAT output.rch
archivo) en filas 3-5. Estos nombres se utilizan para construir los archivos donde los valores simulados se
recogen para todas las simulaciones. A continuación se especifica el número total de subcuencas en el
proyecto.

Para cada variable, identificamos el número de subcuencas de conseguir, y el número subcuenca (s). Si
queremos obtener todos los valores de subcuenca, por ejemplo para el trazado de mapas, a
continuación, simplemente indicar TODOS. Esto siguió al comenzar y el año final de la simulación. Una
vez más, a partir del año de la simulación no debe incluir periodo cálido.

-95ppu_No_Obs.def

Por último, para la opción NO_Observation tenemos que editar el archivo 95ppu_No_Obs.def. Este es
un archivo utilizado para el cálculo de la 95ppu de las variables extraídas con ninguna observación.

95ppu_No_Obs.def

Este archivo de nuevo es bastante explica por sí mismo. El número de variables para las que 95PPU se
calculará se da en la segunda fila. Se proporcionan a continuación los nombres de las variables. Estos
nombres deben ser exactamente los mismos que los que figuran en el archivo .def (s). Por último, se les
da el número de pasos de tiempo de simulación. Durante 12 años de simulación mensual esto sería 144.
10. ejecutables
La sección sobre archivos ejecutables desempeña el papel de motor en SWAT-CUP. Los cuatro archivos
por lotes indicar lo que debe o no debe ser ejecutado.

-SUFI2_pre.bat
Este archivo por lotes se ejecuta los procedimientos de pre-procesamiento. Se incluyen la ejecución del
programa de muestreo hipercubo latino. Este archivo por lotes por lo general no tiene que ser editado.

Tenga en cuenta que muchos archivos al final tiene la vista formulario y vista de texto. En la vista de
texto que tenga el archivo de texto, que aparece en el directorio del proyecto que SWAZ-CUP. Usted
puede editar este archivo de texto como sea necesario con el mismo formato que se muestra.
-SUFI2_run.bat
Este programa se ejecuta programa de SUFI2_execute.exe, que ejecuta los archivos, SWAT_Edit.exe
extracción por lotes, así como SWAT.exe.

-SUFI2_post.bat

‐ corre el archivo por lotes de post-procesamiento, que ejecuta los programas para el cálculo de la
función objetivo, el nuevo cálculo de los parámetros, el cálculo 95ppu, 95ppu para las simulaciones del
comportamiento y 95ppu para las variables con las observaciones (opcional). En la forma de texto se
puede desmarcar un programa si no es necesario para ejecutar.
-SUFI2_Extract.bat
‐ Este archivo por lotes contiene los nombres de todos los programas de extracto con o sin
observaciones. Actualmente 8 programas son compatibles. Este archivo debe ser editado y los
programas que no son deseados a plazo debe ser “comentó” o “sin control”, como se muestra a
continuación:

11. antes de la calibración


En este punto los archivos de entrada están completos y el proyecto está listo para ser calibrado. Pero
antes de comenzar una iteración, es necesario asegurarse de que el modelo que hemos construido en
un principio factible. Por lo tanto, usted debe hacer una primera carrera con la estructura del modelo
inicial y parámetros iniciales modelo.

Para comprobar el modelo inicial con SWAT-CUP hacer lo siguiente:

1-En Par_inf, poner el número de simulaciones y el número de parámetros a 1


2-In SUFI2_swEdit puso el comienzo y la simulación termina también a 1

3 Establecer un parámetro ficticio tal como

r SFTMP.bsn00 (esto no cambia nada) 4-A continuación, ejecute el fin: Pre,

Ejecutar, y Post Procesando.

Ahora mira el resultado 95PPU de su incumplimiento o ejecución del modelo inicial. Si las simulaciones y
las observaciones son demasiado diferentes, entonces usted necesita para tomar una mirada más
cercana a su modelo de golpe violento, incluyendo las precipitaciones, etc. Si no, mirada en el protocolo
de calibración en (http://www.sciencedirect.com/science/article/pii/S0022169415001985) para ajustar
el parámetro de una manera como para lograr el mejor resultado de la simulación en cada salida
observada.

Para esta simulación inicial, también se debe buscar en el archivo output.std para asegurarse de que los
componentes generales de flujo de las cuencas hidrográficas son correctas o no.
12. Calibración
A continuación, después de editar todos los archivos de entrada, realice “Guardar todo” y “tareas”
Cerrar todas. La ejecutar los programas en la ventana de calibración en el orden en que aparecen. En
esta sección se realizan tres pasos:

i) Sufi2_pre.bat - Este comando ejecuta el archivo Sufi2_pre.bat. Este archivo se debe ejecutar
antes del inicio de cada nueva iteración.
ii) SUFI2_run.bat - Este comando ejecuta el archivo de ejecución por lotes.
iii) SUFI2_post.bat - Después de todas las simulaciones se acaban, este comando ejecuta el archivo
de post procesamiento por lotes descrito anteriormente.
13. Las salidas de calibración

parcela -95ppu
Este comando muestra la 95ppu de todas las variables. También se muestran las observaciones y mejor
simulación de la iteración actual. Por favorNota que la mejor simulación sólo se muestra para la razón
histórica. La solución a la calibración en esta etapa es la gráfica 95PPU y los intervalos de parámetros
que fueron usados para generarlo. Tenga en cuenta las características con la flecha donde puede
cambiar las variables, así como el zoom de la hidrograma.
Además, tenga en cuenta las opciones dadas por la “Tabla de Composición” y “Vista preliminar”

-95ppu-No_Observed parcela
Este comando muestra la 95ppu de todas las variables sin observaciones. Aquí sólo se ve la
incertidumbre en la simulación de la humedad del suelo, una variable para la que no tenemos ninguna
observación.

Parcelas -Dotty
Este comando muestra los gráficos de manchado de todos los parámetros. Estos son gráficos de valores
de los parámetros o los cambios relativos en comparación con función objetivo. El propósito principal
de estos gráficos son para mostrar la distribución de los puntos de muestreo, así como para dar una
idea de la sensibilidad de parámetros. En la siguiente figura se ve una tendencia agradable para CN2, ya
que aumenta. Función objetivo es Nash-Sutcliffe (NS). Claramente CN2 es un parámetro sensible y sus
mejores valores de ajuste son de menos de -0,1 en el cambio relativo (r). Pero ALPHA_BF no parece ser
sensible como el valor de la función objetivo en realidad no cambia. GW_DELAY tampoco es muy
sensible, pero su valor probablemente no debería estar por encima de 300, GWQMN tampoco es muy
sensible, pero probablemente debería estar en algún lugar por encima de 0,6. Más acerca de la
sensibilidad más tarde.
-Best_Par.txt
Este archivo muestra los valores de los parámetros “mejor”, así como sus rangos. Estos son los
parámetros, lo que dio el mejor valor de la función objetivo en la iteración actual. Una vez más, me
gusta hacer hincapié en que el mejor parámetro realmente no significa mucho como el próximo valor
de la función objetivo puede no ser estadísticamente no muy diferente de la mejor. Los rangos de
parámetros son la solución para esta iteración.
-Best_Sim.txt
Este archivo muestra los mejores valores simulados para todas las variables utilizadas en la función
objetivo. Ambos valores observados y simulados se dan de manera que podían ser fácilmente trazan
con otros softwares como deseado.

................................................

................................................

-Goal.txt
Este archivo muestra el valor de todos los conjuntos de parámetros para las simulaciones realizadas, así
como el valor de la función objetivo en la última columna. Este archivo se utiliza para calcular finales de
la llamada “sensibilidad global”.

-New_Pars.txt
Este archivo muestra los valores sugeridos de los nuevos parámetros a utilizar en la siguiente iteración.
Estos valores se pueden copiar y pegar en el archivo Par_inf.txt para la siguiente iteración, o
alternativamente, el “Importar nuevos parámetros” se podrían utilizar para copiar nuevos parámetros
en el archivo par_inf.txt. Los nuevos parámetros se deben comprobar para posibles valores no
razonables (por ejemplo, conductividad hidráulica negativa,
etc.). Estos intervalos de parámetros sugeridos deben corregirse manualmente y, si se desea dirigir a un
cierto rango por el usuario en caso de la información o el conocimiento del sistema disponible.

-Summary_Stat
Este archivo tiene las estadísticas de la comparación de los datos observados con la banda a través de la
simulación factor p y el factor R y la mejor simulación de la iteración actual utilizando R2, NS, Br2, MSE,
SSQR, PBIAS, KGE, RSR, y VOL_FR. La desviación media y estándar de las variables observadas y
simulados también se da al final. Para la definición de estas funciones, consulte la sección sobre
funciones objetivo. También se muestra el tipo de función objetivo, mejor simulación número de la
iteración actual, y el mejor valor de la función objetivo para la ejecución actual en la parte superior.

Si existen soluciones de comportamiento, entonces el factor P y R-factor de estas soluciones también se


calculan. Como se muestra en la siguiente Tabla el efecto de usar soluciones de comportamiento es
obtener más pequeño factor P y factor de r-, o una incertidumbre de predicción menor.
14. Análisis de sensibilidad
Este módulo de análisis el programa realiza sensibilidad. Se permiten dos tipos de análisis de sensibilidad.
La sensibilidad global y de una en un tiempo de análisis de sensibilidad.

análisis de sensibilidad Global puede realizarse después de una iteración. Uno-en-un-tiempo de


sensibilidad se realiza para un parámetro en un tiempo. El procedimiento se explica en la siguiente
sección.

15. mapas
El módulo de Mapas permite la visualización de los puntos de venta. El mapa de Bing se usa para
proyectar la ubicación de puntos de venta, los ríos, las estaciones climáticas, y subcuencas en el mapa
actual del mundo.
Cuando se invoca el mapa de salida, el mapa de Bing se activa y el programa pide la carpeta ArcSWAT
proyecciones de formas.

Al localizar la carpeta de archivos de forma en el proyecto ArcSWAT, ... \ Watershed \ Formas, se


proporcionan varias opciones para la visualización de la ubicación de salida:
Los límites de las subcuencas, y la ubicación de pluviómetros. Este módulo es muy útil en el análisis del
tiempo los puntos de venta se encuentran en su ubicación correcta o no, si los ríos están correctamente
digitalizada por SWAT o no, si la salida se encuentra bajo la influencia de la nieve y el glaciar, la
agricultura intensiva, etc.

Algunos ejemplos de la serie de proyectos europeos:


(desde http://www.sciencedirect.com/science/article/pii/S0022169415001985)

a) posicionamiento incorrecto de una toma de corriente en el río Viar en lugar de en la principal


Río Guadalquivir en España. El símbolo rojo-verde indica la ubicación de la salida.
b) La posición de una toma de corriente abajo de una presa en el río Inn, cerca de Munich,
Alemania. SWAT no puede calibrar el flujo en esta salida a menos que se modela el depósito.

c) una geometría compleja en el río Pechora río cerca de Golubovo en Rusia. SWAT no
se puede esperar para simular el flujo en esta salida con una alta precisión.
d) El flujo en la salida a continuación se rige por glaciar de fusión cerca de Martigny en Suiza.
Estas características podrían explicar algunas de las discrepancias entre la simulación y los
resultados observados en la calibración de SWAT.

16. Programas de utilidad (C: \ SWAT \ SWAT-CUP5.1.6.2 \ ExternalData \ utilityprograms)

Este módulo tiene actualmente dos programas en ella: Make_ELEV_BAND, que no se muestra en la
interfaz, y Upstreamsubbasins, que se muestra en la interfaz.

Make_ELEV_BAND, Este programa puede calcular la banda de elevación para un proyecto de SWAT y
utilizar SWAT- CUP para poner la información en los archivos SWAT * .sub. Hay un archivo llamado
explicativa elev_band.doc, lo que explica cómo hacer esto.
Upstreamsubbasins, Este programa puede determinar las subcuencas aguas arriba. Esta es una
información útil para la parametrización. Un archivo read_me.txt explica cómo utilizar este programa. El
upstream_sorted.out archivo, que no se muestra en los espectáculos de interfaz, de una manera
ordenada, todos los subcuencas anteriores de cualquier subcuenca observada. El upstream.out contiene
una opción de visualización que muestra qué salidas están conectadas entre sí.

El texto anterior y mostrar ayuda visual que subcuenca (o salida) número 1 no tiene subcuenca aguas
arriba, mientras que los enchufes 3,7,18 (que son aquí salidas medidos) tienen subcuencas aguas arriba.
Si hace clic derecho en el nodo de conexión salidas 3 y 18 supra, a continuación, encontrará todas las
subcuencas que no se cruzan entre 3 y
18. Esto significa que todas las subcuencas entre 3 y 18. Utilizando esta información, se puede calibrar
para la salida 18 mediante la parametrización subcuenca 19 y 20 primero, que contribuyen a la salida 18.
A continuación, mantener los intervalos fijos para los parámetros de subcuencas 18 y 19, y subcuencas
parametrizar en entre 18 y 3 (véase la imagen siguiente, la flecha muestra una lista de estos parámetros
en la forma de texto). Utilizando este procedimiento, la salida 3 puede ser calibrado.
17. Historia iteraciones
Todas las iteraciones se pueden guardar en el historial de iteraciones. Esto permite estudiar el progreso de la
convergencia.

Después de una iteración completa, revisar los nuevos parámetros sugeridos en el new_pars.txt,
copiarlos en par_inf.txt y editarlos como se ha explicado antes, y hacer una nueva iteración. No hay
reglas fijas en cuanto a cuando un proceso de calibración puede ser terminado. Sin embargo, el proceso
puede detenerse cuando se alcanzan las estadísticas satisfactorias y no hay nuevas mejoras en el valor
de la función objetivo.
Parametrización de SWAT-CUP
El siguiente esquema se puede utilizar para parametrizar, o regionalizar parámetros de una cuenca. En
SWAT, la HRU es la unidad más pequeña de desagregación espacial. Como una cuenca se divide en HRUS
basado en la elevación, el suelo, y uso de la tierra, un parámetro espacial distribuido tales como la
conductividad hidráulica, densidad aparente, o CN2 potencialmente se pueden definir para cada HRU.
Un analista está, por lo tanto, frente a la difícil tarea de recoger o estimar un gran número de
parámetros de entrada, que generalmente no están disponibles. Un enfoque alternativo para la
estimación de parámetros distribuidos es agrupar a ellos basado en el tipo de suelo, el tipo de uso de la
tierra, la ubicación, la pendiente, o una combinación de estos. A continuación, pueden ser calibrados
utilizando un solo término modificación global que puede escalar las estimaciones iniciales por un
multiplicador o un término aditivo.

x <parname>. <ext> <hydrogrp> <soltext> <uso de la tierra> <subbsn>

<pendiente> Donde

X = Identificador de código para indicar el tipo de cambio que debe aplicarse a la parámetro:

v medios el valor del parámetro existente es para ser reemplazado por un

valor dado, un medio se añade un valor dado para el valor del parámetro

existente, y

r significa un valor de parámetro existente se multiplica por (1+ un valor dado).

Nota: que siempre hay dos guiones después del identificador

<Parname> = SWAT nombre del parámetro tal como aparece en el SWAT I / manual de O o en el
Absolute_SWAT_Values.txt archivo.

<Ext> = SWATfileextensioncodeforthefilecontainingthe
parámetro (Por ejemplo, .sol, .hru, .rte, etc.)

<Hydrogrp> = (opcional) del suelo grupo hidrológico ( 'A', 'B', 'C' o 'RE')

<Soltext> = (opcional) textura del suelo tal como aparece en la línea de cabecera de entrada SWAT archivos

<Uso de la tierra> = (opcional) nombre de la categoría de uso del suelo tal como aparece en la línea de
cabecera de entrada SWAT archivos

<Subbsn> = (opcional) número subcuenca (s) como aparece en el encabezamiento de los archivos de
entrada SWAT

<Pendiente> = (Opcional) pendiente tal como aparece en la línea de cabecera de entrada SWAT archivos

Cualquier combinación de los factores anteriores se puede utilizar para describir un identificador de
parámetro. Si se utilizan los parámetros a nivel mundial, los identificadores <hydrogrp>, <soltext>, <uso
de la tierra>, <subbsn>, y <pendiente> puede ser omitido.

Nota: los dos guiones bajos después de cada especificaciones anteriores se deben utilizar, es decir,
para especificar sólo la subcuenca debemos escribir ocho guiones después .crp v USLE_C.crp 2
El esquema de codificación presentado permite al usuario hacer dependiente de parámetros
distribuidos de factores influyentes importantes tales como: grupo hidrológico, la textura del suelo, uso
de la tierra, la elevación, y la pendiente. Los parámetros pueden ser asignados y calibrados regional, o
cambiarse a nivel mundial. Esto le da al analista amplio de la libertad en la selección de la complejidad
de un sistema de parámetros distribuidos. Mediante el uso de esta flexibilidad, un proceso de
calibración se puede iniciar con un pequeño número de parámetros que sólo modifican un patrón
espacial dada, con más complejidad y resolución agregado regional en un proceso de aprendizaje paso a
paso. Algunos ejemplos del esquema de parametrización es el siguiente:

Especificación de los parámetros del suelo

identificadores de parámetros Descripción

r SOL_K (1) .sol K de la capa 1 de todos HRUS

r SOL_K (1,2,4-6) .sol K de la capa 1,2,4,5, y 6 de todos HRUS

r SOL_K (). sol K de todas las capas y todo HRUS

r SOL_K (1) .sol D K de la capa 1 de HRUS con el grupo D hidrológico

r SOL_K (1) .sol FSL K de la capa 1 de HRUS con la textura del suelo FSL

r SOL_K (1) .sol FSL PASADO K de la capa 1 de HRUS con la textura del
suelo FSL y pasados uso de la tierra

r SOL_K (1) .sol FSL PASADO 1-3 K de la capa 1 de subcuenca 1,2, y 3 con
HRUS contiene FSL textura del suelo y
pasados uso de la tierra

Especificación de parámetros de gestión

identificadores de parámetros Descripción

v HEAT_UNITS {rotación no, la operación no} .mgt parámetros de gestión que son
objeto de la operación / rotación
deben tener tanto especificado

v CNOP {[], 1} .mgt Esto cambia los parámetros


de una operación en todas
las rotaciones
v CNOP {2,1, plant_id = 33} .mgt Cambia CNOP para rotación 2,
la operación 1, y la única
planta 33
v CNOP {[], 1, plant_id = 33} .mgt Similar al anterior, pero para todas las
rotaciones
v CNOP {[], 1, plant_id = 33} .000010001.mgt Con este comando sólo se puede
modificar un archivo
r FRT_KG {9,1} .mgt En estos tres ejemplos, la rotación
9, la operación 1, y el resto son
r FRT_KG {9,1, PLANT_ID = 12} .mgt filtros donde, medios y
r FRT_KG {9,1, PLANT_ID = 12, HUSC = 0,15} .mgt

Especificación de los parámetros de los cultivos

identificadores de parámetros Descripción

v T_OPT {30} .CROP.DAT Parámetro T_OPT para cultivos número 30


en el archivo crop.dat

v PLTNFR (1) {3} .CROP.DAT Nitrógeno captación parámetro # 1


para el número de cultivos 3 en el
archivo crop.dat

Especificación de los parámetros de Plaguicidas

identificadores de parámetros Descripción

v Wsol {1} .pest.dat Estos cambios de parámetros Wsol para el


número de pesticidas en 1 archivo pest.dat

Especificación de la precipitación y los parámetros de temperatura

identificadores de parámetros Descripción

v precipitación (1) {1977300} .pcp1.pcp (1) significa el número de columna 1 en el


archivo de pcp

{1977300} especifica el año y el día


v precipitación (1-3) {1977300} .pcp1.pcp (1-3) significa la columna 1, 2, AND3

{1977300} especifica el año y el día

v precipitación () {} 1977300,1977301 .pcp () Significa todas las columnas (todas las


estaciones)

{1977300,1977301} significa 1977 día 300 y


301
v precipitación () {1977001- 1977361,1978001- () Significa todas las columnas
1978365,1979003} .pcp
del día 1 al día 361 de 1977, y desde el día 1
a día 365 de 1978, y el día 3 de 1979

v MAXTEMP (1) {1977001} .tmp1.tmp (1) significa la columna 1 en el archivo


tmp1.tmp
{1977001} especifica el año y el día

v MAXTEMP (2) {1977002- (2) significa la columna 2 en el archivo


1977007} .tmp1.tmp tmp1.tmp

del día 2 al día 7 en 1977


v MINTEMP () {1977,002 mil hasta 1977,007 () Significa todas las columnas en el archivo
mil} .tmp1.tmp tmp1.tmp

Especificación de los parámetros de pendiente

identificadores de parámetros Descripción

v SOL_K (1) .sol 0-10 K de la capa 1 para HRUS con pendiente 0-10

Tenga en cuenta que entre paréntesis () se utilizan para distinguir las capas en los parámetros que tienen muchas capas.

También, tenga en cuenta que la precipitación y también se permite la temperatura para ser utilizado
como accesorio parámetros. Esta opción debe utilizarse con precaución debido a las precipitaciones
ajuste puede hacer la calibración de los parámetros irrelevantes ya que la lluvia es la variable más
importante de conducción controlar el comportamiento de flujo.
Definición de la función objetivo

En el archivo observed.txt, 10 diferentes funciones objetivo son actualmente permitidos. Éstos incluyen:

 Q metro  Qs yo  S

2
metro  Ss yo  norte

2
 s yo
 norte
metro
2

1 = mult Minimizar: sol  yo


* yo
* yo * ....
norteQ norteS norte norte

Esta es una forma multiplicativa del error cuadrático donde Q, S, y N representan variables (por ejemplo,
la descarga, el sedimento y nitrato), n es el número de observaciones, y m y s representan medida y
simulada. A veces el denominador se divide por 1000 para mantener g pequeña.

2 = suma
 Q  Q   w  S  S   w  norte   .....
2 n 2 n 2
sol  w o o
Minimizar:
n
o  norte
1 Sra yo 2 s yo yo1 3 s yo yo1
yo1

Esta es la forma suma del error cuadrado donde Q, S, y N representan variables (por ejemplo, la
descarga, el sedimento y nitrato), m y s representan medida y simulada, n es el número de puntos de
datos, y los pesos w de podría ser calculada como:

i) wj  1 2
nojj
rte
donde  2j es la varianza de la variable j-ésima medida (ver Abbaspour, et al., 2001), o

ii) w
 1, w  Qmetro , w  Qmetro
1
2 3
S me norte metro

donde indican bares promedios (ver Abbaspour et al., 1999). Tenga en cuenta que la elección de
pesadas puede afectar el resultado de un ejercicio de optimización (ver Abbaspour, et al., 1997).



 Qmetro,yo
  Qs,yo  2

3 = R2 Qmetro Qs
R2   
yo

Maximizar:

Q  Q 2  Qs 
2
me s,
yo tro metr y
,yo o
 Q yo
o
Coeficiente de determinación R2 donde Q es una variable (por ejemplo, de descarga), y m y s
representan medidas y simuladas, i es la i-ésima medida o datos simulados. Si hay más de una variable,
entonces la función objetivo se define como:
sol   w R
2

jj
j

Donde wj es el peso de la variable j.

 Q metro  Q 2
4 = Chi2 s

 
2 yo
 metro
2

Minimizar:

donde Q es una variable (por ejemplo, de descarga), y m y s reposar por medida y simulada, respectivamente, y
 m2 es la varianza de los datos medidos. Si hay más de una variable, entonces la función objetivo es
calcular como:
sol   w 
2

jj
j

Donde wj es el peso de la variable j.

yo Qmetro  Qsyo


2

5 = NS NS  1 
Maximizar:

 Q me
2
 Qmetro 
yo tro
,yo

destacan Nash-Sutcliffe (1970), donde Q es una variable (por ejemplo, de descarga), y m y s para medida
y simulada, respectivamente, y las gradas de barras para la media. Si hay más de una variable, entonces
la función objetivo se define como:

sol   w j NS j
j

Donde wj es el peso de la variable j.

 si IFB  1
6 = BR2 R
2
   1 IFB  1
2
Maximizar:  siR

Donde Coeficiente de determinación R2 se multiplica por el coeficiente de la línea de regresión entre los
datos medidos y simulados, b. Esta función permite que representa la discrepancia en la magnitud de
dos señales (representado por b) así como su dinámica (representado por R2). Si más de una variable, la
función objetivo se expresa como (Krause et al., 2005):
en caso de múltiples variables, g se define como:

sol  
wj j j

Donde wj es el peso de la variable j.

7 = SSQR Minimizar: SSQR = 1 Σnorte [Q 2


norte yo= 1 yo,NORTE - Qyo,C]

donde Q es una variable (por ejemplo, de descarga), y m y s reposar por medida y simulada,
respectivamente. Aquí i representa el rango. Los objetivos del método SSQR en ajuste de las
distribuciones de frecuencia de la observada y la serie simulado. Después de la clasificación
independiente de la medida y los valores simulados (van Griensven y Bauwens, 2003):

en caso de múltiples variables, g se define como:

sol   w j SSQRj
j

Donde wj es el peso de la variable j.

 Q
n
metro 
8. PBIAS o
Qs yo
PBIAS  100 * yo 1n
Minimizar:
 oQmetro,yo
yo 1

donde Q es una variable (por ejemplo, de descarga), y m y s reposar por medida y simulada,
respectivamente. medidas desviación porcentual de la tendencia media de los datos simulados a ser
más grande o más pequeña que las observaciones. El valor óptimo es cero, donde los valores de baja
magnitud indican mejores simulaciones. Los valores positivos indican modelo subestimación y los
valores negativos indican modelo sobre la estimación (Gupta et al., 1999).

en caso de múltiples variables, g se define como:

sol   wj PBIASj
j

Donde wj es el peso de la variable j.


9. KGE Maximizar: KGE = 1 - ƒ (r - 1)2 + (Α - 1)2 + (Th - 1)2
Donde α = oc, y þ = μc, y r es el coeficiente de regresión lineal entre simulado y medido
oNORTE μNORTE
variables, mu s y micras son medios OD simulados y los datos medidos, y  s y  m son la desviación
estándar de los datos simulados y medidos. eficiencia Kling-Gupta (Gupta et al., 2009).

en caso de múltiples variables, g se define como:

sol   wj KGEj
j

Donde wj es el peso de la variable j.

 Q
n
o metro  Q 2
RSR s
RSR yo 1
10.
Minimizar: yo

 me  Qmetro
2

yo tro
1 ,yo
Q
donde Q es una variable (por ejemplo, de descarga), y m y s reposar por medida y simulada,
respectivamente. RSR es el estandariza el RMSE utilizando la desviación estándar de observación. RSR es
bastante similar a Chi en 4. Varía de 0 a grandes valores positivos. Cuanto menor sea la RSR el mejor
ajuste del modelo (Moriasi et al., 2007).

en caso de múltiples variables, g se define como:

sol   w j RSRj
j

Donde wj es el peso de la variable j.

 QQ
pag
m si
11. MNS Maximizar: NS  1  yo e

 Q  Q pagmetro,yo mi
yo

Modificado factor de eficiencia Nasch-Sutcliffe. Si p = 2, entonces esto es simplemente NS como en 5


anterior. Si p = 1, la sobreestimación de un pico se reduce significativamente. La forma modificada se
informa, es más sensible a la significativa sobre o sub-predicción que la forma cuadrada. Aumentar el
valor de p más allá de 2 resulta en un aumento en la sensibilidad a altos flujos y podría ser utilizado
cuando sólo los flujos altos son de interés,
por ejemplo, para la predicción de inundación (Krause et al., 2005)

NOTA: Después de una iteración, pruebe a cambiar el tipo de función objetivo y ejecutar SUFI2-
Post.bat solo para ver el efecto de las diferentes funciones objetivo, sin tener que ejecutar de nuevo
SWAT. Esto es bastante informativo, ya que muestra cómo la elección de la función objetivo afecta a
la solución de calibración.
Análisis de sensibilidad
análisis 1- Sensibilidad Global

La sensibilidad de parámetros se determinan calculando el siguiente sistema de regresión múltiple, que


vuelve a los parámetros del hipercubo latino generados contra los valores de la función objetivo (en
goal.txt archivo):
m

sol    yo siyo


yo 1

Una prueba t se utiliza para identificar la importancia relativa de cada bi parámetro. Las sensibilidades
dados anteriormente son estimaciones de los cambios medios en la función objetivo resultante de los
cambios en cada parámetro, mientras que todos los otros parámetros están cambiando. Esto da
sensibilidades relativas basados en aproximaciones lineales y, por lo tanto, sólo proporciona información
parcial acerca de la sensibilidad de la función objetivo para los parámetros del modelo. En este análisis,
el más grande, en valor absoluto, el valor de t-stat, y cuanto menor sea el valor p, más sensible será el
parámetro. En el siguiente ejemplo, CN2, ESCO, seguido por GE_DELAY, CH_N2, y ALPHA_BF son los
cinco parámetros más sensibles.
t-stat y p-valor

Un análisis de regresión múltiple se utiliza para obtener las estadísticas de sensibilidad de


parámetros. El t-stat es el coeficiente de un parámetro dividido por su error estándar. Es una
medida de la precisión con la que se mide el coeficiente de regresión. Si un coeficiente es
“grande” en comparación con su error estándar, entonces es probable que sea diferente de 0 y
el parámetro es sensible. Lo que es “grande”?

Se podría comparar la t-stat de un parámetro con los valores de la tabla de distribución t de


Student para determinar el valor de p, que es el número que usted realmente necesita estar
mirando. la distribución t de Student (se encuentra al final del libro más estadísticas) describe
cómo se espera que la media de una muestra con un cierto número de observaciones que se
comporten. El valor de p para cada término prueba la hipótesis nula de que el coeficiente es
igual a cero (sin efecto). Un valor de p bajo (<0,05) indica que se puede rechazar la hipótesis
nula. En otras palabras, un predictor que tiene un bajo valor de p es probable que sea una
adición significativa a su modelo porque los cambios en el valor del predictor están
relacionados con los cambios en la variable de respuesta. A la inversa, un valor de p más grande
sugiere que los cambios en el predictor no están asociados con cambios en la respuesta. Por lo
que el parámetro no es muy sensible. Un valor de p de <0,05 es el punto generalmente
aceptado en el que para rechazar la hipótesis nula (es decir, el coeficiente de ese parámetro es
diferente de 0). Con AP- valor de 0,05, sólo hay una probabilidad del 5% que los resultados que
están viendo que han surgido en una distribución aleatoria, por lo que se puede decir con una
probabilidad del 95% de ser correcta que la variable está teniendo algún efecto.

2- One-en-un-tiempo de análisis de sensibilidad

De una en una en tiempo de sensibilidad muestra la sensibilidad de una variable a los cambios en un
parámetro de si todos los demás parámetros se mantienen constantes en algún valor. El problema aquí
es que nunca sabemos cuál debe ser el valor de los otros parámetros constantes. Esta es una
consideración importante ya que la sensibilidad de un parámetro depende del valor de otros
parámetros.

y1
Q
P1 Variable, Q
y2

x1 X2 PAG2
El ejemplo anterior ilustra este punto. Si el valor del parámetro P1 se mantiene constante a y1, luego
pequeños cambios es parámetro P2 hacer cambios significativos en la variable Q, lo que indica que P2
es un parámetro muy sensible. Mientras que si los valores de parámetro P1 se mantiene constante a
valor y2, entonces los cambios en el parámetro P2 alrededor de x2 dará la impresión de que P2 no es un
parámetro sensible como la variable no cambia
por mucho. Por lo tanto, los valores de los parámetros fijos hacen una diferencia en la
sensibilidad de un parámetro cambiante.

Para realizar el análisis de sensibilidad de una a-a-tiempo:

1- Do como se muestra en la siguiente figura. Establecer el número de parámetros en el archivo


Par_inf.txt a 1, y llevar a cabo un mínimo de 3 simulaciones.

2- A continuación, establezca los valores de SUFI2_swEdit.def archivo de la siguiente manera:

3- Finalmente realizar la iteración ejecutando en Calibración, SUFI2_pre.bat y luego SUFI2_run.bat.

4- Ahora, los tres de simulación se puede visualizar para cada variable mediante la ejecución de una
en un tiempo de mando bajo análisis de sensibilidad, como se muestra a continuación:
La línea discontinua es la observación y la señal de descarga para FLOW_OUT_1 se traza para tres
valores de CN2 dentro del rango especificado. Claramente, CN2 es sensible y tiene que tener valores
mayores.

NOTA: Los usuarios deben ser conscientes de que los parámetros en los archivos de SWAT en el
directorio principal de SWAT-CUP proyecto siempre están cambiando. Una vez que se realiza una
iteración sensibilidad, a continuación, los valores de los parámetros en los archivos son los valores de la
última ejecución (último conjunto de parámetros) de la última iteración. Para realizar el análisis de
sensibilidad de una en- un tiempo, uno debe establecer los valores de los parámetros que se mantienen
constantes a algunos valores razonables. Estos valores razonables podrían, por ejemplo, ser la mejor
simulación (simulación con el mejor valor de la función objetiva) de la última iteración, o los parámetros
iniciales del modelo que residen en el directorio de copia de seguridad.
Procesamiento en paralelo
El procesamiento paralelo es un producto con licencia. Su función es acelerar el proceso de calibración
mediante la paralelización de las carreras en SUFI2. La velocidad del procesamiento en paralelo depende
de las características del equipo. Los nuevos ordenadores portátiles ahora tienen al menos 4 CPU. El
módulo de procesamiento paralelo se puede utilizar todos los 4 CPU de modo que un 1000-RUN
iteración se puede dividir en 4 carreras simultáneas de 250 cada uno por CPU. El aumento de velocidad
no será 4 veces a causa de programa y los gastos generales de Windows; pero la carrera con el
procesamiento en paralelo será sustancialmente más rápido que una única presentación 1000 de
gestión.

Hoy en día que es posible construir absolutamente económicamente un ordenador con 48 a 64 CPUs y
más de 96 GB de RAM. La mayoría de los modelos SWAT de cualquier detalle se podrían funcionar en
tales máquinas sin necesidad de nube o grid computing (ver Rouholahnejad, et al., 2012 para más
detalles).

Actualmente, 20 simulaciones se permite que se hagan sin la necesidad de una licencia. Para obtener
una licencia siga la dirección bajo licencia y la activación y enviar el identificador de hardware, por el
momento, a (neprach_sale@yahoo.com). Después de obtener un archivo de licencia por correo
electrónico, el proceso de activación.

Para ejecutar el procesamiento en paralelo, simplemente haga clic en el botón de procesamiento en


paralelo en la barra de comandos. Un nuevo conjunto de iconos de comandos aparece. Pulse
“Procesamiento Paralelo” para ver cuántas tareas se pueden enviar a su ordenador. En “recuento de
proceso” se puede elegir el número de puestos de trabajo en paralelo que desea enviar Si el tamaño del
proyecto es grande y no hay suficiente memoria, entonces menor número de procesos paralelos que el
número de CPU puede ser posible. El icono de calibración funciona como antes.
Validación en SUFI2
Para la validación, se debe utilizar los intervalos de parámetros calibrados “sin más cambios” y ejecute
una iteración (con el mismo número de simulaciones que utilizó para la calibración).

Para realizar la validación en SUFI2, editar los archivos observed_rch.txt, observed_hru.txt,


obsrved_sub.txt y observed.txt como necesaria para el período de validación. Además, los archivos de
extracción y la file.cio para reflejar el período de validación. Después, simplemente utilizar los intervalos
de parámetros calibrados para hacer una iteración completa (usando el botón de calibración). El archivo
de Summary_stat 95PPU y deben reflejar los resultados de la validación.

La clave de validación trae el siguiente menú, lo que explica los pasos de validación.
La secuencia de la ejecución del programa
La secuencia de ejecución del programa y de entrada / salidas se muestran en la continuación. En lo
siguiente, cada archivo de entrada y de salida se describe en detalle.

Los archivos de entrada Los archivos de salida

- SUFI2.IN \\ trk.txt
ECHO, la \\ echo_LH_sample.txt
- SUFI2.IN \\ SUFI2_LH_sample.exe -SUFI2.IN \\ par_val.txt
par_inf.txt
-SUFI2.IN \\ str.txt

- SUFI2.IN \\ trk.txt -Echo \ echo_make_par.txt


SUFI2_make_input.exe
- SUFI2.IN \\ -model.in
par_inf.txt
- SUFI2.IN \\
par_val.txt

- model.in
- Absolute_SWAT_Values.txt archivos de parámetros
SWAT_Edit.exe
- Archivo de respaldo SWAT -New
-Swat EditLog.txt
SUFI2_Run.bat
archivos de salida -SWAT
SWAT.exe

- SUFI2_Extract _ *. Def
- salida.*
- SUFI2.IN \ var_file _ *. -Echo \ echo_extract _ *. Txt
SUFI2_Extract _ *.
Txt archivos -SUFI2.OUT \
Exe
- SUFI2.IN \ trk.txt enumeran en var_file _ *.
- SUFI2.IN \ observó * .txt txt

- extracto _ * _ No_Obs.def
- salida.* archivos SUFI2.OUT \
- SUFI2.IN \ var_file _ * _ SUFI2_Extract _ * _ enumeran en var_file _ * NO_Observation
No_obs.txt No_obs.exe _ No_obs.txt
- SUFI2.IN \ trk.txt

-Echo \ echo_goal_fn.txt
-SUFI2.OUT \\ goal.txt
- SUFI2.IN \ par_inf.txt -SUFI2.OUT \ best_sim.txt
- SUFI2.IN \ observed.txt -SUFI2.OUT \\ best_par.txt
SUFI2_goal_fn.exe
- SUFI2.IN \ par_val.txt -SUFI2.OUT \\ beh_pars.txt
- SUFI2.IN \\ var_file_name.txt -SUFI2.OUT \\ no_beh_sims.txt
-SUFI2.OUT \ best_sim_nr.txt
- SUFI2.IN \ par_inf.txt
- Liste los archivos en -Echo \ echo_95ppu.txt
var_file_name.txt SUFI2_95ppu.exe -SUFI2.OUT \ 95ppu.txt
- SUFI2.IN \ observed.txt -SUFI2.OUT \\ 95ppu_g.txt SUFI2_Post.bat
- SUFI2.IN \\ best_sim.txt -SUFI2.OUT \\
summary_stat.txt

- SUFI2.IN \ par_inf.txt
-SUFI2.OUT \\ no_beh_sims.txt -Echo \ echo_95ppu_beh.txt
- Liste los archivos en SUFI2_95ppu_beh.exe -SUFI2.OUT \\ summary_stat.txt
var_file_name.txt
- SUFI2.IN \ observed.txt
- SUFI2.IN \\ best_sim.txt

SUFI2.IN \ observed.txt - 95ppu_No_Obs.def


SUFI2.OUT \\ \\ goal.txt - SUFI2.IN \
SUFI2_new_pars.exe
SUFI2.OUT best_par.txt par_inf.txt
o_Obs.txt SUFI2.OUT \ 95ppu_g_No_Obs.txt
E
95ppu_No_Obs.exe c
h
o

n
e
w
_
p
a
r
s
_
a
l
l
.
t
x
t

S
U
F
I
2
.
O
U
T

n
e
w
_
p
a
r
s
.
t
x
t

S
U
F
I
2
.
O
U
T

9
5
p
p
u
_
N
Cómo ver los resultados de mi modelo inicial?
Antes de comenzar las iteraciones en SWAT-CUP, usted debe comprobar su modelo de simulación de
configuración inicial. Se supone que un poco de pensamiento y la investigación ha entrado en la
recopilación de datos y la mejor información se utiliza para construir el modelo SWAT. Para comprobar
la simulación inicial (por defecto) de su modelo de SWAT-CUP hacer lo siguiente:

1-En Par_inf, poner el número de simulaciones y el número de parámetros a 1 y establecer un


cambio de parámetro maniquí tal como

r SFTMP.bsn00 (esto no cambia cualquier cosa)

2-En SUFI2_swEdit puso el comienzo y la simulación termina también a


1 de 3 A continuación, ejecute: Pre procesamiento, Ejecutar, y Post.
Ahora mira el resultado 95PPU de su incumplimiento o ejecución del modelo inicial. Si las simulaciones y
las observaciones son demasiado diferentes, entonces usted necesita para tomar una mirada más
cercana a su modelo de golpe violento, incluyendo la lluvia, etc.
Si no son demasiado diferentes, entonces para cada salida de ajustar los parámetros relevantes en las
subcuencas pertinentes (referidos como parametrización), y hacer unas pocas iteraciones en base a eso.
Para un protocolo de ver el documento de acceso abierto:
http://www.sciencedirect.com/science/article/pii/S0022169415001985

Cómo establecer los parámetros en archivos de texto SWAT a los mejores


valores de los parámetros de la última
iteración?
Si desea que los archivos SWAT TxtInOut reflejan los mejores parámetros obtuvo en una iteración hacer
lo siguiente:

1- Tenga en cuenta el número de la mejor simulación en el archivo Summary_Stat.txt

2- En el SUFI2_swEdit.txt establezca los valores de inicio y finalización de simulación tanto al número


de la mejor simulación en el paso 1.

3- bajo calibración, ejecute SUFI2_run.bat. No ejecute SUFI2-Pre.bat.

Este comando reemplazará los valores de los parámetros y los puso a los mejores valores de la última iteración.
Cómo hacer hipercubo latino de muestreo
El SUFI2_pre.bat archivo por lotes se ejecuta el programa SUFI2_LH_sample.exe, que genera muestras
hipercubo latino. Estas muestras se almacenan en el archivo par_val.txt.

Este programa utiliza el muestreo hipercubo latino a la muestra a partir de los intervalos de parámetros
que figuran en el archivo de par_inf.txt. Los parámetros muestreados se dan en el archivo par_val.txt,
mientras que la estructura de los datos de la muestra se escribe en str.txt sólo para información. Si el
número de simulaciones es 3, entonces ocurre lo siguiente:

1) Parámetros (digamos 2) se dividen en el número indicado de simulaciones (digamos 3)

1 2 3

1 2 3

2) segmentos de parámetros son asignados al azar


2 1 3
3 2 1

3) Se toma una muestra a la mitad de todos los segmentos

2 1 3
3 2 1

Cada combinación vertical es entonces un conjunto de parámetros.


Cómo calibrar más de una variable
Si desea calibrar utilizando, por ejemplo, la descarga, nitrato y fosfato, primero debe calibrar para la
descarga. Esto se debe a que el flujo es la principal variable de control. Después de la calibración de
flujo, mantener el flujo intervalos de parámetros como se obtuvo de calibración de flujo y añadir
parámetros de sedimentos. Hay dos tipos de parámetros de sedimentos, los que afectan sólo a los
sedimentos, y aquellos que afectan el flujo y sedimento. Véase la tabla siguiente de Abbaspour et al.,
(2007).

Inicialmente, agregar los parámetros que sólo afectan a los sedimentos y ejecutar una iteración. Usted
debe obtener los mismos resultados de descarga como antes, a fin de tratar de calibrar sólo para los
parámetros de sedimentos que no afectan el flujo
primero. Después, una o dos iteraciones, si los resultados no son satisfactorios sedimentos, a
continuación, añadir los otros parámetros que afectan a los sedimentos y fluir y hacer un par de
iteraciones al permitir a los parámetros de flujo también cambiar ligeramente.

Para el nitrato de repetir el mismo procedimiento con los parámetros de nitrato. Tenga en cuenta que
para la calibración de fósforo debe calibrar de sedimentos en primer lugar, porque gran parte del
fósforo se mueve con sedimentos, pero el nitrato se puede calibrar sin sedimentos.

Es importante también observar que la solución del modelo calibrado es el 95PPU generada por
los intervalos de parámetros. NO trate de usar sólo el mejor conjunto de parámetros para su
posterior análisis. Al hacer esto usted está asumiendo que el modelo calibrado sólo tiene una
solución y esto no es correcto. Nunca es correcto asumir que sólo un conjunto de parámetros
puede representar datos de una cuenca, que fue modelado por una información muy seguro
sobre el suelo, uso del suelo, el clima, la gestión, medidos utilizados para la calibración, etc.
Siempre propagar el rango de parámetros que obtuvo durante calibración para todos los
efectos del uso del modelo.
PSO

Optimización de Enjambre de partículas


Introducción a PSO
optimización de enjambre de partículas (PSO) es una técnica de optimización estocástica basada en la
población desarrollada por El Dr. Eberhart y El Dr. Kennedy en 1995, inspirado en el comportamiento
social de flocado pájaro o bancos de peces.

acciones PSO muchas similitudes con las técnicas de computación evolutiva como Algoritmos Genéticos
(GA). El sistema se inicializa con una población de soluciones y las búsquedas al azar para optima por
generaciones de actualización. Sin embargo, a diferencia de GA, PSO no tiene operadores evolución tales
como cruce y mutación. En PSO, las soluciones posibles, llamados partículas, vuelan por el espacio del
problema siguiendo las partículas óptimas actuales. La información detallada se dará en las siguientes
secciones.

En comparación con GA, las ventajas de PSO son que PSO es fácil de implementar y hay pocos
parámetros para ajustar. PSO se ha aplicado con éxito en muchas áreas: optimización de la función,
entrenamiento de la red neuronal artificial, control de sistema difuso, y otras áreas donde se puede
aplicar GA.

Hay dos métodos enjambre populares inspiradas en las áreas de inteligencia computacional: la
optimización de colonia de hormigas (ACO) y la optimización de enjambre de partículas (PSO). ACO fue
inspirado por el comportamiento de las hormigas y tiene muchas aplicaciones exitosas en problemas de
optimización discreta. (http://iridia.ulb.ac.be/~mdorigo/ACO/ACO.html)

El concepto enjambre de partículas se originó como una simulación del sistema social simplificada. La
intención original era simular gráficamente la coreografía de pájaro de un bloque de aves o peces
escuela. Sin embargo, se encontró thatparticleswarmmodelcanbeusedasan
optimizador.
(http://www.engr.iupui.edu/~shi/Coference/psopap4.html)

el algoritmo

Como se dijo antes, PSO simula el comportamiento de las aves que acuden. Supongamos el siguiente
escenario: un grupo de aves están buscando al azar alimentos en un área. Sólo hay un trozo de comida
en la zona que se busca. Todas las aves no saben dónde está la comida. Pero saben hasta qué punto la
comida es en cada iteración. ¿Cuál es la mejor estrategia para encontrar la comida? La vigente es seguir
al ave que está más próxima a la comida.

PSO aprende del escenario y lo utiliza para resolver los problemas de optimización. En PSO, cada
solución única es un "pájaro" en el espacio de búsqueda. Lo llamamos "partícula". Todo de las partículas
tienen valores de fitness que son evaluadas por la función de aptitud a ser optimizados, y tienen
velocidades que dirigen el vuelo de las partículas. Las partículas vuelan por el espacio del problema
siguiendo las partículas óptimas actuales.

PSO se inicializa con un grupo de partículas al azar (soluciones) y búsquedas Entonces, para optima por
generaciones de actualización. En cada iteración, cada partícula se actualiza siguiendo dos valores
"mejores". La primera de ellas es la mejor solución (fitness) que ha logrado hasta el momento. (También
se almacena el valor de aptitud.) Este valor se denomina pbest. Otro "mejor" valor que es seguido por el
optimizador de enjambre de partículas es el mejor valor, obtenido hasta el momento por cualquier
partícula en la población. Este es un mejor valor gbest mundial mejor y llamada. Cuando una partícula
toma parte de la población como sus vecinos de topológicas, el mejor valor es un mejor local y se llama
lbest.

Después de encontrar los dos mejores valores, la partícula actualiza su velocidad y posiciones con las
siguientes ecuaciones (a) y (b).

v [] = v [] + c1 * rand () * (pbest [] - presente []) + c2 * rand () * (gbest [] - presente [ ])(un)


presente [] = persent [] + v [ ](si)
v [] es la velocidad de las partículas, persent [] es la partícula de corriente (solución). pbest [] y gbest [] se
definen como se dijo antes. rand () es un número aleatorio entre (0,1). c1, c2 son factores de
aprendizaje. generalmente c1 = c2 = 2. El pseudo código del procedimiento es como sigue:
Para cada partícula
partícula Inicializar
FINAL
Hacer
Para cada partícula
Calcular el valor de aptitud
Si el valor de fitness es mejor que el mejor valor de aptitud (pbest) en la
historia de establecer el valor actual como el nuevo pbest
Final
Elija la partícula con el mayor valor de la aptitud de todas las partículas como
el GBEST Para cada partícula
velocidad de las partículas Calcular ecuación
según (a) actualización de la posición de
partículas según la ecuación (b)
Final
Mientras máximos iteraciones o criterios de error mínimos no se alcanza
las velocidades de las partículas en cada dimensión se sujetan a una velocidad máxima Vmax. Si la suma
de las aceleraciones causaría la velocidad en esa dimensión exceda de Vmax, que es un parámetro
especificado por el usuario, entonces la velocidad en esa dimensión se limita a Vmax.

Las comparaciones entre Algoritmo Genético y PSO


La mayoría de las técnicas evolutivas tienen el siguiente procedimiento:
1. generación aleatoria de una población inicial
2. Cómputo de un valor de aptitud para cada sujeto. Dependerá directamente de la distancia al óptimo.
3. La reproducción de la población sobre la base de valores de fitness.
4. Si se cumplen los requisitos, y luego se detiene. De lo contrario, volver a 2.
A partir del procedimiento, podemos aprender que comparte PSO muchos puntos en común con GA.
Ambos algoritmos comenzar con un grupo de una población generada al azar, ambos tienen valores de
fitness para evaluar la población. Tanto actualizar la población y la búsqueda de la óptima con técnicas
aleatorias. Ambos sistemas no garantizan el éxito.
Sin embargo, PSO no tiene operadores genéticos como el cruce y mutación. Las partículas se actualizan
de forma con la velocidad interna. También tienen memoria, que es importante para el algoritmo.

En comparación con los algoritmos genéticos (gas), el mecanismo de intercambio de información en PSO
es significativamente diferente. En el gas, los cromosomas comparten información entre sí. Así que toda
la población se mueve como un grupo hacia un área óptima. En PSO, solamente GBEST (o lBest) da un
vistazo a la información a otros. Se trata de un mecanismo de intercambio de información
unidireccional. La evolución sólo busca la mejor solución. En comparación con el GA, todas las partículas
tienden a converger a la mejor solución rápidamente, incluso en la versión local en la mayoría de los
casos.

7. Recursos en la Red de PSO

El desarrollo de PSO está todavía en curso. Y todavía hay muchas áreas desconocidas en PSO de
investigación tales como la validación de la teoría matemática enjambre de partículas.
Uno puede encontrar mucha información de internet. Los siguientes son algunos información que puede obtener en
línea:

http://www.particleswarm.net mucha información sobre la partícula enjambres y, sobre todo,


optimización por enjambre de partículas. Las porciones de enjambre de partículas Enlaces.

http://icdweb.cc.purdue.edu/~hux/PSO.shtml listas de bibliografía actualizada de la optimización de


enjambre de partículas y algunos enlaces de papel en línea

http://www.researchindex.com/ usted puede buscar enjambre de partículas documentos y referencias relacionadas.

referencias:

http://www.engr.iupui.edu/~eberhart/

http://users.erols.com/cathyk/jimk.html

http://www.alife.org

http://www.aridolan.com

http://www.red3d.com/cwr/boids/

http://iridia.ulb.ac.be/~mdorigo/ACO/ACO.html

http://www.engr.iupui.edu/~shi/Coference/psopap4.html

Kennedy, J. y Eberhart, optimización RC enjambre de partículas. Proc. IEEE conf Int'l. en redes
neuronales Vol. IV, pp. 1942-1948. centro de servicio de IEEE, Piscataway, NJ, 1995.

Eberhart, RC y Kennedy, J. Un nuevo optimizador utilizando la teoría de enjambre de partículas. Actas de


la sexta simposio internacional en la máquina de micro y pp ciencia humana. 39-43. centro de servicio
de IEEE, Piscataway, NJ, Nagoya, Japón, 1995.

Eberhart, RC y Shi, Y. enjambre de partículas de optimización: desarrollos, aplicaciones y recursos. Proc.


congreso sobre la evolución del centro de servicio IEEE cómputo de 2001, Piscataway, NJ., Seúl, Corea.,
2001.

Eberhart, RC y Shi, redes neuronales artificiales Y. evolución. Proc. 1998 Int'l Conf. en redes neuronales y
el cerebro pp. PL5-PL13. Beijing, República Popular de China, 1998.

Eberhart, RC y Shi, Y. Comparación entre algoritmos genéticos y optimización de enjambre de partículas.


La programación evolutiva VII: Proc. 7 de Ann. conf. en conf evolutiva., Springer-Verlag, Berlín, San
Diego, CA., 1998.

Shi, Y. y Eberhart, la selección de RC de parámetros en la optimización de enjambre de partículas. La


programación evolutiva VII: Proc. EP 98 pp. 591-600. Springer-Verlag, Nueva York, 1998.

Shi, Y. y Eberhart, RC un optimizador de enjambre de partículas modificadas. Actas de la Conferencia


Internacional IEEE sobre computación evolutiva pp. 69-73. IEEE Press, Piscataway, NJ, 1998
PEGAMENTO
Generalizada incertidumbre en la estimación de probabilidad
Introducción a la cola Programa
Un breve resumen de la cola (Beven y Binley, 1992) el concepto es la siguiente. Para más
información los lectores pueden consultar la bibliografía COLA e Internet.
La incertidumbre de verosimilitud generalizada Estimación (pegamento) (Beven y Binley, 1992) se
introdujo en parte para permitir la posible falta de singularidad (o equifinalidad) de conjuntos de
parámetros durante la estimación de los parámetros del modelo en modelos parametrizados sobre-. El
procedimiento es sencillo y requiere unos supuestos cuando se utiliza en aplicaciones prácticas. COLA
supone que, en el caso de grandes modelos parametrizados Øver-, no existe un conjunto único de
parámetros, lo que optimiza la bondad del ajuste de criterios. La técnica se basa en la estimación de los
pesos o probabilidades asociadas con diferentes conjuntos de parámetros, basada en el uso de una
medida de probabilidad subjetiva para derivar una función de probabilidad posterior, que se utiliza
posteriormente para derivar la probabilidad de predicción de las variables de salida. En Romanowicz et
al., (1994) una motivados estadísticamente, equivalente más formal de pegamento se desarrolla, en
donde la función de probabilidad se deriva explícitamente basado en el error entre las salidas
observados y los simulados por el modelo. Este enfoque formal es equivalente a una estimación
estadística bayesiana: requiere suposiciones sobre la estructura estadística de los errores. El pegamento
se aplica generalmente por directamente probabilidad ponderación de las salidas de múltiples
realizaciones modelo (determinística o estocástica, definido por conjuntos de valores de los parámetros
dentro de una o más estructuras de modelo) para formar una distribución de predicción de una variable
de interés. incertidumbres de predicción se relacionan luego a la variación en los resultados del modelo,
sin añadir necesariamente un componente de error explícita adicional.
Hay una serie de posibles medidas de desempeño de los modelos que se pueden utilizar en este tipo de
análisis. Los únicos requisitos formales para su uso en un análisis de pegamento son que la medida de
probabilidad debe aumentar monótonamente a medida que aumenta el rendimiento y ser cero para los
modelos de comportamiento considerados como inaceptables o no. medidas orientadas a la aplicación
se utilizan con facilidad en este marco. Las medidas basadas en supuestos estadísticos formales, cuando
se aplica a todas las realizaciones del modelo (en lugar de simplemente en la región de un modelo
“óptima”) deben dar resultados similares a un enfoque bayesiano cuando se utiliza dentro de un marco
de cola (Romanowicz et al., 1994), pero las suposiciones hechas (aditivo errores gaussianos en los casos
más simples) no siempre se justifican fácilmente en el caso de los modelos ambientales no lineales con
condiciones de contorno poco conocidas.

Un análisis de pegamento se compone de los tres pasos siguientes:


1) Después de la definición de la “medida de verosimilitud generalizada” L( ) , Un gran número de conjuntos de
parámetros
se tomaron muestras al azar de la distribución anterior y cada conjunto de parámetros se evalúa como
“comportamiento” o “no conductual” a través de una comparación de la “medida probabilidad” con el
valor umbral determinado.
2) Cada parámetro de comportamiento se le da un “peso probabilidad” de acuerdo a:
wyo  L(yo
(1)
)
norte

 L( )
k 1
k

donde N es el número de conjuntos de parámetros de comportamiento.


3) Por último, la incertidumbre de predicción se describe como cuantil predicción a partir de la
distribución acumulativa realizado a partir de los conjuntos de parámetros de comportamiento
ponderados.
En la literatura, la medida de probabilidad más frecuentemente utilizado para el pegamento es el
coeficiente de Nash-Sutcliffe (NS), que también se utiliza en el programa GLUE06:
norte

(Y (θ)  y
METRO
tyo tyo )2
tyo 1
NS  1  norte
(2)

(y
2
t  y)

yo
tyo 1
METRO
donde n es el número de los puntos de datos y tyoy yt (Θ) representa la observación y
yo
observados, y
modelo de simulación con el parámetro θ en tiempo ti, respectivamente, e Y es el valor medio de las
observaciones.
El acoplamiento de pegamento a SWAT-CUP
SWAT-CUP es una interfaz para facilitar el acoplamiento entre herramientas de análisis de sistema
externo y el modelo SWAT. El siguiente diagrama muestra los enlaces COLA-SWAT-taza. Interfaz de
pegamento y SWAT-CUP es la siguiente:

Glue06.def
Glue06.exe

model.in

entradas SWAT_Edit.exe dir copia de seguridad


SWAT

SWAT.exe

salidas de SWAT

glue_extract_rch.def GLUE_extract_rch.exe

model.out más

Si simulaciones máximo alcanzado


GLUE_95ppu.exe

salida
Validación de pegamento
Después de la calibración, validación se puede realizar mediante la opción “Validar” en el menú. Antes
de ejecutar la validación, sin embargo, el archivo GLUE_obs.dat debe ser editado para contener los
datos de validación, GLUE_Extract_rch.def debe ser editado para la validación de datos de extracto, y
File.cio de SWAT y archivos climáticos (pcp.pcp etc.) deben corresponder al periodo de validación como
se indica en la ventana que aparece cuando se ejecuta la validación. El programa de validación de los
parámetros de comportamiento utiliza sólo para ejecutar SWAT.

Los archivos de entrada de pegamento se describen a continuación. Son para la mayor parte explica por sí mismo.
Definición del archivo

glue06.def

Línea parámetro valor Observación

1 // comentario

2 MaxSimulation 10000 El más grande, el mejor!

3 ParDefFile glue_par.def archivo de definición de


parámetros
4 ObjfunThresh 0.3 valor de umbral dado por el
usuario para separar los
parámetros de
comportamiento de los
parámetros no conductuales

5 percentil 0,025 El percentil utiliza para calcular


los cuantiles de los resultados
del modelo de comportamiento
en la línea 14
6 ModelInFile model.in salida del glue06.exe, y la
entrada del SWAT_Edit.exe

7 ModelOutFile model.out salida del


GLUE_extract_rch.exe y la
entrada de glue06.exe

8 ModelCmd glue_run.cmd archivo de Bach ejecutado


durante la marcha COLA

9 ModelObjfunFile F glue_obs.dat Si el primer parámetro es “F”,


entonces el segundo parámetro
es el nombre de archivo de
datos observados y Nash-
Sutcliffe es la función objetivo.

Si el primer parámetro es “T”,


entonces el segundo
parámetro es el nombre de
archivo de la función objetivo
que debe ser calculado y
proporcionado por el usuario
10 ModelParaSet modelpara.out El nombre de archivo de
salida para todos los
conjuntos de parámetros
incluidos en la muestra
11 ModelBehParaset modelpara.beh El nombre del archivo de
salida para los conjuntos de
parámetros de
comportamiento
12 ModelResult T modelres.out El nombre de archivo de salida
para todos los resultados del
modelo
13 ModelBehResult modelres.beh El nombre del archivo de
salida para los resultados
del modelo de
comportamiento
14 ModelResQaunt T modelquant.out El nombre del archivo de salida
para los cuantiles de los
resultados del modelo de
comportamiento
Sombrilla

Solución parámetro
Introducción al Programa sombrilla
Un breve resumen de la sombrilla (Van Griensven y Meixner, 2006) el concepto es la siguiente. Para
más información los lectores pueden consultar el ANEXO, la literatura y la Internet.

El método sombrilla agregados funciones objetivo (DE de) en un criterio de optimización global
(GDC), minimiza estos DE de o un GOC utilizando el complejo (SCE-UA) algoritmo y realiza análisis de
incertidumbre aleatoria con una elección entre 2 conceptos estadísticos. El algoritmo de SCE es un
algoritmo de búsqueda global para la minimización de una función única para un máximo de 16
parámetros (Duan et al., 1992). Combina el método de búsqueda directa del procedimiento simple con
el concepto de una búsqueda aleatoria controlada de Nelder y Mead (1965), una evolución sistemática
de puntos en la dirección de la mejoría global, la evolución competitiva (Holanda, 1975) y el concepto de
complejo arrastramiento. En una primera etapa (cero-loop), SCE-UA selecciona una 'población' inicial
por muestreo aleatorio a lo largo del espacio de parámetros factibles para los parámetros P a
optimizados (delimitada por los intervalos de parámetros dados). La población se repartió en varios
“complejos” que constan de 2p + 1 puntos. Cada evoluciona complejos independientemente utilizando
el algoritmo simplex. Los complejos se barajan periódicamente para formar nuevos complejos con el fin
de compartir información entre los complejos.

SCE-UA ha sido ampliamente utilizado en la calibración del modelo de cuencas y otras áreas de
la hidrología tales como la erosión del suelo, la hidrología subsuperficial, la teledetección y modelado de
la superficie terrestre (Duan, 2003). Se encontró generalmente que es robusto, eficaz y eficiente (Duan,
2003). El SCE-UA también se ha aplicado con éxito en SWAT para los parámetros hidrológicos (Eckardt y
Arnold, 2001) y los parámetros hidrológicos y agua de calidad (van Griensven y Bauwens, 2006). El
procedimiento de sombrilla es:

1) Después de la optimización de la modificación SCE-UA, las simulaciones realizadas se dividen en


simulaciones 'buenos' y simulaciones 'no es bueno' por un umbral de esta forma similar a la metodología
de pegamento, y, en consecuencia, 'buenos' juegos de parámetros y 'no es bueno 'conjunto de
parámetros. A diferencia de pegamento, el valor umbral puede ser definido por cualquiera de las 2-
estadísticas donde las simulaciones seleccionados corresponden a la región de confianza (CR) o
estadística bayesiana que son capaces de señalar la región de alta densidad de probabilidad (HPD) para
los parámetros o la los resultados del modelo.

2) La incertidumbre de predicción se construye por lo tanto, igualmente a partir de las

simulaciones 'buenas'. La función objetivo utilizada en el parasol es la suma de los

cuadrados de los residuos (SSQ):


norte
METRO
SSQ  (Y t(θ)
yo y )2
tyo (3)
tyo 1
Parasol de acoplamiento a SWAT-CUP
El flujo de datos entre el programa de sombrilla y SWAT-CUP es como se muestra a continuación.

ParaSol.in ParaSol.exe

model.in

entradas
SWAT SWAT_Edit.exe dir copia de seguridad

SWAT.exe

salidas de SWAT

ParaSol_extract_rch.def ParaSol_extract_rch.exe

model.out
más

Si la simulación máximo alcanzado

ParaSol_95ppu.exe

salida
Paso a paso procedimiento para ejecutar sombrilla en SWAT-CUP

1) Elija Parasol tipo de programa.


2) Editar los archivos de entrada en “Archivos de calibración”
3) Ejecutar ParaSol2.exe en “Calibrar”
4) Examine el resultado de “Salidas de calibración”. Parasol también requiere un gran número de
carreras (> 5000) Salidas de sombrilla se encuentran en los siguientes archivos en Para_Sol.OUT:
95ppu.out Contiene la incertidumbre de predicción de 95% de buen parámetro
ParaSol.out salidas detalladas
Bestpar.out Archivo con el mejor conjunto de parámetros
Scepar.out Archivo con todos los conjuntos de parámetros utiliza en SCE-UA optimización
Sceobjf.out Archivo con todas las funciones objetivo calculados durante la optimización SCE-UA
Scegoc.out Archivo con todas las funciones objetivo (estandarizada) y el criterio de
optimización global (GOC) calculados durante la optimización SCE-UA
goodpar.out Archivo con parámetros de “buenas” de acuerdo con el
parasol scepargoc.out Archivo con todos los parámetros y valores GOC
durante los recorridos de SCE summary_stat.out Resumen de las estadísticas
de todas las variables

VALIDACIÓN
Después de la calibración, validación se puede realizar mediante la opción “Validar” en el menú. Antes
de ejecutar la validación, sin embargo, el archivo ParaSol_obs.dat debe ser editado para contener
datos de validación, ParaSol_Extract_rch.def debe ser editado para la validación de datos de extracto,
y File.cio de SWAT y archivos climáticos (pcp.pcp etc.) deben corresponder al periodo de validación . El
programa de validación usa los parámetros buenos sólo para ejecutar SWAT.
Sombrilla: herramienta de optimización y análisis de la incertidumbre
Ann van Griensven y Tom Meixner

archivos Sombrilla:
Archivo descripción
ParaSol.exe Ejecutables para Windows
ParaSol.f códigos Fortran para el
ParaSol.in archivo de entrada para
Simple_model.exe ParaSol.exe ParaSol.exe
Simple_model.f Ejecutable, por ejemplo, el modelo de
Batchprogram.bat ventanas códigos Fortran para el archivo
entrada4. por lotes Simple_model.exe esa llamada
Model.in simple_model.exe entradas de
precipitación para el archivo de entrada
Model.out para simple_model.exe simple_model.exe
(protocolo EAWAG)
El archivo de salida de simple_model.exe
(protocolo EAWAG)

Introducción

PS-SG es una herramienta que realiza una optimización y análisis de incertidumbre para los resultados
del modelo. En incorpora dos métodos: sombrilla (parámetro Solutions) que permite la optimización de
los parámetros del modelo basado en el algoritmo SCE-UA (. Duan et al, 1992) y utiliza las simulaciones
para evaluar intervalos de confianza en los parámetros y salidas (van Griensven y Meixner, 2003a).

Descripción del método de Parasol

El método sombrilla agregados funciones objetivo (DE de) en un criterio de optimización global (GDC),
minimiza estos DE de o un GOC usando el análisis de incertidumbre SCE-UA algoritmo y lleva a cabo con
una elección entre 2 conceptos estadísticos.

La evolución compleja Arrastrada (SCE) algoritmo

El algoritmo de SCE es un algoritmo de búsqueda global para la minimización de una función única
para hasta 16 parámetros [Duan et al., 1992]. Combina el método de búsqueda directa del
procedimiento simple con el concepto de una búsqueda aleatoria controlada de Nelder y Mead [1965],
una evolución sistemática de puntos en la dirección de la mejoría global, la evolución competitiva
[Holanda, 1975] y el concepto de complejo arrastramiento. En una primera etapa (cero-loop), SCE-UA
selecciona una 'población' inicial por muestreo aleatorio a lo largo del espacio de parámetros factibles
para los parámetros P a optimizados (delimitada por los intervalos de parámetros dados). La población
se repartió en varios “complejos” que constan de 2p + 1 puntos. Cada evoluciona complejos
independientemente utilizando el algoritmo simplex.
SCE-UA ha sido ampliamente utilizado en la calibración del modelo de cuencas y otras áreas de la
hidrología tales como la erosión del suelo, la hidrología subsuperficial, la teledetección y modelado de la
superficie terrestre (Duan, 2003). Se encontró generalmente que es robusto, eficaz y eficiente (Duan,
2003). El SCE-UA también se ha aplicado con éxito en SWAT para los parámetros hidrológicos (Eckardt y
Arnold, 2001) y los parámetros hidrológicos y agua de calidad (van Griensven y Bauwens, 2003).

funciones objetivo que se utilizarán

Dentro de un algoritmo de optimización es necesario seleccionar una función que debe ser minimizado o
optimizado que sustituye a la percepción de expertos de ajuste de curvas durante la calibración manual.
Hay una amplia gama de posibles funciones de error para elegir y muchas razones para elegir uno frente
a otro (para algunos debates sobre este tema, véase [legados y McCabe, 1999;. Gupta et al, 1998]). Los
tipos de funciones objetivo seleccionados para sombrilla se limitan a la siguiente debido a los supuestos
estadísticos realizados en la determinación de los límites de error en el parasol.

Suma de los cuadrados de los residuos (SSQ): similar al método Error Cuadrático Medio (MSE) que tiene
por objeto que coincidan con una serie simulados a una serie de tiempo medido.

SSQ   Xyo, simulado 2


 yo, Medido
(1)

X
 con n el número de pares de medida (xmeasured) y
yo 1, n
simulados (xsimulated) las variables

La suma de los cuadrados de la diferencia de los valores medidos y simulados después de la clasificación
(SSQR): Los objetivos del método SSQR en la colocación de las distribuciones de frecuencia de la
observada y la serie simulado.

Después de la clasificación independiente de la medidos y los valores simulados, se forman nuevos


pares y el SSQR se calcula como

SSQR 
 X j ,simulado 
2 (2)

X
j ,Medido

j 1, n

donde j representa el rango.

A diferencia del método de SSQ, el momento de la ocurrencia de un determinado valor de la variable no


se contabiliza en el método SSQR (van Griensven y Bauwens, 2003).

optimización multi-objetivo

Desde la SCE-UA minimiza una única función, no se puede aplicar directamente para la optimización
multi-objetivo. Aunque existen varios métodos disponibles en la literatura de las funciones objetivo
agregadas a un criterio de optimización global (Madsen, 2003; van Griensven y Bauwens, 2003), que no
prevén una mayor aplicación de análisis de incertidumbre.
Un método de agregación de base estadística se encuentra dentro de la teoría Bayesiano (1763). Al
asumir que los residuos tienen una distribución normal N (0, σ2), la varianza se estima como

2 SSQMIN
(3)
nobs

SSQMIN con la suma de los cuadrados en el óptimo y NoBS el número de observaciones (caja y Tiao,
1973) :. La probabilidad de un residual para un conjunto de parámetros dado depende de una serie de
tiempo específico de datos y luego se puede calcular como:

1  t,
 yt ,  
2
pag( t , obs )  sim obs (4)
|y y 2 
 2

Exp
2 2 
o 
 y
pag(  Exp
t,  yt ,  
2

t , obs ) (5)
sim obs
|y  2 
 2

para una serie de tiempo (1..T) esto da


T  y y 
2

1
pag( | Yobs )  t,
(6)
Exp  T
sim 2 t ,obs

2
2
t 1 2 


o


T
 
 t , sim  yt ,obs 2 
pag( | Yobs ) Ex  t 1 2  (7)
 p 2
 

Para una determinada serie de tiempo gamberros la probabilidad de que el conjunto de parámetros θ p (θ | gamberros)
es por lo tanto proporcional a
 
pag( | Y) Exp  SSQ1 (8)
obs
 
2 *
2
 1 

donde SSQ1 son la suma de los cuadrados de los residuos con σ1 varianza correspondiente a una
determinada serie de tiempo. Para 2 objetivos, una multiplicación bayesiano da:

pag( | Y)  SSQ1   SSQ2  (9)


obs C1
* Exp 2 * 2 *Exp 2 * 2 

 1
  
2
Aplicando la ecuación (3), (9) se puede escribir como:
pag( |
Y)  C2
*  SSQ1 * nobs1  * Exp  SSQ2 * nobs2  (10)
Exp  

 
obs
 SSQ2, min 

 SSQ1, min


De acuerdo a (10), es cierto que:

En
pag( | Y SSQ2 * nobs2 SSQ2 * nobs2 (11)
obs )  C3  
SSQ 2 SS 2 minutos
minu
tos
Q

De este modo podemos optimizar o maximizar la probabilidad de (11) minimizando una optimización
Criterio Global (GDC) que se establece en la ecuación:

GOC 
SSQ1 * nobs1  SSQ2 * nobs2 (12)
SSQ1 minuto SSQ2 minutos

Con la ecuación (11), la probabilidad se puede relacionar con el GDC de acuerdo a:

pag( |
Yobs )  Exp GOC  (13)

La suma de los cuadrados de los residuos de este modo obtener los pesos que son iguales al número
de observaciones dividida por la mínima. Los mínimos de las funciones objetivo individuales (SSQ o
SSQR) están sin embargo inicialmente no se conoce. Después de cada bucle en la optimización SCE-UA,
se realiza una actualización de estas mínimas de las funciones objetivo utilizando la nueva información
recopilada dentro del bucle y, en consecuencia, los valores se vuelven a calcular GOC.

La principal ventaja de utilizar la ecuación 12 para calcular el GOC es que permite para un análisis de
la incertidumbre global teniendo en cuenta todas las funciones objetivo como se describe a
continuación.

método de análisis de incertidumbre

El análisis de la incertidumbre divide las simulaciones que han sido realizadas por la optimización SCE-UA
en simulaciones 'buenas' y simulaciones 'no buenos' y de esta manera es similar a la metodología COLA
[Beven y Binley, 1992]. Las simulaciones recogidos por SCE-UA son muy valiosos como las muestras de
algoritmo largo de todo el espacio de parámetros con un enfoque de soluciones cercanas a la óptima /
optima. Para aumentar la utilidad de las muestras de SCE-UA para el análisis de la incertidumbre, se
hicieron algunas adaptaciones para el algoritmo original SCE-UA, para evitar quedar atrapado en un
mínimo localizado y para permitir una mejor exploración del rango de parámetros completa y evitar que
el algoritmo de centrarse en un conjunto muy limitado de soluciones. Las mayoría de las modificaciones
importantes son:

1. Después de cada bucle, el M peores resultados se sustituyen por muestreo aleatorio Este
cambio impide el método se colapse alrededor de un mínimo local (donde m es igual al número
de complejos). Del mismo modo, Vrugt et al. (2003) resolvió este problema de derrumbarse en
el mínimo mediante la introducción de aleatoriedad. Aquí, sin embargo, se introdujo la
aleatoriedad para la sustitución de los mejores resultados.

2. Cuando los valores de los parámetros están por debajo o por encima del rango del parámetro
definido por SCE-UA, consiguen un valor igual al límite mínimo o máximo consolidado en lugar
de un valor muestreado al azar.
La sombrilla algoritmo utiliza dos técnicas para dividir la población de la muestra de SCE-UA en
simulaciones “malas” “bueno” y. Ambas técnicas se basan en un valor umbral para la función objetivo (o
criterio de optimización global) para seleccionar los 'buenos' simulaciones considerando todas las
simulaciones que dan una función objetivo por debajo de este umbral. El valor umbral puede ser
definido por 2-estadísticas donde las simulaciones seleccionados corresponden a la región de confianza
(CR) o Bayesiano estadísticas que son capaces punto fuera de la región de alta densidad de probabilidad
(HPD) para los parámetros o los resultados del modelo (Figura 1) .

2-método
Para una calibración objetivo para el SSQ, la SCE-UA se encuentra un conjunto de parámetros Ө * que
consiste en los parámetros libres p (ө * 1, ө * 2, ... ө * p), que corresponde al mínimo de la suma del SSQ
cuadrado. Según 2 estadísticas (Bard, 1974), podemos definir un umbral “c” para “bueno' conjunto de
parámetros utilizando la ecuación

C  DE ( *) * (1  2 pag ,
 0,95 (14)
norte 
pag )

por lo que la χ2p, obtiene un valor más alto para los parámetros más libre p .
0,95

Para la calibración multi-objetivo, las selecciones se hacen usando el GDC de la ecuación (12) que
normaliza la suma de los cuadrados de n, igual a la suma de nobs1 y nobs2, observación. Un umbral para
el GDC se calcula por:

C  GOC(*) *  2 pag, 0,95


(1 (15)
nobs1 nobs2 
)
pag

por lo tanto todas las simulaciones con GDC <Xgocmin + se consideran aceptables

método bayesiano

De acuerdo con el teorema Bayesiano, la probabilidad p (θ | gamberros) de un conjunto de


parámetros θ es proporcional a la ecuación (11).

Después de la normalización de las probabilidades (para asegurar que la integral sobre todo el espacio
de parámetro es igual a 1) a distribuciones acumulativas se pueden hacer y por lo tanto una región de
confianza del 95% se pueden definir. Como los conjuntos de parámetros no se tomaron muestras al
azar, pero fueron más densamente muestreados cerca de la óptima durante la optimización SCE-UA, es
necesario evitar que las regiones densamente muestreadas dominan los resultados. Este problema se
evita mediante la determinación de un peso para cada theta i conjunto de parámetros por los siguientes
cálculos:

1. Dividiendo el rango del parámetro p en m intervalos


2. Para cada intervalo k del parámetro j, la nsamp densidad de muestreo (k, j) se calcula mediante la
suma de los tiempos que el intervalo se tomaron muestras para un parámetro j.
Un peso para un juego de parámetros theta i es de lo estimado por
1. Determine el intervalo k (entre 1 y m) de la theta i parámetro
2. Considere el número de muestras dentro de ese intervalo = nsamp (k, j)
3. El peso se calcula como de
 pag 
1/p (dieciséis)

W (yo )   nsamp(K, j)
 j 1yo 
El umbral de “c” se determina mediante el siguiente procedimiento:
a. conjuntos Ordenar de parámetros y valores GOC acuerdo con las probabilidades decrecientes
b. probabilidades se multiplican por los pesos
c. Normalizar las probabilidades ponderadas por la división usando PT con
T
(17)

PT  W ( ) |Y yo obs
*pag(yo )
yo 1

d. Suma normalizada probabilidades ponderadas a partir de rango 1 hasta la suma se hace mayor que el
límite de probabilidad acumulada (95% o 97,5%). El GOC correspondiente a o más cercano al límite de
probabilidad define el umbral de “c”.

SCE muestreo Xi-cuadrado CR bayesiano


HPD

200

150
Smax

100

50 Figura 2: Confianza región CR para las


estadísticas χ2- y la región de alta
0 probabilidad densidad (HPD) para las
0.0 0.2 0.4 0.6 0.8 1.0 estadísticas Bayesianas para un modelo de
k prueba 2- parámetro

El uso de sombrilla

Utiliza un archivo de entrada “ParaSol.in”. Funciona mediante la comunicación con el modelo a través
de archivos de entrada y de salida. De entrada del modelo está impreso en “model.in” que containes
los nuevos valores de los parámetros. Hay 2 opciones para comunicarse con la salida:
1. “Modelof.out” con las funciones objetivo OR
2. “Model.out” con los valores de salida y “data.obs” con los valores
observados. Para la opción 2, el modelo calculará funciones objetivas basadas en la
ecuación 1.
ParaSol.exe está programado para ejecutar un batchfile “programbatch.bat”, que contiene los
comandos necesarios para la ejecución de las siguientes:
1. la lectura de los parámetros enumerados en “model.in” y cambiar los archivos de
entrada de modelo para estos valores de los parámetros.
2. la ejecución del programa
3. la lectura de salida del programa y la impresión de la función objetivo (s) en un archivo
“modelof.out” en el formato correcto (si iflag> 0)

El paquete de sombrilla contiene un ejemplo para la aplicación (simple_model.exe) que es una


contiene un modelo con 2 parámetros ec [0200] y ek [0,1], que tiene un grado óptimo en el conjunto
de parámetros (100,0.3).
realiza simple_model.exe las 3 tareas mencionadas anteriormente y se llama desde el en
el archivo “programbatch.bat”.

Para el funcionamiento de PS-SG en otras aplicaciones “otherapplication.exe”, lo que es necesario:

1. Para crear el archivo ParaSol.in apropiada, mostrando todos los parámetros (hasta 100) y
rangos de ser considerados y que indica el número de funciones objetivo a tener en cuenta
(hasta 40)
2. Tener un programa de “changeinputs.exe” que cambia los archivos de entrada para
“otherapplication.exe”, de acuerdo con los valores de “ParaSol.in”
3. Tener un programa de “makeobjf.exe” que leerá las salidas de “otherapplication.exe”,
calcula las funciones objetivo y escribe estos para el archivo “modelof.out” (o escribe en el
archivo model.out con simulaciones según el formato EAWAG en caso de iflag = 0).
4. Poner las órdenes de “changeinputs.exe”, “otherapplication.exe” y “makeobjf.exe” (si iflag> 0)
en el archivo “programbatch.dat”.

CHANGEPAR
Esta sección sigue la sección anterior. Cada parámetro tiene una fila, que contiene límite inferior,
límite superior, y el nombre del parámetro (hasta 250 dígitos), todos en formato libre.

Los archivos de salida

Nombre del archivo Descripción


ParaSol.out salidas detallada.
Bestpar.out Archivo con el mejor conjunto de parámetros
Scepar.out Archivo con todos los conjuntos de parámetros utiliza en
Sceobj.out SCE-UA optimización archivo con todas las funciones
objetivo calculados durante la optimización esce- UA
Scegoc.out Archivo con todas las funciones objetivo
(estandarizado) y el Gobierno de Colombia calculado
goodpar.out durante la optimización SCE-UA
scepargoc.out Archivo con parámetros de “buenas” de acuerdo con el
parasol
Archivo con todos los parámetros y valores GOC durante
los recorridos de SCE.

Vuelva a ejecutar el modelo con buenas conjuntos de parámetros

Esta opción sólo tiene sentido si usted tiene su salida del modelo de acuerdo con el protocolo de
EAWAG. Si pones ISTEP = 2 en el archivo ParaSol.in, el modelo volverá a ejecutar todos los buenos
juegos de parámetros (en goodpar.out) y calcular el límites mínimos y máximos para la salida del
modelo (en model.out). Estos valores máximos y mínima se nos impreso en los archivos
modelminval.out y modelmaxval.out respectivamente.
MCMC

Markov Chain Monte Carlo


Introducción a la MCMC
MCMC genera muestras de un camino aleatorio que se adapta a la distribución posterior (Kuczera y
Parent, 1998). La técnica más simple de esta clase es el algoritmo Metropolis-Hasting (Gelman et al.
1995), que se aplica en este estudio. Una secuencia (Markov Chain) de conjuntos de parámetros que
representan la distribución posterior se construye como sigue:

1) se elige un punto de partida inicial en el espacio de parámetros.

2) Un candidato para el siguiente punto se propone mediante la adición de una realización aleatoria de una
simétrica
distribución de F saltar , A las coordenadas del punto de la secuencia anterior:
salto,

*
 k1   rand (f saltar (13)
)
k

3) La aceptación de los puntos candidatos depende de la relación r:

F(θ*y k 1meas )
Θenviar Y
r (14)
FΘenviar Y (θk y meas )

Si r> = 1, entonces el punto candidato se acepta como un nuevo punto con probabilidad r. Si se rechaza
el punto candidato, el punto anterior se utiliza como el siguiente punto de la secuencia.

Con el fin de evitar la larga burn-in períodos (o incluso la falta de convergencia a la distribución
posterior) de la cadena se inicia con una aproximación numérica hasta el máximo de la distribución
posterior calculada con la ayuda del algoritmo de optimización global compleja barajado (Duan et al .,
1992).
Paso a paso de ejecución de
MCMC

La MCMC en SWAT-CUP se basa en los procedimientos desarrollados por Peter Reichert en el paquete UNCSIM. Para más detalles remitimos al
lector ahttp://www.uncsim.eawag.ch/. Para ejecutar MCMC los siguientes archivos de entrada deben ser creados:

mcmc.def

Modelo Mcmc.in
External_ModelInFile externa // archivo de parámetros generados internamente
External_ModelOutFile mcmc.out // archivo de simulación creado internamente
External_ModelExecFile mcmc_run.bat // archivo por lotes para iniciar MCMC

ParDefFile mcmc_par.def // archivo de definición de paerrameter a ser preparado por el


PriorDistFile mcmc_prior.def usuario
LikeliDefFile mcmc_obs.dat // priors de parámetros para ser preparados por el usuario
JumpDistFile mcmc_jump.def // archivo de observación a ser preparado por el usuario
SampSize 100 // archivo de distribución salto a ser preparado por el usuario
// número de carrera a realizar por MCMC
ResValFile mcmc_best.out //mejor solución
ResidValFile mcmc_resid.out // residual de mejor solución
PostMarkovChainParSampFile mcmc_parsamp.out // Cadena Markov de parámetros
PostMarkovChainParQuantFile mcmc_parquant.out / Cuantiles de distribución parámetro
PostMarkovChainResSampFile mcmc_ressamp.out // Cadena de Markov del resultado
PostMarkovChainResQuantFile mcmc_resquant.out // cuantil de los residuos de la cadena de Markov
PostMarkovChainPdfSampFile mcmc_pdfsamp.out // Cadena de Markov del pdf de la parte posterior

94
mcmc_par.def

Nombre Valor Mínimo Máximo Escala UncRange Increment ActSens ActEstim Unidad Descripción
o
r CN2.mgt -0.37213 -0.8 0.2 0.3 0.03 0.03 T T 0.2
r ALPHA_BF.gw -0.32866 -0.85 0.2 0,325 0,0325 0,0325 T T 0.2
r GW_DELAY.gw 0.404144 -0.2 0.9 0.35 0,035 0,035 T T 0.9
r CH_N2.rte -0.14402 -0.8 0.8 1 0.1 0.1 T T 0.8
v CH_K2.rte 6.205686 1 10 5.5 0.55 0.55 T T 10
........ ........ ........ ........ ........ ........ ........ ........ ........ ........
........ ........ ........ ........ ........ ........ ........ ........ ........ ........
Lamda1 0.5 0 1 1 0.1 0.1 F F
Lamda2 0 0 10 1 0.1 0.1 F F
Std_Dev_Out 1 0.1 10 1 0.1 0.1 F F

Valor - estimación inicial de valor de


parámetro Mínimo - valor de parámetro
mínimo Máximo - valor del parámetro
máximo Escala -
UncRange -
Incremento - Valor mínimo de parámetros para cambios de paso en valor dentro
Mimimum-Máximo ActSens -
ActEstim -
Unidad -
Descripción -
mcmc_obs.dat

ResCode dat Transformación Par_1 Par_2 dist Media desv_están


1 21.41 BoxCox Lamda1 Lamda2 Normal 0 Std_Dev_Out
2 23.943 BoxCox Lamda1 Lamda2 Normal 0 Std_Dev_Out
3 99.956 BoxCox Lamda1 Lamda2 Normal 0 Std_Dev_Out
4 100.169 BoxCox Lamda1 Lamda2 Normal 0 Std_Dev_Out
5 53.057 BoxCox Lamda1 Lamda2 Normal 0 Std_Dev_Out
6 32.07 BoxCox Lamda1 Lamda2 Normal 0 Std_Dev_Out
7 9.286 BoxCox Lamda1 Lamda2 Normal 0 Std_Dev_Out
8 1,784 BoxCox Lamda1 Lamda2 Normal 0 Std_Dev_Out
9 6,586 BoxCox Lamda1 Lamda2 Normal 0 Std_Dev_Out
10 11.948 BoxCox Lamda1 Lamda2 Normal 0 Std_Dev_Out
11 14.812 BoxCox Lamda1 Lamda2 Normal 0 Std_Dev_Out
12 14.681 BoxCox Lamda1 Lamda2 Normal 0 Std_Dev_Out
...... 16.261 BoxCox Lamda1 Lamda2 Normal 0 Std_Dev_Out

ResCode - etiqueta de puntos de datos


medidos dat - valor de los datos
Transformación - transformación a realizar sobre los datos, es decir, la transformación Box
Cox Par_1 - el primer parámetro de la transformación
Par_2 - el segundo parámetro de la transformación
dist - distribución del punto de datos
Media - media de la distribución de los puntos de datos
desv_están - desviación estándar de la distribución de la pinta de datos

mcmc_prior.def

Nombre dist Par_1 Par_2


r CN2.mgt Uniform -0.8 0.2
e
r ALPHA_BF.gw Uniform -0.85 0.2
e
r GW_DELAY.gw Uniform -0.2 0.9
e
r CH_N2.rte Uniform -0.8 0.8
e
v CH_K2.rte Uniform 1 10
e
r SOL_AWC.sol Uniform -0.2 0.6
e
......... ......... ......... .........
......... ......... ......... .........

dist - distribución de los parámetros


Par_1 - primer momento de la distribución
Par_2 - segundo momento de la
distribución

96
Preparar el archivo mcmc_jump.def acuerdo con el formato siguiente. A corto plazo tal vez sea
necesario en primer lugar, con el fin de generar un número razonable.

mcmc_jump.def

Nombre dist Par_1 Par_2


r CN2.mgt Normal 0 0,003
r ALPHA_BF.gw Normal 0 0.00325
r GW_DELAY.gw Normal 0 0,0035
r CH_N2.rte Normal 0 0.01
v CH_K2.rte Normal 0 0,055
r SOL_AWC.sol Normal 0 0,002

Nombre - nombre del


parámetro dist -
distribución de los
parámetros
Par_1 - primer momento de la
distribución Par_2 - segundo momento
de la distribución

Las distribuciones de salto son muy importantes para la convergencia y requieren algunas tandas
de ensayo y error para especificar iniciales.

mcmc_run.bat

SWAT_Edit.exe // programa para insertar parámetros generados en los archivos de


swat2005.exe entrada swat
MCMC_extract_rch.exe // programa swat ya sea swat2000 o swat2005

7- Ejecutar el programa executingmcmc_start.bat

Nota: Por favor, ignore el siguiente error durante la carrera:


Referencia
Abbaspour, KCE Rouholahnejad, S. Vaghefi, R. Srinivasan, B. Kløve. 2014. Modelado de la
hidrología y calidad del agua del continente europeo a escala subcuenca: la calibración de
un modelo SWAT a gran escala de alta resolución. Diario de Hidrología, 524: 733-752.
http://www.sciencedirect.com/science/article/pii/S0022169415001985
Abbaspour, KC, J. Yang, I. Maximov,., R. Siber, K. Bogner, J. Mieleitner, J. Zobrist, R. Srinivasan.
2007. Modelado hidrología y calidad del agua en la pre-alpino / alpino jue cuencas usando
SWAT. Diario de Hidrología, 333: 413-430.
Abbaspour, KC, 2005. La calibración de los modelos hidrológicos: cuando se calibra un modelo? En
Zerger, A. y Argent, RM (eds) ModSim 2005 Congreso Internacional sobre Modelización y
Simulación. Modelado y Simulación de la Sociedad de Australia y Nueva Zelanda, diciembre
de 2005, pp 2449- 12455.. ISBN: 0-9758400-2-
9.http://www.mssanz.org.au/modsim05/papers/abbaspour.pdf
Abbaspour, KC, Johnson, A., van Genuchten, M.Th, 2004. La estimación de parámetros de flujo y
transporte de incertidumbre utilizando un procedimiento de incertidumbre de ajuste
secuencial. Vadosa Zona Journal 3 (4), 1340-1352.
Abbaspour, KC, R. Schulin, M. Th. Van Genuchten, 2001. Estimación de parámetros hidráulicas del
suelo insaturado utilizando optimización de colonia de hormigas. Los avances en los
recursos hídricos, 24: 827-841.
Abbaspour, KC, M. Sonnleitner, y R. Schulin. 1999. La incertidumbre en la estimación de los
parámetros hidráulicas del suelo por Inverse Modeling: Experimentos Ejemplo lisímetro.
Soil Sci. Soc. de Am. J., 63: 501-509.
Abbaspour, KC, M. Th. van Genuchten, R. Schulin, y E. Schläppi. 1997. Un procedimiento
inverso dominio incertidumbre secuencial para la estimación de parámetros de flujo
subsuperficial y de transporte. Resour agua. Res., V. 33, no. 8., pp. 1879-1892.
Arnold, JG, Srinivasan R., Muttiah RS, Williams JR, 1998. Amplia zona de modelación hidrológica y
la evaluación - Parte 1: Modelo de desarrollo. Diario de la Asociación de Recursos American
Water 34 (1), 73-89.
Bard, 1974. Non Linear estimación de parámetros. Academic Press, Nueva York, NY
Box, GEP, y GCTiao. La inferencia bayesiana en el análisis estadístico, Addison-Wesley Longman-,
Reading, Massachusetts, 1973.
Beven, K. y Freer, J., 2001. Equifinalidad, la asimilación de datos, y estimación de la incertidumbre
en el modelado mecanicista de los sistemas ambientales complejos utilizando la
metodología de pegamento. Diario de Hidrología, 249 (1-4): 11-29.
Beven, K. y Binley, A., 1992. El futuro de los modelos distribuidos - Modelo de calibración y
predicción de la incertidumbre. Procesos hidrológicos, 6 (3): 279-298.
Duan, Q., optimización global de calibración Modelo Cuenca, en la calibración de los modelos de
cuencas, editado por P. Duan, HV Gupta, S. Sorooshian, UN Rousseau, y R. Turcotte, pp. 89-
104, AGU, Washington, DC 2003.
Duan, Q., VK Gupta, S. y Sorooshian, eficaz y eficiente para la optimización global modelos lluvia-
escorrentía conceptuales, agua. Resourc. Res., 28: 1015-1031, 1992.
Duan, P., S. Sorooshian, HV Gupta, UN Rousseau, y R. Turcotte, avances en la calibración de los
modelos de cuencas, AGU, Washington, DC, 2003.
Eckhardt K y JG Arnold. La calibración automática de un modelo de captación distribuida. , J.
Hydrol, 251:. 103-109. 2001.
Faramarzi, M., KC Abbaspour, H. Yang, R. Schulin. 2008. Aplicación de SWAT para cuantificar los
recursos hídricos internos renovables en Irán. Ciencias hidrológico. DOI: 10.1002 /
hyp.7160.
Gelman, S., Carlin, JB, Stren, SA, Rubin, DB, 1995. Análisis de datos bayesiana, Chapman y Hall,
Nueva York, EE.UU..
Gupta, HV, S. Sorooshian y PO Yapo, 1998. Hacia una mejor calibración de los modelos
hidrológicos: múltiple y medidas inconmensurables de información, de agua. Resourc. Res.,
34: 751-763.
Gupta, HV, S. Sorooshian y PO Yapo. 1999. Estado de la calibración automática-matic para los
modelos hidrológicos: Comparación con la calibración experto mul-tilevel. J. Hydrologic Eng,
4 (2):. 135-143
Gupta, HV, Kling, H., Yilmaz, KK, Martínez, GF2009. La descomposición del error cuadrático medio
y criterios de rendimiento NSE: implicaciones para mejorar modelling.J.Hydrol.377
hidrológico, 80-91.
Holanda, JH Adaptación en Sistemas Naturales y Artificiales. La Universidad de Michigan Press, Ann
Arbor, MI, 183 p, 975, 1975.
Hornberger, GM y Lanza, RC, 1981. Una aproximación al análisis preliminar, de los sistemas
ambientales. Journal of Environmental Management, 12 (1): 7-18.
Krause, P., DP Boyle, F. Base, 2005. Comparación de los diferentes criterios de eficiencia para la
evaluación del modelo hidrológico, Adv. En Geoscheices, 5: 89-97.
Kuczera, G., Padres, E., 1998. Evaluación de Monte Carlo del parámetro de incertidumbre en los
modelos conceptuales de captación: el algoritmo de Metropolis. Diario de Hidrología, 211
(1-4): 69-85.
Legados, DR y GJ McCabe, 1999. Evaluación de la aplicación de las medidas de "bondad de ajuste"
en la validación del modelo hidrológico y hidroclimática. Agua. Resou. Res., 35: 233-241.
estimación Madsen, H., de parámetros de captación en el modelado hidrológico distribuido
mediante la calibración automática con múltiples objetivos. Los avances en los recursos
hídricos, 26, 205-216, 2003.
Marshall, L., D. Nott, y A. Sharma 2004. Un estudio comparativo de la cadena de Markov Monte
Carlo métodos para el modelado de lluvia-escorrentía conceptual. Agua Recursos de
Investigación, 40, W02501, doi: 10.1029 / 2003WR002378.
McKay, MD, Beckman, RJ, Conover, WJ, 1979. Una comparación de tres métodos para la selección
de valores de variables de entrada en el análisis de la producción de un código de
ordenador. Technometrics. 21, 239-245.
Moriasi, DN, Arnold, JG, Van Liew, MW, Bingner, RL, Haemel, RD, Veith, TL 2007. Modelo
directrices de evaluación para la calificación sistemática de precisión en la simulación de
cuencas. Transacciones de la ASABE, 50: 885-900.
Nash, JE, JV Sutcliffe, 1970. previsión de flujo de Río a través de modelos conceptuales 1. Una
discusión de los principios. Journal of Hidrología 10 (3), 282-290.
Nelder, JA, RA Mead, método simplex para la minimización de la función, Diario de ordenador, 7,
308-313, 1965.
Prensa, WH, Flannery, BP, Teukolsky, SA, Vetterling, WT, 1992. numérica Receta, El Arte de la
Computación Científica. 2ª ed. Cambridge University Press, Cambridge, Gran Bretaña.
Romanowicz, RJ, Beven K., y Tawn J. 1994. Evaluación de Predictive la incertidumbre en los
modelos no lineales hidrológicos utilizando un enfoque bayesiano. En: Estadísticas de Medio
Ambiente 2, Agua Cuestiones relacionadas, eds V. Barnett y KF Turkman, 297-315, Wiley,
Chichester.
Rouholahnejad E, Abbaspour KC, Vejdani M, Srinivasan R, R Schulin, Lehmann A. 2012.
paralelización marco para la calibración de los modelos hidrológicos, Medio Ambiente
que modelaba software, 31: 28-36.
Schuol, J., KC Abbaspour, R. Srinivasan, y H.Yang. 2008a. Modelado Azul y disponibilidad de agua
verde en África, a intervalos mensuales y el nivel de subcuenca. Water Resources Research.
VOL. 44, W07406, doi: 10.1029 / 2007WR006609.
Schuol, J., Abbaspour, KC., Sarinivasan, R., Yang, H. 2008b. Estimación de la disponibilidad de agua
dulce en el sub-continente de África Occidental con el modelo hidrológico SWAT. Journal of
Hydroloy. 352 (1-2): 30-49.
van Griensven A. y W. Bauwens. 2003. Multi-objetivo de calibración automática para los modelos
semi-distribuido de calidad del agua, agua. Resourc. Res. 39 (12): Art. No. 1348 DEC 16 años.
Van Griensven, A., Meixner, T., 2006. Los métodos para cuantificar e identificar las fuentes de
incertidumbre para los modelos de calidad del agua de cuenca. Ciencia y Tecnología del Agua,
53 (1): 51-59.
Vrugt, JA, HV Gupta, W. Bouten, y S. Sorooshian. 2003. Una mezcla de complejos Evolución
Metropolis algoritmo para la estimación posterior distribución de los parámetros modelo de
la cuenca, en la calibración de los modelos de cuencas, ed. P. Duan, S. Sorooshian, HV Gupta,
UN Rousseau, y R. Turcotte, AGU Washington DC, DOI: 10.1029 / 006WS07.
Yang, J., Reichert, P., Abbaspour, KC, Yang, H., 2007. Modelado Hidrológico de la Cuenca Chaohe
en China: Modelo estadístico Formulación y inferencia bayesiana. Diario de Hidrología, 340:
167-182.
Yang, J., Abbaspour KC, Reichert P., y Yang H. 2008. La comparación de técnicas de análisis de
incertidumbre para una aplicación SWAT a Cuenca Chaohe en China. En revisión. Diario de la
hidrología. 358 (1-2): 1-23.
Yapo, PO, Gupta, HV, Sorooshian, S., 1998. multi-objetivo de optimización global para modelos
hidrológicos. J. de Hydrol. 204, 83-97.

También podría gustarte