Está en la página 1de 8

Proceedings del XII Congreso de la Sociedad Peruana de Computacion

CSPC2013

Red Neuronal aplicada a la generacin de caudales


mensuales estocsticos
Jos Herrera Quispe
Yessenia Yari
Edson Luque
Yvn Jess Tpac Valdivia
Ctedra Concytec
Ctedra Concytec
Ctedra Concytec
Ctedra Concytec
UNSA
UNSA
UNSA
UCSP
Arequipa, Per
Arequipa, Per
Arequipa, Per
Arequipa, Per
Email: jherreraq@unsa.edu.pe Email: yessi1217@gmail.com Email: Edluquem@gmail.com Email: ytupac@ucsp.pe

ResumenLuego de la publicacin de un Proceso Estocstico


Neuronal por Campos [1] y Taymoor [2] basado en una Red
Neuronal Feedforward con entrenamiento Levenberg-Marquardt
aplicada a la generacin estocstica de caudales mensuales
estocsticos, se propone su evaluacin en el ambito de la Cuenca
del Rio Chili.
Keywords-Series temporales, Redes Neuronales, Caudales.

I.

I NTRODUCCIN

Los datos hidrolgicos constituyen una secuencia de observaciones de algunas de las fases del ciclo hidrolgico,
representadas a travs de series temporales. El anlisis de estos
datos es necesario para la planeacin y gestin de eventos que
presentan un fenmeno de persistencia observable.
Hay que tener en cuenta que cuanto ms largo sea el
registro, hay una mayor probabilidad de que existan cambios
en las condiciones fsicas de la cuenca o en los mtodos de
recoleccin los datos. Es conocido tambin que la simulacin
que usa unicamente los registros histricos introduce muchas
limitaciones, como por ejemplo [3] la cual remarca que hay
un limitado nmero de diseos o estrategias alternativas. Las
mejores reglas de operacin y diseo son obtenidas cuando se
prueban una variedad de escenarios generados.
Por otro lado, estimar la capacidad de almacenamiento de un
sistema de embalses puede ser hecho a partir de la generacin
sinttica de flujos en uno o mas lugares, del mismo modo
los estudios de operacin de un sistema de embalses pueden
requerir la previsin de variables como las precipitaciones o
caudales.
En general las investigaciones en recursos hdricos pueden
involucrar generacin de datos y/o previsin no solo de
variables hidrolgicas sino de otras vinculadas al uso de
agua como irrigacin, generacin elctrica, demandas de agua
potable, etc. Por lo tanto, la bsqueda de un diseo ptimo
en un proyecto de gestin del agua frecuentemente involucra
encontrar un mtodo o tcnica que genere largas secuencias
de las caracteristicas de los flujos en este caso de un ro en
cuestin. Estas secuencias pueden ser usadas para analizar el
desempeo del proyecto diseado.

II. M ARCO T ERICO


II-A. Redes Neuronales en hidrologa
Muchos estudios desarrollados en la ltima dcada han
empleado las ANNs para la generacin y previsin de variables
hidrolgicas, ejemplo la previsn de crecidas e inundaciones
[4], [5], [6], [7]; previsin de lluvia escorrentia [8], [9];
prediccin de caudales [10], [11] y generacin de caudales
multivariados [12], [13].
Las Redes Neuronales Artificiales son una herramienta
computacional que emula el funcionamiento de las redes
neuronales del cerebro. Una caracteristica atractiva de las
redes neuronales es la capacidad de extraer la relacin de las
entradas y salidas de un proceso, sin conocer explcitamente
la naturaleza fsica del problema de tal forma que el resultado
es usado para transmitirlo a lo largo de la red y dar una seal
de salida.
Las redes neuronales son conocidas por identificar reglas
ocultas. Estas propiedades sugieren que las ANNs (redes
neuronales artificiales) puede ser adaptadas para problemas de
estimacin y prediccin en hidrologa. En muchos aspectos las
ANNs son muy similares a los modelos de regresin, excepto
porque no requieren una especificacin muy formal. Ademas
son mas verstiles debido a la libertad disponible respecto a la
eleccin del nmero de capas ocultas y los nodos asociados a
estas capas. Las estructuras de las ANNs permiten que la informacin sea procesada en multiples caminos simultaneamente,
ofreciendo oportunidades para implementaciones paralelas.
Actualmente existe muchos modelos para la generacin y
previsin de caudale, precipitaciones y evaporaciones producidas en una determinada zona los cuales son usados en el
planeamiento de los sistemas de gestin de recursos hdricos.
Estos modelos pueden usar las siguientes tcnicas:
Regresin lineal simple
Regresin lineal multiple
Modelos Autoregresivos (AR)
Modelos de Medias Moviles (ARMA)
Modelos de Medias Moviles con variable exogena (ARMAX)
ARMA y ARMAX con parametros peridicos
En todos estos modelos, la relacin lineal entre las variables
hidrolgicas relevantes es asumida pero no siempre da los

41

Proceedings del XII Congreso de la Sociedad Peruana de Computacion

mejores resultados, y en algunos casos es inadecuado [12].


Muchos estudios emplean los modelos autoregresivos para
la generacin y previsin de caudales, mostrando de esta
forma que los modelos de bajo orden reproducen bien las
caracteristicas analizadas [14].
Por otro lado, los resultados de los modelos estocsticos
de caudales pueden mejorar la precisin de la estimacim del
diseo de la capacidad de los embalses [15]. Peng [16] muestra
que no hay evidencia que los modelos AR(1) multivariados
sean inadecuados (Thomas Fiering es un modelo AR1 con
coeficientes que varian estacionalmente, un buen ejemplo de
este enfoque).
Estudios iniciales como [17], [18], [19], [20], [21] describen
secuencias de caudales con modelos matemticos, los cuales
pueden reproducir caracteristicas especiales como la periodicidad y considerar los efectos de la correlacin lineal. La mas
importante contribucin fue hecha por Thomas y Fiering [19].
Ellos proponen que los caudales pueden ser simulados con una
relacin lineal simple con cuadales previos.
II-A1. Modelo de Thomas y Fiering: Modelo para la
generacin de caudales sintticos fue desarrollado en 1962 por
Thomas y Fiering [19]. Este modelo ademas de la media y la
varianza, usa el coeficiente de correlacin, pues se considera
que los registros histricos de procesos hidrolgicos presentan
un fenmeno de persistencia observable [22]. El modelo fue
aplicado exitosamente en muchos estudios de generacin de
series temporales de caudales, precipitacin [23], [24].
II-A1a. Para una distribucin normal::
q
$

(1)
Q j+1 = Q j+1 + b j Q j Q j + t j .s j+1 1 r2j

Donde:
Q j es el caudal en el mes j
Q j es el caudal promedio en el mes j
B j es la pendiente de la recta de regresin entre el mes j y
j+1
S j es la varianza de la distribucin de los caudales en el
mes j
R j es el coeficiente de correlacin entre el mes j y j+1
T j es un nmero aleatorio que viene de una distribucin
normal de media nula y de varianza igual a uno.
Para calcular los promedios, la pendiente, la varianza y el
coeficiente de correlacin con los datos histricos.
El promedio:
1 n
Q j = Q j
n i=1

CSPC2013

Para j igual a 1
r1 =

1
n1

$
$

Q1 Q 1 Qm Q m
s1 sm

La pendiente de la recta de correlacin:


r s

j j
b j = s j1
para j 2
para j = 1 b1 = rs1ms1

III.

sj =

$
2
1
Q j Q j
n1

El coeficiente de correlacin:
Para j mayor o igual a 2
$
$

1

n1 Q j Q j Q j1 Q j1
rj =
s j s j1

Muchas tcnicas estadsticas y de la teora de probabilidades


aplicadas al anlisis de series temporales de caudales se
desarrollan suponiendo que las variables son normalmente
distribuidas; por lo tanto se debe comprobar su normalidad
antes del anlisis.
Algunas trasnformaciones son requeridas si no estan distribuidas normalmente, algunos mtodos ampliamente usados
son la transformacin logartmica, the power transformation, y la transformacin Box-cox; esta ltima es usada en los
registros histricos, tratando de remover la estacionalidad
de la media y la varianza, en la literatura esta operacin es
llamada estandarizacin estacional o desestacionalizacin
, lo que resulta en variables normalmente distribuidas con
media cero y desviacin estandar uno.
III-A. Cuenca del Rio Chili
El caso de estudio se encuentra ubicado en la cuenca Quilca
- Chili, al sur del Per en la regin de Arequipa (ver Figura 1).
La cuenca posee caractersticas climatolgicas, las cuales son
medidas a travs de instrumentos. Dichos instrumentos se
encuentran asociados a estaciones de medicin.
Una conjunto de observaciones mensuales del reservorio
desde junio 1972 a 1990 18aos. Una exploracin preliminar
de estas observaciones muestran que el coeficiente de asimetria est sesgado, inclinado, parcializado, por lo tanto es
necesario una transformacin para reducirla proxima a cero.
[25]

(2)

42

(3)

(4)

(6)

P ROCESAMIENTO DE DATOS

La varianza:
r

(5)

Figura 1.

Estaciones de Medicin

Proceedings del XII Congreso de la Sociedad Peruana de Computacion

III-B. Transformacin logartmica para reducir la asimetria


de una serie temporal
Xv,t = log(Qv,t + ct Qt )

(7)

ct = a/gt2

(8)

Donde:
Qv,t es el caudal de entrada observado (MCM) para el mes
t = 1, 2, ..,12 y el ao v(v = 1, ..., N); N es el nmero de
aos registrados de la serie; Q es el promedio mensual de
caudales para el mes t, a es una constante; g es el coeficiente
de asimetra para el conjunto Q1,t , Q2,t , ...QN,t y Xv,t son los
caudales normalizados para el ao v y mes t.
IV.

CSPC2013

calculando las salidas y ajustando las interconexiones de pesos


hasta que la salida desea sea alcanzada.
El mtodo de entrenamiento usado en este trabajo es conocido como back propagation; esta es una tcnica iterativa
comnmente usada para aprendizaje de redes neuronales([4],
[11], [7]) , recientes estudios han demostrado que una ANN
de tres capas feedforward usando funciones de transferencia
sigmoides puede implementar cualquier funcin multivariable
de mapeo continua y limitada([26]).

A RQUITECTURA DE LA R ED N EURONAL U SADA

Las redes neuronales estn compuestas de elementos simples operando en paralelo, estos elementos son inspirados
por el sistema nervioso como en la naturaleza, la funcin
de la red es determinada en gran parte por las conexiones
entre elementos. Una red neuronal puede ser entrenada para
realizar una funcin particular mediante el ajuste de los valores
de sus conexiones(pesos) entre elementos, comnmente las
redes neuronales son ajustadas, o entrenadas , de modo que
una entrada en particular supone una salida especfica tal
situacin se encuentra ilustrada en 2, ah la red es ajustada,
basada en una comparacin de la salida y el objetivo hasta
que la salida de la red coincida con el objetivo. Tpicamente
muchas parejas entrada/objetivo son usadas, en el aprendizaje
supervisado para entrenar una red. las redes neuronales han
sido entrenadas para realizar funciones complejas en varios
campos de aplicacin incluyendo: reconocimiento de patrones,
identificacin, clasificacin, habla , visin y sistemas de control. hoy en da las redes neuronales pueden ser entrenadas para
resolver problemas que son difciles para las computadoras
convencionales o seres humanos.
El campo de redes neuronales tiene una historia de al menos
5 dcadas pero ha encontrado solida aplicacin slo en las dos
ultimas, y estn an desarrollndose rpidamente. As , esto
es diferente de los campos de sistemas de control u optimizacon donde la terminologa , matemtica bsica y diseo de
procedimientos han sido firmemente establecidos y aplicados
por muchos aos en los 90. Las ANN han sido usadas
satisfactoriamente en reas relacionadas de hidrologa, una
revisin detallada se encuentra en (ASCE-TCAANNH,2000).
Las Redes Neuronales son inicializadas asignando nmeros
aleatorios dentro del intervalo [-1,+1] para la interconexin
de pesos y definiendo los parmetros de la funcin sigmoide
de las capas , escondida y salida. tambin una taza de
aprendizaje es seleccionada, controla el cambio incremental
en la interconexin de pesos durante un entrenamiento iterativo
como un porcentaje de la diferencia entre la salida deseada
y la salida calculada por red neuronal. El entrenamiento de
la NN es realizado proporcionando entradas para el modelo,

Figura 2.

IV-A.

Estructura de una red neuronal supervisada.

Redes Neuronales Feedforward

la arquitectura de una red neuronal feedforward ( 3) se


refiere a su estructura como a su esquema de interconexin. La
estructura es especificada por el nmero de capas y el nmero
de nodos por capas. Los tipos de capas pueden ser:
La capa de entrada: en esta capa los nodos son llamados
unidades de entrada, que codifican la instancia presentada
a la red para procesarla, por ejemplo, cada unidad de
entrada puede ser designada por un valor atributo.
La capa escondida: los nodos en esta son llamados
unidades escondidas, que no son directamente observables, ellos proporcionan no linealidad a la red.
La capa de salida: los nodos en esta son llamados
unidades de salida, que codifica posibles valores a ser
asignados a las instancias bajo consideracin. Por ejemplo, cada unidad de salida representa una clase de un
objeto, las unidades de entrada no procesan informacin
, ellos simplemente distribuyen informacin para otras
unidades.
La arquitectura de la red es determinada despus de un
procedimiento de prueba y error, si la arquitectura es muy
pequea, la red podra no tener un grado suficiente de libertad
para aprender el proceso correctamente. Por otro lado si la red
es muy larga, no podra converger durante el entrenamiento o
podra sobre ajustar los datos. El trabajo es empezar con solo
una neurona en la capa oculta. Entonces la prueba (ensayo) se
lleva acabo con mas neuronas.
La inicializacin de pesos, y valores threshold son de
importante consideracin, cuanto ms cerca del valor inicial
es el espacio ptimo de pesos, mas rpido es el proceso de
entrenamiento. Sin embargo , no hay manera de establecer
valores de pesos iniciales buenos, y ellos son iniciados de

43

Proceedings del XII Congreso de la Sociedad Peruana de Computacion

IV-B.

Figura 3.

manera aleatoria, usualmente , pesos aleatorios pequeos son


sugeridos.
Los pesos de conexin pueden ser nmeros reales o enteros,
pueden ser reducidos a un rango y son ajustados durante
el entrenamiento de la red, pero algunos pueden ser fijados
deliberadamente. Cuando el entrenamiento es completado,
todos los valores sern fijados.
Los niveles de activacin de nodos pueden ser discretos
(por ejemplo 0 y 1 ) o continuos a travs de un rango([0,1])
o sin restriccin. Esto depende de la funcin de activacin
escogida, si es una funcin hard-limiting , entonces los niveles
de activacin son 0 (o -1) y 1. Para una funcin sigmoide, los
niveles de activacin estan limitados para un rango continuo
de reales [0,1]. La funcin sigmoide f puede ser escrita como:
1
1 + ex

(9)

En el caso de una funcin de activacin lineal, los niveles


de activacin son libres.
Demuth y Beale (2001) reportaron que las redes feedforward a menudo tienen uno o ms capas escondidas de
neuronas sigmoides seguidas por una capa de salida de neuronas lineales. Mltiples capas de neuronas con funciones de
transferencia no lineal permiten a la red aprender relaciones
lineales y no lineales entre los vectores de entrada y salida. la
capa de salida lineal permite a la red producir valores fuera
del rango de -1 a 1. Una funcin tan-sigmoid cuando es usada
como funcin de activacin para producir vectores de salida
en el rango of [-1,+1] puede ser escrita como:
F(x) =

2
1
1 + ex

(10)

adems . las funciones de activacin lineal que son empleadas


para la capa de salida, pueden ser escritas como:
F(x) = x

44

Algoritmo de Entrenamiento de una Backpropagation

La red backpropagation es probablemente la ms conocida


y ampliamente usada entre los actuales tipos de sistemas de
redes neuronales disponibles. La regla de aprendizaje es una
tcnica de tipo gradiente descendiente con propagacin del
error hacia atrs. La instancia de entrenamiento establecida
para la red debe ser presentado muchas veces con el fin de
establecer los pesos de las interconexiones entre las neuronas
en un estado de correcta clasificacin de patrones de entrada.
Mientras que la red puede reconocer patrones similares a
aquellos que han sido aprendidos,no tiene la habilidad para
reconocer nuevos patrones, esto se cumple para todas las redes
con aprendizaje supervisado. otra limitacin es que las redes
backpropagation son propensas a un mnimo local, al igual
que cualquier algoritmo de gradiente descendiente.

Red Neuronal Feedforward

F(x) =

CSPC2013

(11)

El algoritmo emplea un ciclo propagacin adaptacin de


dos fases. Una vez que se ha aplicado un patrn a la entrada de
la red como estmulo, este se propaga desde la primera capa
a travs de las capas superiores de la red, hasta generar una
salida. La seal de salida se compara con la salida deseada
y se calcula una seal de error para cada una de las salidas.
Las salidas de error se propagan hacia atrs, partiendo de la
capa de salida, hacia todas las neuronas de la capa oculta
que contribuyen directamente a la salida. Sin embargo las
neuronas de la capa oculta solo reciben una fraccin de la seal
total del error, basndose aproximadamente en la contribucin
relativa que haya aportado cada neurona a la salida original.
Este proceso se repite, capa por capa, hasta que todas las
neuronas de la red hayan recibido una seal de error que
describa su contribucin relativa al error total. La importancia
de este proceso consiste en que, a medida que se entrena la
red, las neuronas de las capas intermedias se organizan a s
mismas de tal modo que las distintas neuronas aprenden a
reconocer distintas caractersticas del espacio total de entrada.
Despus del entrenamiento, cuando se les presente un patrn
arbitrario de entrada que contenga ruido o que est incompleto,
las neuronas de la capa oculta de la red respondern con una
salida activa si la nueva entrada contiene un patrn que se
asemeje a aquella caracterstica que las neuronas individuales
hayan aprendido a reconocer durante su entrenamiento.
En resumen, la red backpropagation aprende a mapear
los patrones de entrada (caractersticas) para un conjunto de
patrones de salida . La red puede ser diseada y entrenada
para conseguir una variedad amplia de mapas, esta habilidad
viene de los nodos en la capa escondida o capas de la red
que aprenden a responder a caractersticas encontradas en los
patrones de entrada. Como la red es entrenada con diferentes
ejemplos tiene la habilidad de generalizar caractersticas similares encontradas en diferentes patrones.
El algoritmo backpropagation puede ser formulado como
sigue:
Establecer todos los pesos y nodos con nmeros pequeos aleatorios.
La estimacin de un nivel de activacin O j de las

Proceedings del XII Congreso de la Sociedad Peruana de Computacion

CSPC2013

unidades escondidas y de salida, son determinadas usando las ecuaciones 10 y 11.


Empezar en las unidades de salida y trabajar hacia atrs
por las capas escondidas recursivamente. Los pesos son
ajustastados por:

matriz jacobiana puede ser calculada a travs de una tcnica de


backpropagation estndar que es menos compleja que calcular
la matriz hessiana.
El algoritmo Levenberg-Marquardt usa esta aproximacin
para la matriz hessiana siguiendo la actualizacin newton-like.

W j,i (t + 1) = W j,i (t) + W j,i

xk+1 = xk [J T J + I]1 J T e

(12)

donde W j,i (t) es el peso de la unidad i a la unidad j en


el tiempo t (o
Calcular la variacon del peso usando:
W j,i = j Oi

(13)

donde es la taza de aprendizaje (0 < < 1) y j es


el gradiente de error de la unidad j . La convergencia es
algunas veces rpida agregando un termino momentun
:
W j,i (t + 1) = W j,i (t) + j Oi + j,i (t) W j,i (t 1)] (14)

j = O j (1 O j )(T j O j )

(15)

donde T j es la salida de activacion objetivo y O j es la


salida de activacin actual de la unidad de salida j.
B)para las unidades escondidas :
j = O j (1 O j ) kWk, j

(16)

donde k es el error gradiente en la unidad k con puntos


de conexin de la unidad escondida j.
Repetir pocas hasta converger en terminos de la funcin
de desempeo , una iteracion incluye una instancia,
calcular activaciones, y modificar pesos. la funcin tpica de desempeo usada para entrenar redes neuronales
feedforward es la media de la suma de cuadrados de los
errores de la red:
mse =

1
N

(Tj O j )2

Cuando el escalar es cero , esto es el metodo de newton


, usando la matriz hessiana aproximada, cuando es larga,
llega a ser gradiente descendente con un tamao pequeo de
paso. El mtodo de newton es rpido y mas preciso cerca
de un mnimo error, as el objetivo es desplazarse hacia
el mtodo de newton lo mas rpido posible. por lo tanto,
es decrementado despues de cada paso(reduccin en la
funcin de desempeo ) y es incrementada slo cuando un
paso podra incrementar la funcin de desempeo , de esta
manera la funcin de desempeo siempre ser reducida en
cada iteracin del algoritmo, este algoritmo es recomendado
para ms situaciones.
V.

siendo 0 < < 1


Calcular el error gradiente el cual es dado por:
A) para las unidades de salida:

(17)

j=1

IV-C. Algoritmo de entrenamiento Levenberg-Marquardt


Es uno de los mas rpidos algoritmos de convergencia y
es altamente recomendado para pequeas y medianas redes
que contienen varios cientos de conexiones, este algoritmo
fue diseado en un enfoque de segundo orden sin haber
calculado la matriz hessiana. Cuando la funcin de desempeo
tiene la forma de una suma de cuadrados(como es tpico en
redes feedforward ), entonces la matriz hessiana puede ser
aproximada como H = J T J y la gradiente puede ser calculada
como g = Jt ; donde J es la matriz jacobiana, que contiene
las primeras derivadas del error de la red con respecto a
los pesos y bias. y e es un vector de errores de la red. La

(18)

G ENERACIN DE DATOS DE H DRICOS DE LA C UENCA


DEL R O C HILI

El esquema usado es un modelo que usa procesos estocsticos para la generacin de datos artificiales hidrolgicos, en
trminos de series mensuales de afluencia usando un modelo
basado en ANN. El modelo consiste de dos componentes, el
primero es la misma parte estocstica del modelo de ThomasFiering, y un componete determinstico que es representado
por la arquitectura de la ANN. Los dos componentes han de
ser recogidos sobre series estandarizadas y normalizadas.
Los datos usados para la generacin para los valores de
caudal, precipitacin y evaporacin son obtenidos de la cuenca
de Ro Chili en la represa del Pae.
Consecuentemente la red neuronal necesita primero ser
escalada. La forma final del modelo puede ser resumido como
la suma de ambos componentes dado por :
Qv,t = f (Yv,td + Rv,t )

(19)

donde Qv,t es el valor artificial producido por el modelo,


Yv,td son los valores producidos por el esquema ANN, y Rv,t
es el componente estocstico correspondiente dado por las
ecuaciones (6 y 8). La funcin f representa la inversa de las
operaciones de pre procesamiento, definida por las ecuaciones
(1) y (3) respectivamente, esto es :
Xv,t = (Yv,td + Rv,t )St + X t

(20)

Qv,t = 10dv,t ct Qt

(21)

Dos arquitecturas de redes neuronales son preparadas, el


primer modelo (ANN1) genera entradas para el presente mes
utilizando la afluencia del mes pasado , el segundo modelo
( ANN2) genera la afluencia del presente mes utilizando
afluencias de los dos meses previos.

45

Proceedings del XII Congreso de la Sociedad Peruana de Computacion

Una arquitectura de 3 capas , feedforward es adoptada, y


funciones sigmoidales fueron usadas como funciones de activacin para que la salida se encuentre en el rango de [1, +1].
Adems funciones de activacin lineal son empleadas para la
capa de salida. para las series de tiempo bajo consideracin, el
nmero de nodos de entradas y salidas de la red son asignados
de tal manera que los valores objetivo que han de ser previstos
son afluencias del siguiente mes. el nmero de nodos en la
capa escondida fueron decididos por procedimiento de prueba
y error. se empez con un nmero pequeo de nodos, entonces
este nmero fue incrementado y cada cambio en el nmero
de nodos fue seguido por el entrenamiento de la red hasta
no detectar una mejora significativa en su desempeo, as el
nmero de nodos fue establecido.
Para el diseo y entrenamiento del algoritmo Levenbergmarquardt, la toolbox Network Neural , version 4.0 fue empleada. esta toolbox tiene muchos algoritmos de entrenamiento
feedforward, backpropagation.

CSPC2013

14
media
real
12

10

0
0

10

12

Figura 6. Modelo de Caudal generado para las cuencas del Chili, data
historica: aos 1970-2002, data sintetizada: 2003

30
escenarios
real
25

180
media
real

170

20

15

160
150

10
140
5

130
120

0
0

10

12

110
100
90
0

10

12

Figura 7. Modelo de Caudal generado para las cuencas del Chili, data
historica: aos 1970-2002, data sintetizada: 2003

Figura 4. Modelo de Evaporacin generado para las cuencas del Chili, data
historica: aos 1970-2002, data sintetizada: 2003

250
media
real
200

150
240
escenarios
real

220

100
200
180
50
160
140
0
0

10

12

120
100
80

Figura 8. Modelo de Precipitacin generado para las cuencas del Chili, data
historica: aos 1970-2002, data sintetizada: 2003

60
40
0

10

12

VI.
Figura 5. Modelo de Evaporacin generado para las cuencas del Chili, data
historica: aos 1970-2002, data sintetizada: 2003

46

E VALUACIN Y C ONCLUSIONES DEL M ODELO

Las pruebas incluyeron la implementacin del modelo, un


test de robustes para verificar si se preserva las propiedades
no parametrizadas en el modelo, e.g., coeficiente Hurst, y

Proceedings del XII Congreso de la Sociedad Peruana de Computacion

CSPC2013
Cuadro I
2003 - EL PAE

EVAPORACIN

400
escenarios
real
350

input
Xn-1

300

250

nodos en capa escondida


3
5
7
9

mse NN
0.1253
0.1236
0.1229
0.124

rmse
16.7403
16.2653
16.9558
15.0494

200

Cuadro II
2003 - EL PAE

150

PRECIPITACIN
100

input
Xn-1

50

0
0

10

12

Figura 9. Modelo de Precipitacin generado para las cuencas del Chili, data
historica: aos 1970-2002, data sintetizada: 2003

caractersticas estadsticas. [14].


Los modelos construidos para las diferentes configuraciones
de la Red Neuronal reproducen las principales caractersticas
estadsticas de la serie temporal historica. Tal semejanza se
entiende en el sentido estadstico. Esto no quiere decir que
una serie generada basada en el modelo tiene que tener
exactamente las mismas caractersticas, como se muestra en
el registro histrico. Por desgracia, no es fcil saber qu
caractersticas deben ser reproducidos por el modelo y cmo
estas caractersticas deben ser interpretadas. Esto se atribuye
principalmente al hecho de que las series hidrologicas son
representadas en muestras anuales, y las verdaderas caractersticas estadsticas de poblacin no son conocidas. Otro
problema es la definicin y la interpretacin de las caractersticas estadsticas derivadas de la muestra. Por lo general, la
media y la desviacin estndar son las caractersticas de menos
incerteza. Por el contrario, la asimetra es muy incierta y su
importancia depende de la aplicacin de la serie hidrolgica
generada. Del mismo modo, la autocorrelacin es muy incierta,
especialmente para pequeos tamaos de muestra.
VI-A. Trabajo Futuro
[25] Presenta una tcnica que podra ser utilizado en la
comparacin de las caractersticas estadsticas derivadas de la
serie y los datos histricos generados. Esta tcnica depende
de la estimacin de los limites globales mximos y mnimos
para cada caracterstica estadstica (es decir, media, desviacin
estndar, coeficiente de asimetra, coeficiente de correlacin
constante o peridica, etc) que se obtiene a partir de los
datos de las series generadas, para comparar estos lmites
con las caractersticas estadsticas de la data histrica, si
la caracterstica histrica cae dentro de estos lmites, esto
demostrara que el modelo conserva la caracterstica estadstica
histrica.
R EFERENCIAS
[1] L. C. D. Campos, Modelo estocastico periodico baseado em redes neurais, Ph.D. dissertation, PONTIFICIA UNIVERSIDADE CATOLICA
DO RIO DE JANEIRO, Rio de Janeiro - Brasil, September 2010.

nodos en capa escondida


3
5
7
9

mse NN
0.1938
0.1949
0.193
0.1966

rmse
28.9166
30.2083
23.8425
25.8047

[2] T. A. Awchi, D. Srivastava et al., Analysis of drought and storage for


mula project using ann and stochastic generation models. Hydrology
Research, vol. 40, no. 1, pp. 7991, 2009.
[3] D. Loucks, E. Van Beek, J. Stedinger, J. Dijkman, and M. Villars,
Water resources systems planning and management: an introduction to
methods, models and applications. Paris: UNESCO, 2005.
[4] J. Smith and R. N. Eli, Neural-network models of rainfall-runoff
process, Water Resources Planning and Management, vol. 121, no. 6,
pp. 499508, 1995.
[5] C. W. Dawson and R. Wilby, An artificial neural network approach to
rainfall-runoff modeling, Hydrological Sciences Journal, vol. 43, no. 1,
pp. 4766, 1998.
[6] A. P. Campolo, M. and A. Soldati, River flood forecasting with a neural
network model, Water Resources Research, vol. 35, no. 4, pp. 1191
1197, 1999.
[7] L. W. Liong, S. and G. N. Paudyal, River stage forecasting in
bangladesh: Neural network approach, J. Computing in Civil Engineering, ASCE, vol. 14, no. 1, pp. 1 8, 2000.
[8] A. W. Minns and M. J. Hall, Artificial neural network as rainfall runoff
models, Hydrological Sciences Journal, vol. 41, no. 3, pp. 399 417,
1996.
[9] K. Thirumalaiah and M. C. Deo, Hydrological forecasting using neural
networks, J. Hydrologic Engineering, vol. 5, no. 2, pp. 180 189, 2000.
[10] G. W. J. W. D. Karunanithi, N. and K. Bovee, Neural networks for
river flow prediction, J. Computing in Civil Engineering, ASCE, vol. 8,
no. 2, pp. 201 220, 1994.
[11] D. A. Jain, S. K. and D. K. Srivastava, Application of ann for reservoir
inflow prediction and operation, J. Water Resources Planning and
Management, vol. 125, no. 5, pp. 263 271, 1999.
[12] H. Raman and N. Sunilkumar, Multivariate modelling of water resources time series using artificial neural networks, Hydrological Sciences Journal, vol. 40, no. 2, pp. 145163, 1995.
[13] G.-B. R. Ochoa-Rivera, J. and J. Andreu, Multivariate synthetic
streamflow generation using a hybrid model based on artificial neural
networks, Hydrology and Earth System Sciences, vol. 6, no. 4, pp. 627
640, 2002.
[14] J. D. Salas, G. Q. Tabios III, and P. Bartolini, Approaches to multivariate modeling of water resources time series1, JAWRA Journal of
the American Water Resources Association, vol. 21, no. 4, pp. 683708,
1985.
[15] T. R. Kjeldsen and D. Rosbjerg, Choice of reliability, resilience and
vulnerability estimators for risk assessments of water resources systems/choix destimateurs de fiabilite, de resilience et de vulnerabilite pour
les analyses de risque de systemes de ressources en eau, Hydrological
sciences journal, vol. 49, no. 5, 2004.
[16] C.-s. Peng and N. Buras, Dynamic operation of a surface water
resources system, Water Resources Research, vol. 36, no. 9, pp. 2701
2709, 2000.
[17] M. R. Brittan, Probability Analysis Applied to the Development of
Synthetic Hydrology for the Colorado River. Bureau of Economic
Research, University of Colorado, 1961.
[18] P. R. Julian, A study of the statistical predictability of stream-runoff in
the Upper Colorado River Basin, 1961.

47

Proceedings del XII Congreso de la Sociedad Peruana de Computacion


Cuadro III
2003 - EL PAE

CAUDAL

input
Xn-1

nodos en capa escondida


3
5
7
9

mse NN
0.1607
0.1584
0.1649
0.1536

rmse
1.6634
2.0392
1.9423
2.0293

[19] H. Thomas and M. Fiering, Mathematical synthesis of streamflow


sequences for the analysis of river basins by simulation, Design of
water resource systems, pp. 459493, 1962.
[20] L. R. Beard and H. Kubk, Monthly streamflow simulation, Computer
Program, pp. 16, 1967.
[21] M. B. Fiering, Streamflow synthesis, CAMBRIDGE, HARVARD UNIVERSITY PRESS, 1967. 139 P, 1967.
[22] J. Cadavid and J. Salazar, Generacion de series sinteticas de caudales
usando un modelo matalas con medias condicionadas, Avances en
Recursos Hidraulicos, vol. 17, no. 2, 2008.
[23] N. Colston and J. Wiggert, A technique of generating a synthetic flow
record to estimate the variability of dependable flows for a fixed reservoir
capacity, Water Resources Research, vol. 6, no. 1, pp. 310315, 1970.
[24] Z. Gangyan, N. Goel, and V. Bhatt, Stochastic modelling of the
sediment load of the upper yangtze river (china), Hydrological sciences
journal, vol. 47, no. S1, pp. 93105, 2002.
[25] J. D. Salas, Applied modeling of hydrologic time series.
Water
Resources Publication, 1980.
[26] G. V. Hsu, K. and S. Sorooshian, Artificial neural network modeling of
the rainfall runoff process, Water Resources Research, vol. 31, no. 10,
pp. 2517 2530, 1995.

48

CSPC2013

También podría gustarte