Está en la página 1de 20

IngenieríaIndustrial.

  37
ActualidadyNuevasTendencias Año3,Vol.II,N°5
 ISSN:18568327

FiltrosconAprendizajedeParámetrosparaOptimizar
ModelosdeRedesNeuronalesenlaPrediccióndeSeries
dePrecipitaciones
(FilterswithParametersLearningforOptimizingNeuralNetworkModels
inPredictingRainfallSeries)
SabaInfante,FernandoCedeño,JoséOrtega

PalabrasClave:RedesNeuronales;FiltrodeKalmanExtendido;FiltrodePartículas;Seriesde
Precipitaciones.
KeyWords:NeuralNetworks;KalmanExtendedFilter;ParticleFilter;PrecipitationSeries

RESUMEN  bondad de ajuste para medir la exactitud
delmodelo.Losresultadosdemuestranque
En este estudio se usó un modelo de redes el modelo ajustado es útil para predecir
neuronales (RN) para predecir los niveles niveles de precipitaciones mensuales con
de lluvia en Venezuela. El estudio está altaexactitudyconfiabilidad.
basadoenseriesdelluviatotalmensualdel ABSTRACT
periodocomprendidoentre19712000de36
estaciones meteorológicas. Para determinar
In this study it was used a neural network
ladimensióndeinmersióndelosdatos,así
model (NN) to predict rainfall levels in
como el tiempo de retardo, número de
Venezuela.Thestudyisbasedonaseriesof
pasos hacia atrás necesarios para predecir
monthly total rainfall in the period 1971
un valor futuro, se utilizan dos técnicas
2000 from 36 meteorological stations. One
estándar de los sistemas dinámicos, la
determine the embedding dimension of the
Información Mutua Promedio (AMI) y los
data and the delay time, the number of
Falsos Vecinos más Cercanos (FNN). Una
backwardstepsnecessarytopredictafuture
vez determinadas las variables de entrada,
value, two standard techniques of
se diseña el modelo predictivo formulado
dynamical systems, the Average Mutual
en términos de los modelos espacioestado.
Information (AMI)andtheFalseNeighbors
Paraestimarlospesosdelaredseutilizaron
Nearest(FNN).Afterdeterminingtheinput
dos algoritmos de aprendizaje Filtro de
variables, were used the predictive model
Kalman Extendido (FKE) y Filtro de
was designed in terms of statespace
Partículas o Muestreo de Importancia
models. To estimate the weights of the
Secuencial (FP o SIR). Se utilizó el criterio
network we used two learning algorithms,
de información Bayesiano  (BIC) para
the Extended Kalman Filter (FKE) and a
seleccionar el número de neuronas de la
Particle Filter or Sequential Importance
capa oculta. Se proponen dos métodos de

Infanteetal.FiltrosconAprendizajedeParámetrosparaOptimizarModelosdeRedesNeuronales,p.3756
IngenieríaIndustrial.  38
ActualidadyNuevasTendencias Año3,Vol.II,N°5
 ISSN:18568327

Sampling(PForSIR).WeusedtheBayesian En este trabajo se emplean como


information criterion (BIC) to select the herramientas matemáticas la función
number of neurons inthe hiddenlayerand AMI (Información Mutua Promedio o
we proposed two methods to measure Average Mutual Information) y la
goodnessoffitofthemodelsaccuracy.The
función FNN (Falsos vecinos más
results show that the fitted model is useful
cercanosoFalseNearestNeighbors),con
in predicting monthly rainfall levels with
highaccuracyandreliability.
el objetivo de reconstruir la dinámica y
el tiempo de retardo del sistema
INTRODUCCIÓN  dinámico, y luego sobre la base de esta
información se introduce un modelo de
Durante muchas décadas, físicos, redes neuronales que tiene como
matemáticos,astrónomos,meteorólogos, entradalasminiseriesobtenidasapartir
economista,biólogoseinvestigadoresen delaserietemporaloriginalusandolos
las ciencias médicas han tratado de métodos AMI y FNN.  Existe una
comprender la complejidad de la extensa literatura de modelos
naturaleza del mundo real. Todos los estadísticos de RN, (véase  Cheng y
procesos físicos involucran variabilidad Titterington, 1994; Bishop, 1995; Ripley,
en el espacio y en el tiempo; por 1994 y 1996; Neal, 1996; Titterington,
ejemplo,losmeteorólogosporlogeneral 2004;Rajunkaretal.,2002;Mencheroet
están interesados en la evolución en el al., 2005; Bustami  et al., 2007; Saffari et
tiempo de ciertos parámetros como: el al.,2009).
viento, la temperatura y las Entre algunos trabajos recientes
precipitaciones sobre un dominio relacionados con las funciones AMI y
espacial de interés. Por otra parte, las FNN para determinar la dinámica del
bases  de datos de estos fenómenos son sistema dinámico y luego utilizar un
típicamente muy grandes, con muchos modelo de RN entrenado por el
datos faltantes durante ciertos periodos algoritmo de Backpropagation para
de tiempo, con comportamientos estimarlosparámetrosypredecir,están
irregulares y en algunos casos con losdeCalderónyPérez(2006),Lucioet
dinámicas caóticas. La teoría del caos al.(2007)eInfanteetal.(2008).
provee herramientas para observar el En este trabajo se propone usar una
orden y reglas para determinar el estrategia metodológica diferente  para
comportamiento del sistema dinámico. estimar los parámetros del modelo de
Las técnicas de modelación utilizadas RNenformasecuencialyentiemporeal
por Abarbanel (1996), Fraser y Swinney usandounaformulacióndelosmodelos
(1986)  permiten caracterizar las series espacio estado,  mediante el algoritmo
temporales generadas  por  estos filtro de Kalman extendido (FKE), De
sistemasdinámicos. Freitas et al.  (1998)  y  Lary y Mussa

Infanteetal.FiltrosconAprendizajedeParámetrosparaOptimizarModelosdeRedesNeuronales,p.3756
IngenieríaIndustrial.  39
ActualidadyNuevasTendencias Año3,Vol.II,N°5
 ISSN:18568327

(2004)  y el algoritmo de filtro de siguiente: el espacio estado es
partículas(FP),Doucetetal.(2000),De particionado  en muchas regiones, las
Freitasetal.(2000),Moraisetal.(2008) cuales son rellenadas por partículas de
eInfanteetal.(2009). acuerdoalgunamedidadeprobabilidad.
El algoritmo de aprendizaje de FKE Las partículas con la  mayor
permite obtener mejores resultados que probabilidad son seleccionadas. El
las técnicas de estimación sistema de partículas se actualiza a lo
convencionales tales como el algoritmo largo del tiempo de acuerdo a dos
deBackpropagation,yaquehaceusode ecuaciones,  una de estado  o transición
los estadísticos de segundo orden y la otra de observación  o  evolución,
(covarianzas) que son esenciales para las cuales involucran  funciones de
propagarelerrorsobrelaspredicciones, densidad de probabilidad que se
además muestra excelente convergencia estiman  recursivamente en dos pasos
en los parámetros estimados, debido a denominados,  predicción y
quesetienebastantememoriaenlabase actualización.
del computador y la precisión de la Elrestodelartículoesorganizadocomo
máquina es alta. El FKE se basa en la sigue: En la primera sección se plantea
expansión analítica de una serie de la metodología a seguir, se define: el
Taylordeunsistemanolinealdadopor modelodeRNenformaespacioestado,
laecuacióndeobservaciónalrededorde y se detallan los algoritmos filtro del
los estimadores máximo verosímil; que Kalmanextendidoyfiltrodepartículas;
en este caso son: la media y covarianza se definen las medidas utilizadas para
condicional a posteriori. También se determinar la exactitud de predicción
propone usar el algoritmo de FP como del modelo de RN y el método de
método para entrenar el modelo de transformación de los datos. En la
redes neuronales. La estrategia permite siguiente Sección se muestra una
que los parámetros de aprendizaje discusión de los resultados obtenidos; y
(pesos de la red) se actualicen en forma en la Sección final  se establecen las
secuencial utilizando una distribución conclusionesobtenidas.
de probabilidad a posteriori. La técnica
esadecuadaparamodelajededatosque METODOLOGÍA
tengancomportamientonoestacionario,
Enloquesiguesedefinen:elmodelode
estructuras  no lineales, y que se
RN en forma de espacio estado y los
requieran estimar en tiempo real;
algoritmos utilizados para estimar los
además, tiene la ventaja que no se
parámetros del modelo. El objetivo de
requiere de ninguna restricción sobre la
utilizar un modelo RN conjugado con
distribución y la forma funcional. La
lastécnicasdelossistemasdinámicoses
idea principal del algoritmo de FP es la
que en primer lugar: las precipitaciones

Infanteetal.FiltrosconAprendizajedeParámetrosparaOptimizarModelosdeRedesNeuronales,p.3756
IngenieríaIndustrial.  40
ActualidadyNuevasTendencias Año3,Vol.II,N°5
 ISSN:18568327

se comportan como un sistema caótico g(‫ ݔ‬௜ ሺ‫ݐ‬ሻ), esto quiere decir que se puede
no lineal que es difícil de controlar anticipar la dinámica futura de la serie
porque presenta inestabilidad y temporal considerando únicamente los
sensibilidad a las condiciones iníciales; valores del pasado. El problema ahora
la teoría de caos permite establecer un consiste en encontrar un buen predictor
orden; en segundo lugar, se quiere ݃ොሺǤ ሻqueaproximeag(.).
utilizar la capacidad de las RN para Enestetrabajoseutilizaráunmodelode
generalizaryenestetrabajoseproponen RNparaaproximarag(.),formuladoen
dos estrategias de optimización para términosdelosmodelosespacioestado,
estimar los pesos del modelo, que dondelaecuacióndeestado(transición)
garantizan el aprendizaje de los describe la evolución de los pesos de la
parámetros en forma eficiente y con red, mientras que la ecuación de
mayor control sobre el sistema observación (medida) describe la
estudiado. relación no lineal de las entradas y
LostrabajosdeTakens(1981)yCasdagli salidas de un proceso físico que se
(1989) entre otros, han establecido la quiereestudiar.
metodología necesaria para modelar Lasentradasdelaredsedeterminanen
series de tiempo que tienen un función de m y ߬ mediante las técnicas
comportamiento no lineal. A partir de dadas en Abarbanel (1996), Fraser y
una serie de tiempo univariada, Swinney (1986). El modelo  en la forma
ܺ ൌ ሼ‫ݔ‬ଵǡ ‫ݔ‬ଶ ǡ ǥ ǡ ‫ݔ‬௡ ሽ se construyen los espacioestadosedefinecomo:
vectores de estados ‫ ݔ‬௜ ሺ‫ݐ‬ሻ ൌ ሼ‫ݔ‬ሺ‫ݐ‬ሻǡ ‫ݔ‬ሺ‫ ݐ‬െ
‫ݓ‬௧ାଵ ൌ ܶ‫ݓ‬௧ ൅ ‫ݑ‬௧ (1.a)
߬ሻǡ ǥ ǡ ‫ݔ‬ሺ‫ ݐ‬െ ሺ݉ െ ͳሻ߬ሻሽ;donde:‫ݔ‬ଵ ൌ ‫ݔ‬ሺ‫ݐ‬ሻǡ
‫ݔ‬ଶ ൌ ‫ݔ‬ሺ‫ ݐ‬െ ߬ሻǡ ǥ ǡ ‫ݔ‬௠ ൌ ‫ݔ‬ሺ‫ ݐ‬െ ሺ݉ െ ‫ݕ‬௧ ൌ ݃௧ ሺ‫ݓ‬௧ ǡ ‫ݔ‬௧ ሻ ൅ ‫ݒ‬௧ (1.b)
ͳሻ߬ሻ‫ݔ‬ଵ ൌ ‫ݔ‬ሺ‫ݐ‬ሻǡ ‫ݔ‬ଶ ൌ ‫ݔ‬ሺ‫ ݐ‬െ ߬ሻǡ ǥ ǡ ‫ݔ‬௠ ൌ La ecuación (1.a)  se llama ecuación de
‫ݔ‬ሺ‫ ݐ‬െ ሺ݉ െ ͳሻ߬ሻ,ሺ݉ ൑ ݊ሻy݉representa
estado o transición; la ecuación (1.b) se
la dimensión de inmersión  y  es el
llama ecuación de observación o
tiempo de retardo. Según el teorema de
medida; ‫ݕ‬௧  ‫ א‬Թ es un vector de
Takens (1981), la trayectoria geométrica
respuesta conocido (valor supervisado),
de esta secuencia de vectores conforma
‫ݔ‬௧ ൌ ‫ ݔ‬௜ ሺ‫ݐ‬ሻ ‫ א‬Թ௠  es el vector de entrada;
un objeto multidimensional en ࣬ ௠  que
‫ݓ‬௧ ‫ א‬Թ௤   es el vector de estado que
mantiene inalterada  las características
contiene los pesos de la red neuronal,
delverdaderoperodesconocidoproceso
݃௧ ሺ‫ݓ‬௧ ǡ ‫ݔ‬௧ ሻesunaesunafuncióniterativa
generado de los datos. Además el
que describe el mapeo no lineal de la
teorema garantiza la existencia de una
red; ‫ݕ‬ො௧ ൌ ݃ො௧ ሺ‫ݓ‬ෝ௧ ǡ ‫ݔ‬௧ ሻ es el valor de la
función ݃ǣ Թ௠ ՜ Թ que relaciona el ଵ
respuesta estimada, ܵ‫ ܧܥ‬ൌ σே ௜ୀଵሺ‫ݕ‬௧ െ
estadoactualx(t)yelestadofuturox(t+ ே
‫ݕ‬ෝ௧ ሻଶ  es la suma de cuadrados del error
t), mediante la ecuación x(t + t) =
de la función de predicción, ߤ௧  es un

Infanteetal.FiltrosconAprendizajedeParámetrosparaOptimizarModelosdeRedesNeuronales,p.3756
IngenieríaIndustrial.  41
ActualidadyNuevasTendencias Año3,Vol.II,N°5
 ISSN:18568327

vectorderuidodelaecuacióndeestado; EntoncesusandolastécnicasBayesianas,
߭௧  es un vector de ruido de la ecuación se puede estimar la densidad a
de observación  y T es una matriz de posteriori de ܲሺ‫ݓ‬ଵǣ௧ ȁ‫ݕ‬ଵǣ௧ ሻ. En muchas
constantes conocidas. Es ampliamente aplicaciones, el interés recae en la
conocido que el modelo RN tiene la estimación de las marginales, también
capacidad de aproximar cualquier llamada densidad filtrada ܲሺ‫ݓ‬௧ ȁ‫ݕ‬ଵǣ௧ ሻ.
función continua, con la precisión Conociendo la densidad, se pueden
deseada independientemente del calcularvariosestimadoresdelospesos
tamañodelared,Cybenko(1989). de la red, como la media, mediana,
Los supuestos del modelo son los varianza e intervalos de confianza. Para
siguientes: ߤ௧  es un ruido blanco con obtener el estimador filtrado ܲሺ‫ݓ‬௧ ȁ‫ݕ‬ଵǣ௧ ሻ
media cero y matriz de varianza se requiere conocer de una distribución
covarianza ‫ܧ‬ሺߤ௧ ߤ௧் ሻ ൌ ܳ௧ ,  ߭௧  también es a priori ܲሺ‫ݓ‬଴ ሻ  y de una distribución a
unruidoblancoconmediaceroymatriz posteriori ܲሺ‫ݓ‬௧ିଵ ȁ‫ݕ‬ଵǣ௧ିଵ ሻ en el tiempo
de varianza covarianza ‫ܧ‬ሺ߭௧ ߭௧் ሻ ൌ ܴ௧  , ‫ ݐ‬െ ͳ. Entonces el estimador filtrado se
y‫ܧ‬ሺߤ௧ ߭௞் ሻ ൌ Ͳ,  para todo ݇ y ‫ݐ‬. Los estima recursivamente en dos pasos
ruidos ߭௧  y ߤ௧  se consideran no denominadospredicciónyactualización:
correlacionadosconlospesosdelaredy 1. Predicción:
lascondicionesiniciales.Laevoluciónde
los estados corresponden a proceso de ܲሺ‫ݓ‬௧ ȁ‫ݕ‬ଵǣ௧ିଵ ሻ ൌ න ܲሺ‫ݓ‬௧ ȁ‫ݓ‬௧ିଵ ሻ
Markov de primer orden con
probabilidad inicial ܲሺ‫ݓ‬଴ ሻ y una ‫ܲ כ‬ሺ‫ݓ‬௧ିଵ ȁ‫ݕ‬ଵǣ௧ିଵ ሻ݀‫ݓ‬௧ିଵ (3)
probabilidad de transición dada por donde:
ܲሺ‫ݓ‬௧ ȁ‫ݓ‬௧ିଵ ሻ. Las observaciones se
consideran condicionalmente ܲሺ‫ݓ‬௧ ȁ‫ݓ‬௧ିଵ ሻ ൌ න ܲሺ‫ݓ‬௧ ȁ‫ݑ‬௧ିଵ ǡ ‫ݓ‬௧ିଵ ሻ
independientedadolosestados,esdecir;
‫ܲ כ‬ሺ‫ݑ‬௧ିଵ ȁ‫ݓ‬௧ିଵ ሻ݀‫ݑ‬௧ିଵ 
ܲሺ‫ݕ‬ଵǣ௧ ȁ‫ݓ‬ଵǣ௧ ሻ ൌ ς௧௜ୀଵ ܲሺ‫ݕ‬௜ ȁ‫ݓ‬௜ ሻ, donde:
‫ݕ‬ଵǣ௧ ൌ ሼ‫ݕ‬ଵǡ ǡ ǥ ǡ ‫ݕ‬௧ ሽy‫ݓ‬ଵǣ௧ ൌ ሼ‫ݓ‬ଵǡ ǡ ǥ ǡ ‫ݓ‬௧ ሽ, =‫ߜ ׬‬ሺ‫ݓ‬௧ െ ‫ݑ‬௧ିଵ െ ܶ‫ݓ‬௧ିଵ ሻ
(véaseHarvey,1970). ‫ܲ כ‬ሺ‫ݑ‬௧ିଵ ሻ݀‫ݑ‬௧ିଵ (4)
 ߜሺǤ ሻ denota un punto de masa de la
En la ecuación (2) se muestra la funciónDeltadeDiracyܲሺ‫ݑ‬௧ିଵ ȁ‫ݓ‬௧ିଵ ሻ ൌ
distribuciónconjuntadelosestadosylas ܲሺ‫ݑ‬௧ିଵ ሻ.
observaciones,queseobtieneusandola
regla de la cadena de probabilidad, es 2. Actualización
decir;ܲሺ‫ݓ‬ଵǣ௧ ǡ ‫ݕ‬ଵǣ௧ ሻvienedadapor: ௉ሺ௬೟ ȁ௪೟ ሻ௉ሺ௪೟ ȁ௬భǣ೟షభ ሻ
ܲሺ‫ݓ‬௧ ȁ‫ݕ‬ଵǣ௧ ሻ ൌ (5)
௉ሺ௬೟ ȁ௬భǣ೟షభ ሻ
ܲሺ‫ݓ‬଴ ሻ ς୲୧ୀଵ ሺ™୧ ȁ™୧ିଵ ሻ ς୲୧ୀଵ ሺ›୧ ȁ™୧ ሻ(2)
donde:
ܲሺ‫ݕ‬௧ ȁ‫ݓ‬௧ ሻ ൌ ‫ߜ ׬‬ሾ‫ݕ‬௧ െ ݃௧ ሺ‫ݓ‬௧ ǡ ‫ݔ‬௧ ሻ െ ‫ݒ‬௧ ሿ

Infanteetal.FiltrosconAprendizajedeParámetrosparaOptimizarModelosdeRedesNeuronales,p.3756
IngenieríaIndustrial.  42
ActualidadyNuevasTendencias Año3,Vol.II,N°5
 ISSN:18568327

‫ܲ כ‬ሺ‫ݒ‬௧ ሻ݀‫ݒ‬௧ (6) esto es,‫ݑ‬௧ ̱ܰሺͲǡ ܳ௧ ሻ, ‫ݒ‬௧ ̱ܰሺͲǡ ܴ௧ ሻ y
y ‫ݓ‬଴ ̱ܰሺߤ଴ ǡ ȭ଴ ሻ. El objetivo del FKE es
estimar los estados no observados
ܲሺ‫ݕ‬௧ ȁ‫ݕ‬ଵǣ௧ିଵ ሻ ൌ ‫ܲ ׬‬ሺ‫ݕ‬௧ ȁ‫ݓ‬௧ ሻ ‫ݓ‬
ෝଵǣ௧ ൌ ሼ‫ݓ‬ ෝଵ ǡ ǥ ǡ ‫ݓ‬
ෝ௧ ሽ basándose en las
observaciones   ‫ݕ‬ଵǣ௧ . El algoritmo
‫ܲ כ‬ሺ‫ݓ‬௧ ȁ‫ݕ‬ଵǣ௧ିଵ ሻ݀‫ݓ‬௧ (7) permite obtener una aproximación del
estimadoróptimo.Lanolinealidadenla
Las relaciones dadas por las ecuaciones
segunda ecuación  dada en (1.b) es
(3) y (5), constituyen la solución formal
aproximadaporunaversiónlinealizada
del problema de estimación recursiva
alrededor del último estado estimado,
mediantelosmétodosBayesianos.
esto݃௧ ሺ‫ݓ‬௧ ǡ ‫ݔ‬௧ ሻesaproximadapor:
La solución óptima de la ecuación (5)
exige calcular integrales డ௚೟
ෝ௧ ǡ ‫ݔ‬௧ ሻ ൅
݃ሺ‫ݓ‬ ȁ ෝ ೟ ሻ ሺ‫ݓ‬௧ ෝ௧ ሻ ൅...(8)
െ‫ݓ‬
multidimensionales, lo que hace డ௪೟ ሺ௪೟ ୀ௪

imposibleobtenerunasoluciónanalítica.
Para obtener las ecuaciones de
Entonces para obtener aproximaciones
predicciónyactualizacióndelalgoritmo,
de las integrales se usan métodos
supóngaseque‫ܧ‬ሺ‫ݓ‬௧ିଵ ȁ‫ݕ‬ଵǣ௧ିଵ ሻ ൌ ݉௧ିଵȁ௧ିଵ 
numéricos o métodos de simulación
y  ܸሺ‫ݓ‬௧ିଵ ȁ‫ݕ‬ଵǣ௧ିଵ ሻ ൌ ‫݌‬௧ିଵȁ௧ିଵ  se conocen
MonteCarlo.
en el tiempo ‫ ݐ‬െ ͳǤ El predictor de ‫ݓ‬௧  y
En este artículo se realizan dos
su matriz asociada al error cuadrático
propuestas alternativas para estimar los
medio en el tiempo ‫ ݐ‬െ ͳ están dadas
pesos delmodelo de RN basadas enlos
por:
algoritmos de aprendizajes: filtro de
Kalmanextendidoyfiltrodepartículas. ‫ܧ‬ሺ‫ݓ‬௧ ȁ‫ݕ‬ଵǣ௧ିଵ ሻ ൌ ‫ܧ‬ሺܶ‫ݓ‬௧ିଵ ൅ ‫ݑ‬௧ ȁ‫ݕ‬ଵǣ௧ିଵ ሻ
El objetivo final es encontrar valores ൌ ܶ‫ܧ‬ሺ‫ݓ‬௧ିଵ ȁ‫ݕ‬ଵǣ௧ିଵ ሻ
para los pesos del modelo que ൌ ܶ݉௧ିଵȁ௧ିଵ (9)
minimicen la suma de cuadrados del
error (SCE). Finalmente se señala, para ܸሺ‫ݓ‬௧ ȁ‫ݕ‬ଵǣ௧ିଵ ሻesdadapor:
simplificar el trabajo no se trata el
problema de estimar los parámetros de ൌ ܸሺܶ‫ݓ‬௧ିଵ ൅ ‫ݑ‬௧ିଵ ȁ‫ݕ‬ଵǣ௧ିଵ ሻ
los ruidos blancos ܳ௧  ,  ܴ௧   dadas las ൌ ܸܶሺ‫ݓ‬௧ିଵ ȁ‫ݕ‬ଵǣ௧ିଵ ሻܶ ் ൅ ܳ௧ 
observaciones‫ݕ‬ଵǣ௧ .
ൌ ܶ‫݌‬௧ିଵȁ௧ିଵ ܶ ் ൅ ܳ௧ 
1. Algoritmo de Aprendizaje Filtro de
KalmanExtendido(FKE)
ൌ  ‫݌‬௧ȁ௧ିଵ (10)
Considérese el sistema dinámico no ‫ܧ‬ሺ‫ݕ‬௧ ȁ‫ݕ‬ଵǣ௧ିଵ ሻ ൌ ‫ܧ‬ሾ݃௧ ሺ‫ݓ‬௧ ǡ ‫ݔ‬௧ ሻ ൅ ‫ݒ‬௧ ȁ‫ݕ‬ଵǣ௧ ሿ
linealenformadeespacioestado,dado
en(1.a)y(1.b),conlashipótesisusuales; ൌ ݃௧ ሺ‫ݓ‬௧ ǡ ‫ݔ‬௧ ሻ(11)

Infanteetal.FiltrosconAprendizajedeParámetrosparaOptimizarModelosdeRedesNeuronales,p.3756
IngenieríaIndustrial.  43
ActualidadyNuevasTendencias Año3,Vol.II,N°5
 ISSN:18568327

 ൅‫݌‬௧ȁ௧ିଵ ‫ܬ‬௧ ሾ‫ܬ‬௧ ‫݌‬௧ȁ௧ିଵ ‫ܬ‬௧் ൅ ܴ௧ ሿିଵ 


ܸሺ‫ݕ‬௧ ȁ‫ݕ‬ଵǣ௧ିଵ ሻ ൌ ‫ܬ‬௧ ܸሺ‫ݓ‬௧ ȁ‫ݕ‬ଵǣ௧ିଵ ሻ‫ܬ‬௧் ൅ ܴ௧ 
‫ כ‬ሾ‫ݕ‬௧ െ ݃௧ ሺ‫ݓ‬
ෞǡ
௧ ‫ݔ‬௧ ሻሿ(16)
ൌ ‫ܬ‬௧ ‫݌‬௧ȁ௧ିଵ ‫ܬ‬௧் ൅ ܴ௧         (12)
 ‫݌‬௧ȁ௧ ൌ ܸሺ‫ݓ‬௧ ȁ‫ݕ‬ଵǣ௧ ሻ

donde: ൌ ‫݌‬௧ȁ௧ିଵ െ ‫݌‬௧ȁ௧ିଵ ‫ܬ‬௧ ሾ‫ܬ‬௧ ‫݌‬௧ȁ௧ିଵ ‫ܬ‬௧் ൅ ܴ௧ ሿିଵ 
߲݃௧ ‫ כ‬ሾ‫݌‬௧ȁ௧ିଵ ‫ܬ‬௧ ሿ் (17)
‫ܬ‬௧ ൌ ሾ ȁ ሿ
߲‫ݓ‬௧ ሺ௪೟ୀ௪ෝ೟ ሻ
Bajo los supuestos de normalidad para
‫ܥ‬ሺ‫ݓ‬௧ ǡ ‫ݕ‬௧ ȁ‫ݕ‬ଵǣ௧ିଵ ሻesdadapor: loserrores,algoritmoFKEseresume:
#####################################
ൌ ‫ܥ‬ሾ‫ݓ‬௧ ǡ ‫ܧ‬ሺ‫ݕ‬௧ ȁ‫ݓ‬௧ ሻȁ‫ݕ‬ଵǣ௧ିଵ ሿ
Algoritmo1:FKE
ෝ௧ ǡ ‫ݔ‬௧ ሻ
ൌ ‫ܥ‬ሾ‫ݓ‬௧ ǡ ݃௧ ሺ‫ݓ‬
#####################################
ෝ௧ ሻ ൅ ‫ ڮ‬ȁ‫ݕ‬ଵǣ௧ିଵ ሿ
൅‫ܬ‬௧ ሺ‫ݓ‬௧ െ ‫ݓ‬ Paso1Semuestrea‫ݓ‬௧ିଵ de:
ൌ ܸሺ‫ݓ‬௧ ȁ‫ݕ‬ଵǣ௧ିଵ ሻ‫ܬ‬௧  ‫݌‬ሺ‫ݓ‬௧ିଵ ȁ‫ݕ‬ଵǣ௧ିଵ ሻ ൌ ܰሺ݉௧ିଵȁ௧ିଵ ǡ ‫݌‬௧ିଵȁ௧ିଵ ሻ

ൌ ‫݌‬௧ȁ௧ିଵ ‫ܬ‬௧ (13) (18)


Paso2Semuestrea‫ݓ‬௧ de:
LasecuacionesdelajustelinealdeBayes,
estándadaspor: ‫݌‬ሺ‫ݓ‬௧ ȁ‫ݕ‬ଵǣ௧ିଵ ሻ ൌ ܰሺ݉௧ȁ௧ିଵ ǡ ‫݌‬௧ȁ௧ିଵ ሻ(19)

‫ܧ‬ሺ‫ݓ‬௧ ȁ‫ݕ‬ଵǣ௧ ሻ ൌ ‫ܧ‬ሺ‫ݓ‬௧ ȁ‫ݕ‬ଵǣ௧ିଵ ሻ Paso3Semuestrea‫ݓ‬௧ de:


൅‫ܥ‬ሺ‫ݓ‬௧ ǡ ‫ݕ‬௧ ȁ‫ݕ‬ଵǣ௧ିଵ ሻܸሺ‫ݕ‬௧ ȁ‫ݕ‬ଵǣ௧ିଵ ሻିଵ  ‫݌‬ሺ‫ݓ‬௧ ȁ‫ݕ‬ଵǣ௧ ሻ ൌ ܰሺ݉௧ȁ௧ ǡ ‫݌‬௧ȁ௧ ሻ(20)
‫ כ‬ሾ‫ݕ‬௧ െ ‫ܧ‬ሺ‫ݕ‬௧ ȁ‫ݕ‬ଵǣ௧ିଵ ሻ(14)
#####################################
ܸሺ‫ݓ‬௧ ȁ‫ݕ‬ଵǣ௧ ሻ ൌ ܸሺ‫ݓ‬௧ ȁ‫ݕ‬ଵǣ௧ିଵ ሻ
2. Algoritmo de Aprendizaje Filtro de
ିଵ
െ‫ܥ‬ሺ‫ݓ‬௧ ǡ ‫ݕ‬௧ ȁ‫ݕ‬ଵǣ௧ିଵ ሻܸሺ‫ݕ‬௧ ȁ‫ݕ‬ଵǣ௧ିଵ ሻ  Partículas (FP) o Muestreo de
ImportanciaSecuencial(SIR)
‫ܥ כ‬ሺ‫ݓ‬௧ ǡ ‫ݕ‬௧ ȁ‫ݕ‬ଵǣ௧ିଵ ሻ் (15)
La estrategia de predicción y
Usando las ecuaciones (14) y (15) se actualización dada en las ecuaciones (3)
obtiene la  actualización del estimador y (5) permite obtener una solución
óptimo del estado ‫ݓ‬௧  dada la óptima al problema de inferencia, pero
información‫ݕ‬ଵǣ௧ eneltiempo‫ݐ‬,esdecir: las integrales involucradas son difíciles
de calcular. En muchas aplicaciones, las
݉௧ȁ௧ ൌ ‫ܧ‬ሺ‫ݓ‬௧ ȁ‫ݕ‬ଵǣ௧ ሻ ൌ ܶ݉௧ିଵȁ௧ିଵ 
soluciones analíticas no son posibles. Se

Infanteetal.FiltrosconAprendizajedeParámetrosparaOptimizarModelosdeRedesNeuronales,p.3756
IngenieríaIndustrial.  44
ActualidadyNuevasTendencias Año3,Vol.II,N°5
 ISSN:18568327

requieren métodos alternativos, tales esdecir;‫ܧ‬൫݄௧ ሺ‫ݓ‬ଵǣ௧ ሻ൯esdadapor:


como: integración numérica, ͳ
aproximación gaussiana, y los métodos ൌ න ݄௧ ሺ‫ݓ‬ଵǣ௧ ሻ‫ݍ‬௧ ሺ‫ݓ‬ଵǣ௧ ሻߨሺ‫ݓ‬ଵǣ௧ ȁ‫ݕ‬ଵǣ௧ ሻ݀‫ݓ‬ଵǣ௧ 
‫݌‬ሺ‫ݕ‬ଵǣ௧ ሻ
desimulaciónMonteCarloporCadenas

de Markov y las técnicas de  Monte
‫݄ ׬‬௧ ሺ‫ݓ‬ଵǣ௧ ሻ‫ݍ‬௧ ሺ‫ݓ‬ଵǣ௧ ሻߨሺ‫ݓ‬ଵǣ௧ ȁ‫ݕ‬ଵǣ௧ ሻ݀‫ݓ‬ଵǣ௧
CarloSecuencial.Sepuedeaproximarla ൌ 
ߨሺ‫ݓ‬ଵǣ௧ ȁ‫ݕ‬ଵǣ௧ ሻ
función de distribución a posteriori ‫݌ ׬‬ሺ‫ݕ‬ଵǣ௧ ȁ‫ݓ‬ଵǣ௧ ሻ‫ ݌‬ሺ‫ݓ‬ଵǣ௧ ሻ ݀‫ݓ‬ଵǣ௧
ߨሺ‫ݓ‬ଵǣ௧ ȁ‫ݕ‬ଵǣ௧ ሻ
usando una función sobre un soporte ‫݄ ׬‬௧ ሺ‫ݓ‬ଵǣ௧ ሻ‫ݍ‬௧ ሺ‫ݓ‬ଵǣ௧ ሻߨሺ‫ݓ‬ଵǣ௧ ȁ‫ݕ‬ଵǣ௧ ሻ݀‫ݓ‬ଵǣ௧
discreto finito mediante la técnica del ൌ 
‫ ݍ ׬‬ሺ‫ݓ‬ଵǣ௧ ሻߨሺ‫ݓ‬ଵǣ௧ ȁ‫ݕ‬ଵǣ௧ ሻ݀‫ݓ‬ଵǣ௧
muestreo de importancia; es decir, se
ாഏ ሾ௤೟ ሺ௪భǣ೟ ሻ௛೟ ሺ௪భǣ೟ ሻሿ
hace uso de la aproximación Monte ൌ (24)
ாഏ ሾ௤೟ ሺ௪భǣ೟ ሻሿ
Carlo,dada:
ଵ ሺ௜ሻ
ሺ௜ሻ Porlotantogenerandomuestras‫ݓ‬ଵǣ௧ de
‫݌‬Ƹ ሺ‫ݓ‬ଵǣ௧ ȁ‫ݕ‬ଵǣ௧ ሻ ൌ σ௡௜ୀଵ ߜሺ ‫ݓ‬ଵǣ௧ െ ‫ݓ‬ଵǣ௧ )(21)

la función de distribución  propuesta
ሺ௜ሻ
donde:‫ݓ‬ଵǣ௧ representalamuestrausada ߨሺǤ ሻ, se aproxima  el valor esperado
para aproximar la distribución a medianteelestimadordado:
posterioriyߜሺǤ ሻesunpuntodemasade
భ ೙ ሺ೔ሻ ሺ೔ሻ
la función delta de Dirac. La ecuación σ೔సభ ௛೟ ቀ௪భǣ೟ ቁ௤೟ ሺ௪భǣ೟ ሻ
‫ܧ‬൫݄௧ ሺ‫ݓ‬ଵǣ௧ ሻ൯ ൎ ೙ భ ೙ ሺ೔ሻ ൌ
(21)permiteaproximarladistribucióna σ ௤ ቀ௪భǣ೟ ቁ
೙ ೔సభ ೟
ሺ௜ሻ ሺ௜ሻ
posteriori. El valor esperado de algún σ௡௜ୀଵ ݄௧ ቀ‫ݓ‬ଵǣ௧ ቁ ‫ݍ‬෤௧ ሺ‫ݓ‬ଵǣ௧ ሻ(25)
funcional de los pesos, es dado por la
ecuación(22): donde:  ‫ݍ‬෤௧ ሺǤ ሻ es el cociente de
importancianormalizadodadopor:
‫ܧ‬൫݄௧ ሺ‫ݓ‬ଵǣ௧ ሻ൯ ൌ න ݄௧ ሺ‫ݓ‬ଵǣ௧ ሻ‫݌‬ሺ‫ݓ‬ଵǣ௧ ȁ‫ݕ‬ଵǣ௧ ሻ݀‫ݓ‬ଵǣ௧ 
ሺ೔ሻ
ሺ௜ሻ ௤೟
‫݌‬ሺሺ‫ݓ‬ଵǣ௧ ȁ‫ݕ‬ଵǣ௧ ሻ ‫ݍ‬෤௧ ൌ ሺೕሻ (26)
σ೙
ೕసభ ௤೟
ൌ න ݄௧ ሺ‫ݓ‬ଵǣ௧ ሻ ߨሺ‫ݓ‬ଵǣ௧ ȁ‫ݕ‬ଵǣ௧ ሻ݀‫ݓ‬ଵǣ௧ 
ߨሺ‫ݓ‬ଵǣ௧ ȁ‫ݕ‬ଵǣ௧ ሻ
௣ሺሺ௪భǣ೟ȁ௬భǣ೟ ሻ௣ሺ௪భǣ೟ ሻ Entonces la distribución a posteriori se
ൌ ‫݄ ׬‬௧ ሺ‫ݓ‬ଵǣ௧ ሻ 
௣ሺ௬భǣ೟ ሻగሺ௪భǣ೟ ȁ௬భǣ೟ ሻ estimapor:
‫ߨ כ‬ሺ‫ݓ‬ଵǣ௧ ȁ‫ݕ‬ଵǣ௧ ሻ݀‫ݓ‬ଵǣ௧  ሺ௜ሻ ሺ௜ሻ
௤೟ ሺ௪భǣ೟ ሻ
‫݌‬൫‫ݓ‬ଵǣ௝ ห‫ݕ‬ଵǣ௧ ൯ ൌ σ௡௜ୀଵ ‫ݍ‬෤௧ ߜሺ‫ݓ‬ଵǣ௧ െ ‫ݓ‬ଵǣ௧ ሻ(27)
=‫݄ ׬‬௧ ሺ‫ݓ‬ଵǣ௧ ሻ ߨሺ‫ݓ‬ଵǣ௧ ȁ‫ݕ‬ଵǣ௧ ሻ݀‫ݓ‬ଵǣ௧ (22)
௣ሺ௬భǣ೟ ሻ
Paracalcularunestimadorsecuencialde
donde: la variable  ‫ݍ‬௧ ሺ‫ݓ‬ଵǣ௧ ሻ se conoce
ladistribuciónaposteriorienuntiempo
como el cociente de importancia no
‫ ݐ‬sin modificar  los estados simulados
normalizado,dadopor:
‫ݓ‬ଵǣ௧ିଵ seconsideralasiguientedensidad
௣ሺ௬భǣ೟ ȁ௪భǣ೟ ሻ௣ሺ௪భǣ೟ ሻ deprobabilidadpropuesta:
‫ݍ‬௧ ሺ‫ݓ‬ଵǣ௧ ሻ ൌ (23)
గሺ௪భǣ೟ ȁ௬భǣ೟ ሻ
ߨሺ‫ݓ‬ଵǣ௧ ȁ‫ݕ‬ଵǣ௧ ሻ ൌ ߨሺ‫ݓ‬଴ ȁ‫ݕ‬଴ ሻ

Infanteetal.FiltrosconAprendizajedeParámetrosparaOptimizarModelosdeRedesNeuronales,p.3756
IngenieríaIndustrial.  45
ActualidadyNuevasTendencias Año3,Vol.II,N°5
 ISSN:18568327

*ς௧௝ୀଵ ߨ൫‫ݓ‬௝ ห‫ݓ‬ଵǣ௝ିଵ ǡ ‫ݕ‬ଵǣ௝ ൯(28)


y
ሺ௜ሻ ሺ௜ሻ
Si se considera que los estados ‫ݍ‬଴ ൌ ‫݌‬ሺ‫ݕ‬଴ ȁ‫ݓ‬଴ ሻ(33)
corresponden a un proceso de Markov
deprimerorden,ylasobservacionesson 2. Función de Importancia viene
condicionalmente independiente dado dadapor:
losestados,setieneque:
ߨ൫‫ݓ‬௧ ห‫ݓ‬ଵǣ௧ିଵǡ௬ଵǣ௧ ൯ ൌ ܲሺ‫ݓ‬௧ ȁ‫ݓ‬௧ିଵ ሻ(34)
‫݌‬ሺ‫ݓ‬ଵǣ௧ ሻ ൌ ‫݌‬ሺ‫ݓ‬଴ ሻ ς௧௝ୀଵ ‫݌‬ሺ‫ݓ‬௝ ȁ‫ݓ‬௝ିଵ ሻ(29)
y
y
‫ݓ‬௧ ȁ‫ݓ‬௧ିଵ ̱ܰሺܶ‫ݓ‬௧ିଵ ǡ ܳ௧ ሻ ൌ ܲሺ‫ݓ‬௧ ȁ‫ݓ‬௧ିଵ ሻ(35)
‫݌‬ሺ‫ݕ‬ଵǣ௧ ȁ‫ݓ‬ଵǣ௧ ሻ ൌ ς௧௝ୀଵ ‫݌‬ሺ‫ݕ‬௝ ȁ‫ݓ‬௝ ሻ(30)
3. Lafuncióndeverosimilitudviene
Sustituyendolasecuaciones(28),(29),y dadapor‫݌‬ሺ‫ݕ‬௧ ȁ‫ݓ‬௧ ሻ:
(30) dentro de la ecuación (23),  se ‡š’ሼሾ‫ݕ‬௧ െ ݃ො௧ ሺ‫ݓ‬௧ ǡ ‫ݔ‬௧ ሻሿ் ܴ௧ିଵ 
obtiene el estimador recursivo para los
pesosdeimportanciacomosigue: ‫ כ‬ሾ‫ݕ‬௧ െ ݃ො௧ ሺ‫ݓ‬௧ ǡ ‫ݔ‬௧ ሻሿሽ(36)
‫݌‬ሺ‫ݕ‬ଵǣ௧ ȁ‫ݓ‬ଵǣ௧ ሻ‫݌‬ሺ‫ݓ‬ଵǣ௧ ሻ
‫ݍ‬௧ ൌ  Entonces una vez inicializado los pesos
ߨሺ‫ݓ‬ଵǣ௧ିଵ ȁ‫ݕ‬ଵǣ௧ିଵ ሻߨሺ‫ݓ‬௧ ȁ‫ݓ‬ଵǣ௧ିଵ ǡ ‫ݕ‬ଵǣ௧ ሻ
y el cociente de importancia por las
ൌ ‫ݍ‬௧ିଵ * distribuciones a priori dadas en (32) y
 (33), en cada etapa del muestreo se
௣ሺ௬భǣ೟ ȁ௪భǣ೟ሻ௣ሺ௪భǣ೟ ሻ predice un peso usando la ecuación

௣ሺ௬భǣ೟షభ ȁ௪భǣ೟షభ ሻ௣ሺ௪భǣ೟షభ ሻగሺ௪೟ ȁ௪భǣ೟షభ ǡ௬భǣ೟ሻ
dada en (1.a),luego se evalúa de nuevo

el cociente de importancia usando las
௣ሺ௬೟ ȁ௪೟ ሻ௣ሺ௪೟ ȁ௪೟షభ ሻ ecuacionesdadasen(31,34,35,36)yse
ൌ ‫ݍ‬௧ିଵ (31)
గሺ௪೟ ȁ௪భǣ೟షభ ǡ௬భǣ೟ ሻ remuestreasiesnecesario.
El problema que se presenta con el
La ecuación dada en (31) permite
algoritmo de FP,  es el fenómeno de la
actualizarsecuencialmenteelcocientede
degeneración. Es conocido que después
importancia. Como se puede muestrear
de unas pocas iteraciones las partículas
de la distribución propuesta, evaluar la
puedentenerpesosdespreciablesloque
verosimilitud y las probabilidades de
implica según la Proposición 1 dada en
transición, se supone la siguiente
Doucet et al. (2000), que la varianza de
estructurajerárquica:
los pesos de importancia puede
1. Se considera una distribución a incrementarse en el tiempo. Para evitar
prioriinicial: ladegeneracióndelalgoritmo,Doucetet
al. (2000) establecieron la Proposición 2,
‫ݓ‬଴ ̱ܰሺߤ଴ ǡ ߪ଴ଶ ሻ(32)

Infanteetal.FiltrosconAprendizajedeParámetrosparaOptimizarModelosdeRedesNeuronales,p.3756
IngenieríaIndustrial.  46
ActualidadyNuevasTendencias Año3,Vol.II,N°5
 ISSN:18568327


que permite seleccionar una función de ்ܰொ ൌ ሺ೔ሻ (39)
ଵା௏௔௥ሺ௤෤೟ ሻ
importancia que minimiza la varianza
delospesossobrelastrayectoriasdelos En la práctica es complicado calcular
ሺ௜ሻ
estadossimuladosሼ‫ݓ‬ଵǣ௧ିଵ ǡ ݅ ൌ ͳǡʹǡ ǥ ݊ሽy ்ܰொ exactamente,peroseestimapor:
las observaciones  ‫ݕ‬ଵǣ௧ . La función de

importancia sugerida por Doucet et al. ෡்ொ ൌ
ܰ ሺ೔ሻ (40)
σಿ ෤ ೟ ሿమ
೔సభሾ௤
(2000)esdadapor:
ሺ௜ሻ ሺ௜ሻ
ߨቀ‫ݓ‬௧ ȁ‫ݓ‬ଵǣ௧ିଵ ǡ ‫ݕ‬ଵǣ௧ିଵ ቁ ൌ ‫݌‬ሺ‫ݓ‬௧ ȁ‫ݓ‬௧ିଵ ǡ ‫ݕ‬௧ ሻ(37)
Entonces el estimador de  ்ܰொ  se
ሺ௜ሻ compara con un umbral prefijado ܰ௎ .
Es decir, ߨቀ‫ݓ‬௧ ȁ‫ݓ‬ଵǣ௧ିଵ ǡ ‫ݕ‬ଵǣ௧ିଵ ቁ es la Este procedimiento de filtro de
función de importancia que minimiza a partículas con remuestreo es usado por
lavarianzadelospesosdeimportancia Rubin (1988). El algoritmo con
ሺ௜ሻ
‫ݍ‬෤௧  condicionada sobre los estados remuestreo para un modelo de RN con
ሺ௜ሻ
ሼ‫ݓ‬ଵǣ௧ିଵ ǡ ݅ ൌ ͳǡʹǡ ǥ ǡ ݊ሽylosdatos‫ݕ‬ଵǣ௧ .La doscapasocultas,seresume:
función de importancia sugerida por #####################################
Doucetetal.(2000)esdadapor:
Algoritmo2:FPoSIR
ሺ௜ሻ ሺ௜ሻ
ߨቀ‫ݓ‬௧ ቚ‫ݓ‬ଵǣ௧ିଵ ǡ ‫ݕ‬ଵǣ௧ ቁ ൌ ‫݌‬ሺ‫ݓ‬௧ ȁ‫ݓ‬௧ିଵ ሻ(38) #####################################

La ecuación (38)  ha sido usada por P1.Muestreodeimportancia


Avitzour,(1995);BeadleyDjuric,(1997); x Se inicializan los pesos de la red
Gordon et al., (1993); Isard y Blake, en  ሺ‫ ݐ‬ൌ Ͳሻ. Para  ݅ ൌ ͳǡ ǥ ǡ ݊ se
ሺ௜ሻ
(1996); Kitagawa (1996); Berzuini et al., muestrean los pesos ‫ݓ‬଴  de la
(1997); Doucet (1998); y Liu y Chen primera y segunda capa a partir
(1998),entreotros. de las previas ‫݌‬ଵ ሺ‫ݓ‬଴ ሻ y ‫݌‬ଶ ሺ‫ݓ‬଴ ሻ
Debido a que la degeneración del respectivamente.
algoritmo FP es inevitable, entonces se
x Se evalúa el cociente de
introduce la idea del remuestreo que
importancia:
consiste en eliminar las trayectorias que
tienenpesosdeimportanciapequeñosy ሺ௜ሻ ሺ௜ሻ
‫ݍ‬଴ ൌ ‫݌‬ሺ‫ݕ‬଴ ȁ‫ݓ‬଴ ሻ(41)
seseleccionanlastrayectoriasconpesos
grandes. x Se normaliza el cociente de
Unamedidaadecuada para solventar el importancia:
problema es calcular el tamaño de ௤బ
ሺ೔ሻ
ሺ௜ሻ
muestraefectivaሺ்ܰொ ሻintroducidoen ‫ݍ‬෤଴ ൌ  ሺೕሻ (42)
σ೙
ೕసభ ௤೚
Kongelat.(1994)yLiu(1996),yquese
definecomo:

Infanteetal.FiltrosconAprendizajedeParámetrosparaOptimizarModelosdeRedesNeuronales,p.3756
IngenieríaIndustrial.  47
ActualidadyNuevasTendencias Año3,Vol.II,N°5
 ISSN:18568327

ሺ௜ሻ ሺ௜ሻ ሺ௜ሻ


x Para ‫ ݐ‬ൌ ͳǡ ǥ ǡ ‫ ܮ‬y ݅ ൌ ͳǡ ǥ ǡ ݊ǡ se ‫݌‬Ƹ ௧ ൎ σ௡௜ୀଵ ‫ݍ‬ො௧ ሺ‫ݓ‬ଵǣ௧ െ ‫ݓ‬ଵǣ௧ ሻ ሺ‫ݓ‬ଵǣ௧ െ ‫ݓ‬ଵǣ௧ ሻ் 
predicen los estados usando la
#####################################
ecuacióndinámica:
ሺ௜ሻ ሺ௜ሻ ሺ௜ሻ ሺ௜ሻ 3Determinacióndelaexactitud.
‫ݓ‬
෥௧ାଵ ൌ ܶ‫ݓ‬௧ ൅ ‫ݑ‬௧ Ǣ‫ݑ‬௧ ̱ܰሺͲǡ ܳ௧ ሻ(43)
Paraevaluarlacalidaddeprediccióndel
x Se actualiza el cociente de modelo, se utilizan las siguientes
importancia: medidasdebondaddeajuste:
ሺ௜ሻ ሺ௜ሻ ሺ௜ሻ
‫ݍ‬௧ାଵ ൌ ‫ݍ‬௧ ‫݌‬ሺ‫ݕ‬௧ାଵ ȁ‫ݓ‬
෥௧ାଵ ሻ 1. Estimación de la Exactitud de
(44) Predicción (EP). Es una medida
propuestaporMitchell(1997)conel
x Se actualiza el cociente de
objetivo de estimar la exactitud de
importancianormalizado:
predicción de un modelo de RN, el
ሺ೔ሻ siguiente estimador  es usado para
ሺ௜ሻ ௤೟శభ
‫ݍ‬෤௧ାଵ ൌ σ௡௝ୀଵ ሺೕሻ (45)
௤೟శభ talfinysedefinecomo:

P2.EtapadeRemuestreo
Para ݅ ൌ ͳǡ ǥ ǡ ݊ǡ se evalúa el estimador ଴ȉହ σಿ ො೟ ሻమ
೟సభሺ௬೟ ି௬
‫ ܲܧ‬ൌ ሼͳ െ ሾ ]}*100(50)

usandolaecuación(40):
x ෡்ொ ൒ ܰ௎ ,entoncessehace:
Siܰ 2. La Raíz del Error Cuadrático
Medio (RECM), es otra medida
ሺ௜ሻ ሺ௜ሻ
‫ݓ‬௧ାଵ ൌ ‫ݓ‬
෥௧ାଵ (46) utilizada para medir la
exactitud del modelo predictor
x Si ܰ ෡்ொ ൏ ܰ௎ , entonces se deRNysedefinecomo:
remuestreaunnuevoíndice݆del
conjunto de pesos y estados ଵ
ܴ‫ ܯܥܧ‬ൌ ට σே ො௧ ሻଶ (51)
௧ୀଵሺ‫ݕ‬௧ െ ‫ݕ‬

discretos estimados  previamente
ሺ௜ሻ ሺ௜ሻ
yalmacenadosen:ሼ‫ݓ‬ ෥௧ାଵ ǡ෥‫ݍ‬௧ାଵ ሽ. El objetivo es seleccionar el modelo de
ሺ௜ሻ ሺ௝ሻ
x Luegosehaceque:‫ݓ‬௧ାଵ ൌ ‫ݓ‬
෥௧ାଵ y RNconmenorRECM.
ሺ௜ሻ ଵ
‫ݍ‬௧ାଵ ൌ  3. El Criterio de Información

x Salidas del algoritmo: función de Bayesiano (BIC). Una práctica


densidad filtrada,  esperanza y difícil en los modelos de RN es
covarianzaaposteriori: seleccionarlaarquitecturadelared
(capas ocultas  de la red). Para tal
ሺ௜ሻ ሺ௜ሻ
‫݌‬Ƹ ሺ‫ݓ‬ଵǣ௧ ȁ‫ݕ‬ଵǣ௧ ሻ ൎ σ௡௜ୀଵ ‫ݍ‬ො௧ ߜሺ‫ݓ‬ଵǣ௧ െ ‫ݓ‬ଵǣ௧ ሻ objetivoseproponeusarelcriterio
de información de Bayes ‫ܥܫܤ‬
ሺ௜ሻ ሺ௜ሻ
ෝ௧ ൌ ‫ܧ‬ሺ‫ݓ‬ଵǣ௧ ȁ‫ݕ‬ଵǣ௧ ሻ ൎ σ௡௜ୀଵ ‫ݍ‬ො௧ ‫ݓ‬ଵǣ௧ 
‫ݓ‬

Infanteetal.FiltrosconAprendizajedeParámetrosparaOptimizarModelosdeRedesNeuronales,p.3756
IngenieríaIndustrial.  48
ActualidadyNuevasTendencias Año3,Vol.II,N°5
 ISSN:18568327

propuestoporNychkaetal.(1992), transferencia logística sigmoidal


quesedefinecomosigue: para las neuronas de la capa
oculta y en la capa de salida, la
ଵ ୪୬ሺேሻ
ሼͳ ൅ Žሺʹߨሻ ൅ Žሺܵ‫ܧܥ‬ሻ ൅ ‫݌‬ ሽ(52)
cual está acotada en un rango
ଶ ே
entre cero y uno, entonces se
donde:  ‫ݕ‬௧  es el tesimo patrón necesita normalizar o reescalar
observado.  ‫ݕ‬ො௧  es el tésimo valor losdatosdetalmaneraqueestén
predicho, dentro del rango de salida. El
ଵ aprendizaje de parámetros de la
ܵ‫ ܧܥ‬ൌ σே ௜ୀଵሺ‫ݕ‬௧ െ ‫ݕ‬ො௧ ሻଶ (53)
ே red se hace inefectivo si los
valores normalizado están cerca
es la suma de cuadrados del error, ‫ ݌‬es
de las cotas (véase, Ooyen y
el número de parámetros (pesos) del
Nichhuis, 1992), entonces se
modeloyܰeslalongituddelaseriede
utilizará la siguiente ecuación de
tiempo.
normalización:

௬೟
‫ݕ‬௡௢௥ ൌ Ͳ ȉ ͳ ൅ Ͳ ȉ ͺ (54)
4Transformacióndelosdatos ௠ž௫ሺ௬೟ ሻ

Los datos utilizados para mostrar la donde:  ‫ݕ‬௡௢௥௠   es el valor normalizado,
metodología provienen de las series de ‫ݕ‬௧ es la tésima salida observada, y
lluvia total mensual del período žšሺ‫ݕ‬௧ ሻ es el valor máximo observado
comprendido entre 19712000 de 36 en la serie. La transformación acota el
estacionesdelserviciometeorológicode valordelasalidaenelrango[0.1,0.9].
la Fuerza Aérea de Venezuela, y se le
realizólasiguientetransformación: DISCUSIÓN DERESULTADO 
1. Primero, las bases de datos que
presentaron datos faltantes fueron Una vez que se tienen los datos
rellenadas utilizando la transformadosporestación,sedividela
metodología propuesta en Infante muestra en dos partes: el ochenta por
et al. (2008). Es decir, dado que en ciento80%delosdatosseutilizaparael
esetrabajoseobtuvounmodelode entrenamiento de los algoritmos y
RN predictor basado en el calibración de los modelos, y el resto
algoritmo Backpropagation, veinte por ciento 20% se utiliza para
entoncesseutilizóesemodelopara validar la arquitectura de red del
predecir los  datos perdidos y modelo seleccionado. El siguiente paso
completarlabasededatos. consiste en determinar las dimensiones
deinmersión݉yeltiempoderetardo߬
2. Dado que en los modelos de RN
de las estaciones consideradas,
se usa una función de

Infanteetal.FiltrosconAprendizajedeParámetrosparaOptimizarModelosdeRedesNeuronales,p.3756
IngenieríaIndustrial.  49
ActualidadyNuevasTendencias Año3,Vol.II,N°5
 ISSN:18568327

utilizando los métodos de AMI y los desempeño comparado con las
FNN. Conociendo ݉ y ߬ se determinan observaciones verdaderas de la muestra
las variables de entrada de la red, y deentrenamiento.
finalmente se procede a estimar los EnlaTabla1semuestranlosresultados
parámetros del modelo, usando dos delosestadísticosestimadosparamedir
algoritmosdeaprendizajeFKEyelFPo laexactituddeprediccióndelmodelode
SIR. En la Figura 1 se comparan los RN.  El FKE tiene una exactitud de
niveles totales de precipitación mensual predicción del 99.727%, mientras que el
de los estados observados, con los FPtieneunaexactitudde99.405%.Otra
niveles totales de precipitación mensual medida de exactitud utilizada es la raíz
simulados por un modelo de RN cuadrada del error cuadrático medio,
ajustado por los algoritmos FKE y FP. ambos algoritmos tienen errores
Los datos corresponden a la estación pequeñosdeestimación;elFKEtieneun
80413 ubicada en Maracay estado valorde0.073,mientrasqueelFPtiene
Aragua y se utilizaron 278 datos de unvalorde0.126.Parahacerlaselección
entrenamientoquerepresentanalaserie de la arquitectura de la red se utilizó el
de diciembre de 1971 hasta febrero de criterio de información de Bayes BIC,
1995 para ajustar los parámetros de la quebásicamenteconsisteenpenalizarel
red. error cuadrático medio por los
Seseleccionóunmodelocon6variables parámetros utilizados en el ajuste y se
de entradas (debido a que se determino toma el BIC mínimo. En la serie de
entrenamientoanalizadaelFKEtieneun
que ݉ ൌ ͸ y ߬ ൌ ʹ), 4 neuronas de la
capaocultayunasalidaorespuesta,que BIC=3.621,mientrasqueelFPtieneun
BIC=2.841, ambos algoritmos
representa el nivel total de lluvia
mensual predicha. Los valores para seleccionan  un modelo con 4 neuronas
inicializar los parámetros (medias y enlacapaoculta.LaFigura2seobtiene
covarianzas)delFKE,sonlossiguientes: siguiendo el mismo procedimiento que
݉଴ȁ଴ ൌ ͲǤͲͲͳyܲ଴ȁ଴ ൌ ͲǤͳyserequirióde se realizó con la serie de entrenamiento
pero este caso se utilizan 70 datos de
1000 iteraciones para obtener los
validaciónquevandesdeMarzode1995
resultados.
hastaDiciembrede2000.Seobservaque
Los parámetros del FP se inicializan de
con el FKE se obtienen los siguientes
la siguiente manera:‫ݓ‬଴ ̱ܰሺͲǡʹʹͷሻ,
valores:unaexactituddeprediccióndel
‫ݑ‬௧ ̱ܰሺͲǡͲǤͲͲͳሻ,‫ݒ‬௧ ̱ܰሺͲǡͲǤͳሻ,yseeligióT
98.638%, un valor para la raíz del error
= I donde I es la matriz identidad y se
cuadrático medio de 0.1650 y el BIC =
generaron1000partículas.
1.668; mientras que cuando se usa el
En la Figura 1, se observa que los
algoritmo FP, se obtienen los valores
resultados predichos por los algoritmos
siguientes:unaexactitudde98.697%,un
propuestos tienen  muy buen

Infanteetal.FiltrosconAprendizajedeParámetrosparaOptimizarModelosdeRedesNeuronales,p.3756
IngenieríaIndustrial.  50
ActualidadyNuevasTendencias Año3,Vol.II,N°5
 ISSN:18568327

valor para la raíz del error cuadrático estado Vargas. Se seleccionaron 259
medio de 0.110, y el BIC =1.713, ver la datos parala muestrade entrenamiento
Tabla1,estosresultadossonsimilaresa que comprende la serie que va desde
los obtenidos utilizando la serie de Diciembre de 1972 hasta Junio 1992;
entrenamiento.EnlaFigura3semuestra mientras que en la muestra de
un gráfico similar al obtenido en la validación se utilizaron 65 datos que
Figura1,ladiferenciaeslaestaciónque correspondenalaseriequevadeJulio
se analiza; en este caso, se estudia la 1992hastaDiciembre
estación 80415 ubicada en Maiquetía



Figura 1: Serie de la estación Maracay, para la muestra de entrenamiento

 



Figura2:SeriedelaestaciónMaracay,paramuestradevalidación

Tabla1:Resumendetestdevalidación,estaciónMaracay

Infanteetal.FiltrosconAprendizajedeParámetrosparaOptimizarModelosdeRedesNeuronales,p.3756
IngenieríaIndustrial.  51
ActualidadyNuevasTendencias Año3,Vol.II,N°5
 ISSN:18568327


De 1999. La arquitectura de la red considerados, observándose errores de
seleccionada está compuesta por 6 estimación pequeños (ver Tabla 2).
variables de entradas, 5 neuronas en la También se estimó el BIC para la
capaocultayunasalida.Enelgráficose muestra de entrenamiento y validación
observa que los totales mensuales de usando los dos algoritmos propuestos,
precipitacionessimuladosporelmodelo obteniéndose el BIC mínimo para una
deRNajustadoporlosalgoritmosFKEy redcon5neuronasocultas,(verTabla2).
FP son comparables con los totales Todoslosanálisisfueronrealizadosbajo
mensuales de precipitaciones el ambiente de programación del
observados; adicionalmente se incluyen software estadístico R versión 2.ȱ 9.ȱ 2.
medidas exactitud de 99.414% y Finalmentesedestacaqueseanalizaron
99.198%, respectivamente cuando se 36 estaciones, todas tienen un
utiliza la muestra de entrenamiento. comportamiento muy similar a las dos
Para la muestra de validación la mostradaseneltrabajo.
exactitud es de 98.844% y 98.945%, 
respectivamente. También se cálculo la
RECM para los dos conjuntos de datos 


Figura3:SeriedelaestaciónMaiquetía,paralamuestradeentrenamiento

Infanteetal.FiltrosconAprendizajedeParámetrosparaOptimizarModelosdeRedesNeuronales,p.3756
IngenieríaIndustrial.  52
ActualidadyNuevasTendencias Año3,Vol.II,N°5
 ISSN:18568327


Figura4:SeriedelaestaciónMaiquetía,paralamuestradevalidación

Tabla2:Resumendetestdevalidación,estaciónMaiquetía



CONCLUSIONES 

Las principales contribuciones de este separación  temporal óptima de los
trabajoson: datos, así como ayudan a determinar el
Se diseñó un modelo de red neuronal número de datos hacia atrás necesarios
en términos de los modelos espacio para pronosticar con exactitud un dato
estados no lineales para hacer futuro.Paraoptimizarlaseleccióndela
predicciones de series de tiempo de arquitectura de las capas ocultas de la
totales mensuales de precipitaciones. Se red se utiliza el Criterio de Información
utilizan las técnicas AMI y FNN de los deBayes.
sistemas dinámicos para definir las Se proponen dos algoritmos de
entradas del modelo, se demuestra que aprendizaje alternativos para ajustar los
el uso de patrones de entrada parámetrosdelmodelodeRNdistintoal
apropiados mejora la performance del algoritmo Backpropagation clásico.
modelo. Estos métodos permiten la Estos algoritmos pueden ser

Infanteetal.FiltrosconAprendizajedeParámetrosparaOptimizarModelosdeRedesNeuronales,p.3756
IngenieríaIndustrial.  53
ActualidadyNuevasTendencias Año3,Vol.II,N°5
 ISSN:18568327

considerados como técnicas de secuencial de una distribución de


optimización global en las cuales se probabilidad a posteriori, y tienen la
puedenestimarconjuntamentelospesos ventaja que no requieren de ninguna
delaredylaincertidumbredelmodelo restricciónsobreladistribuciónyforma
en tiempo real, mediante la funcionaldelosdatos.
caracterización de distribuciones de Seproponendosmétodosparamedirla
probabilidad. El FKE permite obtener bondad de ajuste del modelo predictor,
mejores resultados que las técnicas de obteniéndose como resultado que el
estimaciónconvencionales,debidoaque modeloajustadoporlosalgoritmosFKE
hace uso de los estadísticos de segundo y FP o SIR tienen una exactitud de
orden (covarianzas) que son esenciales predicción mayor que 99% y un valor
para propagar el error sobre las para raíz de error cuadrático medio
predicciones;además,muestraexcelente menorque0.17,tantoparalasmuestras
convergencia en los parámetros de entrenamiento y validación,
estimados debido a las exigencias de respectivamente. Los resultados de este
memoria y precisión computacional. El estudio muestran que el modelo de RN
algoritmo FP o SIR permite que los es útil para predecir precipitaciones
parámetros se actualicen en forma mensualesconexactitudyconfiabilidad.

Agradecimientos
Agradecemos al servicio de meteorología de la Fuerza Aérea de Venezuela, por proveer los datos que
sirvierondeinsumoparaestetrabajo,yalosrevisoresanónimosporloscomentariosysugerenciasque
ayudaron a mejorar el manuscrito. Esta investigación fue parcialmente financiada por el Consejo de
Desarrollo Científico y Humanístico, proyecto CDCH2006003 y la partida 407 año 2009 de la Facultad
ExperimentaldeCienciasyTecnologíadelaUniversidaddeCarabobo.

Infanteetal.FiltrosconAprendizajedeParámetrosparaOptimizarModelosdeRedesNeuronales,p.3756
IngenieríaIndustrial.  54
ActualidadyNuevasTendencias Año3,Vol.II,N°5
 ISSN:18568327

 De Freitas, J., Niranjan, M., Gee, A. H. y


Doucet, A. (2000). Sequential Monte Carlo
REFERENCIAS
methods to Train Neural Network Models.
NeuralComputation,12,955993.
Abarbanel, H. (1996).Analysis of observed data.
NewYork:SpringerVerlag. Doucet,A.,Godsill,S.yAndrieu,C.(2000).On
SequentialMonteCarloSamplingMethodsfor
Avitzour, D. (1995). A stochastic simulation
Bayesian Filtering. Statistic and Computing, 10,
Bayesian approach to multitarget tracking,
197208.
Proc.Inst. Elect. Eng., Radar, Sonar, Navig, vol.
142,2,4144. Doucet, A. (1998). On sequential simulation
based methods for Bayesian filtering. Tech
Beadle, E. R. y Djuriac, P. M. (1997). Fast
report No. Cued/FInfeng/tr 310. Cambridge
weighted boodstrap filter for nonlinear state
University.
estimation,IEEETrans.Aerosp.Elect.Syst,vol.
33,338343. Fraser, A. y Swinney, H. (1986). Independent
coordinatesforstrangeattractorsfrommutual
Bishop, C. M. (1995). Neural Networks for
information,PhysReviewA,33,11341140.
pattern Recognition. New York: Oxford
UniversityPress. Gordon, N., Salmond, D. y Smith, A.F.M.
(1993). Novel Approach to Nonlinear non
Bustami,R.,Bessaih,N.,Bong,C.ySuhaili,S.
Gaussian Bayesian State Estimation, IEEE
(2007). Artificial neural network for
ProceedingsF,140,107113.
precipitation and water level predictions of
bedup river. IAENG International journal of Harvey, A.C. (1970). Forecasting, Structural
computerscience,34,2,228233. Time Series Models and the Kalman Filter.
Cambridge:CambridgeUniversityPress.
Calderón, G. y Pérez, P. (2006). Estudio de
seriestemporalesdecontaminaciónambiental Infante, S., Ortega, J. y Cedeño, F. (2008).
mediante técnicas de redes neuronales Estimación de datos faltantes en estaciones
artificiales. Revista Chilena de Ingeniería, Vol. meteorológicas de Venezuela vía un modelo
14,3,284290. de redes neuronales. Revista de Climatología de
España,8,5170.
Casdagli, M. (1989). Nonlinear prediction of
chaotictimeseries.PhysicaD,35,335356. Infante,S.,Rojas,J.,Hernández,A.yCartaya,
V. (2009). Modelos de espacio estado basados
Cheng, B. y Titterington, D. (1994). Neural
en la distribución normal inversa gaussiana:
Networks a review from a statistical
Una aplicación al análisis de series de tiempo
perspective with discussion. Statistical Science,
de la economía venezolana. Revista de
9,254.
Estadística, del Instituto Interamericano de
De Freitas, J., Niranjan, M., Gee, A. H. y Estadística,61,176y177.
Doucet, A. (1998). Sequential Monte Carlo
Isard, M. y Blake, A. (1996), Contour tracking
methods to optimization of Neural Network
by stochastic propagation of conditional
Models.TechnicalreportCued/FInfeng/Tr328.
density. In computer visionECCV96, eds. B.

Infanteetal.FiltrosconAprendizajedeParámetrosparaOptimizarModelosdeRedesNeuronales,p.3756
IngenieríaIndustrial.  55
ActualidadyNuevasTendencias Año3,Vol.II,N°5
 ISSN:18568327

Buxton and R. Cipolla, New York: Springer Mitchell,T.(1997).MachineLearning,McGraw


Verlag,343356. hillpressinternationaleds.
Kitagawa, G. (1996). Monte Carlo Filter and Morais,H.,FragadeCampos,H.yEinstein,E.
Smoother for Nonlinear Non Gaussian State (2008). Data assimilation: particle filter and
Models, Journal of Computation and Graphical artificialneuralnetworks.JournalofPhysics:
Statistics,5,125. conferenceSeries135012073.
Kong,A.,Liu,J.yWong,W.(1994).Sequential Ooyen, A. y Nichhuis, B. (1992). Improving
Imputations and Bayesian Missing Data theconvergenceofBackPropagationproblem.
Problems. Journal of the American Statistical NeuralNetworks,5,465471.
Association,89,278288.
Rajunkar, M., Kothyari, U. y Chaube, U.
Lary, D. J. y Mussa, H. Y. (2004). Using an (2002). Artificial neural networks for daily
extendedKalmanfilterlearningalgorithmfor rainfallrunoffmodelling.HydrologicalSciences,
feed forward neural networks to describe Vol.47,No.6,865877.
tracer correlations. Atmospheric Chemistry and
Ripley,B.(1994).Neuralnetworksandrelated
PhysicsDiscussions,4,36533667.
methods for classification (with discussion).
Liu, J. (1996). Metropolized Independent JournalRoyalStatisticalSocietySeriesB,No.56,
Sampling with Comparison to Rejection 409456.
Sampling and Importance Sampling, Statistics
Ripley,B.(1996).PatternRecognitionandNeural
andComputing,No.6,113119.
Networks. Cambridge: Cambridge University
Liu, J. y  Chen, R. (1998). Sequential Monte Press.
CarloMethodsforDynamicalSystems,Journal
Rubin,B.D.(1988).UsingtheSIRAlgorithmto
of the American Statistical Association, No. 83,
SimulatePosteriorDistributions,BernardoJ.M.,
10321044.
Degroot M.H., Lindley D.V., and Smith A.F.M.
Neal, R. (1996). Bayesian learning for neural (Eds.),BayesiansStatistics,3,OxfordUniversity
networks.NewYork:Springer. Press,395402.
Nychka, H., Ellner, S., Gallant, A.  y Takens, F. (1981). Detecting strange attractors
McCaffrey, D. (1992). Finding Chaos in noise in turbulence, lecture notes in math, 898,
systems. Journal Royal of the Statistical Society Springer,NewYork.
SeriesB,54,399426.
Titterington, D .M. (2004). Bayesian methods
Menchero,A,,MontesDiez,R.,RíosInsua,D. for neural networks and related models.
y Muller, P. (2005). Bayesian Analysis of StatisticalScience,Vol.19,No.1,128139.
Nonlinear Autoregression Models Based on
Neural Networks A. Neural Computation, No.
17,453485.




Infanteetal.FiltrosconAprendizajedeParámetrosparaOptimizarModelosdeRedesNeuronales,p.3756
IngenieríaIndustrial.  56
ActualidadyNuevasTendencias Año3,Vol.II,N°5
 ISSN:18568327

Autores
Saba Infante.  Profesor Asociado a Dedicación Exclusiva, Departamento de Matemáticas,
FacultadExperimentaldeCienciasyTecnologíayCentrodeAnálisis,ModeladoyTratamiento
de Datos (CAMYTD), Universidad de Carabobo, Valencia, Venezuela. 2005, Doctor en
Estadística,UniversidadSimónBolívar,Venezuela.
Email:sinfante@uc.edu.ve
Fernando Cedeño. Profesor Instructor a Dedicación Exclusiva, Departamento de Matemáticas,
FacultadExperimentaldeCienciasyTecnologíayCentrodeAnálisis,ModeladoyTratamiento
de Datos (CAMYTD), Universidad de Carabobo, Valencia, Venezuela. 2008,  Licenciado en
Matemáticas,UniversidadCarabobo,Venezuela.
Email:fjcedeno@uc.edu.ve
JoséOrtega.ProfesorTitularaDedicaciónExclusiva,DepartamentodeMatemáticasFacultadde
Ciencia y Tecnología y Centro de Análisis, Modelado y Tratamiento de Datos (CAMYTD),
UniversidaddeCarabobo,Valencia,Venezuela.2006,DoctorenCiencias,UniversidadCentral
deVenezuela.
Email:jortega@uc.edu.ve

Recibido:22/10/2010Aceptado:27/12/2010

Infanteetal.FiltrosconAprendizajedeParámetrosparaOptimizarModelosdeRedesNeuronales,p.3756

También podría gustarte