Está en la página 1de 0

Modelos predictivos basados en redes neuronales recurrentes de tiempo discreto.

Juan Antonio Prez Ortiz


Tesis doctorales de la Universidad de Alicante. Tesi doctoral de la Universitat d'Alacant. 2002
Tesis cioctoral
MODELOS PREDICTIVOS BASADOS
EN REDES NEURONALES RECURRENTES
DE TIEMPO DISCRETO
Juan Antonio Prez Ortiz
Julio cle 2002
Memoria presentada para optar al grado de doctor
Dirigida por Mikel L. Forcada y Jorge Calera Rubio
1;)\
Universidad de Alicante
Departamento de Lenguajes y Sistemas Informticos
Modelos predictivos basados en redes neuronales recurrentes de tiempo discreto. Juan Antonio Prez Ortiz
Tesis doctorales de la Universidad de Alicante. Tesi doctoral de la Universitat d'Alacant. 2002
Tesis doctoral
MODELOS PREDICTIVOS BASADOS
EN REDES NEURONALES RECURRENTES
DE TIEMPO DISCRETO
Juan Antonio Prez Orliz
Julio de 2002
fr
$'|j,.
Departamento de Lenguajes y Sisternas Informticos
Universidad de Alicante
Modelos predictivos basados en redes neuronales recurrentes de tiempo discreto. Juan Antonio Prez Ortiz
Tesis doctorales de la Universidad de Alicante. Tesi doctoral de la Universitat d'Alacant. 2002
MODELOS PREDICTIVOS BASADOS
EN REDES NEURONALES RECURRENTES
DE TIEMPO DISCRETO
Juan Antonio Prez Orliz
Resumen
Este trabajo estudia Ia aplicacin de distintos m.odelos de redes lleuro-
nales recurrentes de tiempo discreto a diversas tareas de carcter predictivo.
Las redes neuronales recurrentes son redes neuronales que presentan uno
o ms ciclos en el grafo definido por las interconexiones de sus unidades de
pr<-rcesamiento. La existencia de estos ciclos les permite trabajar de for-
ma innata con secuencias temporales. Las redes recurrentes son sistemas
dinmicos no lineales capaces de descubrir regularidades temporales en las
secuencias procesadas y pueden aplicarse, por lo tanto, a multitud de ta-
reas de procesamiento de este tipo de secuencias. Esta tesis se centra en la
aplicacin de las redes neuronales recurrentes a la prediccin del siguiente
elemento de secuencias de naturaleza simblica o numrica.
No obstante, la prediccin en s no es el objetivo ltimo: en esta tesis
la capacidad predictiva de las redes recurrentes se apiica a la compresirr de
seales de voz o de secuencias de texto, a la inferencia de lenguajes regulares
o sensibles al contexto, y a Ia desambiguacin de las palabras horngrafas
de una oracin.
Los modelos concretos de redes utilizados son, principalmente, la red
recurrente simple, la red parcialmente recurrente y el modelo neuronal de
memoria a corto y largo plazo; este ltimo permite superar el llamado pro-
blema del gradiente evanescente que aparece cuando los intervalos de tientpo
mnimos entre eventos interdependientes son relativamente largos. Para de-
terminar valores correctos de los parmetros libres de las redes se usan dos
algoritmos, el clsico algoritmo del clescenso por el gradiente y una forma
del filtro de Kalman extendido.
Palabras clave: Iedes neulonales recurrentes de tiempo discreto, modelos
predictivos en lnea y fuera de lnea, aprendizaje de secuencias simblicas,
prediccin de seales de voz, etiquetado de categoras lxicas-
Modelos predictivos basados en redes neuronales recurrentes de tiempo discreto. Juan Antonio Prez Ortiz
Tesis doctorales de la Universidad de Alicante. Tesi doctoral de la Universitat d'Alacant. 2002
PREFACIO
Las redes neuronales recurrentes son uno de los rnodelos posibles para
tratar secuencias temporales. Su principal ventaja estriba en la posibiiidad
de almacenar una representacin de la historia reciente de Ia secuencia, lo que
permite, a diferencia de lo que ocurre con las redes neuronales no recurrentes,
que la salida ante un determinado vector de entrada pueda variar en funcin
de la configuracin interna actual de la red.
Como se ver a lo largo de esta tesis, las redes recurtentes han sido muy
utilizadas en multitud de tareas relacionadas con el procesamiento de se-
cuencias temporales. Dentro de estas tareas, la prediccin de secuencias,
en Ia que se estima el valor futuro de uno o ms elementos de la secuencia
a partir de la historia observada, tiene importantes aplicaciones en campos
tales como la inferencia de lenguajes o la compresin de seales. Esta tesis
se centra en este aspecto del procesamiento de secuencias discretas con redes
recurrentes de tiempo discreto y estudia tareas que van desde la predicciu
en lnea de secuencias simblicas o de voz hasta la desarnbiguacin de Ias pa-
labras homgrafas de una oracin a partir de la prediccin de sus categoras
Ixicas, pasando por la inferencia de lenguajes no regulares.
Este trabajo demuestra algunas limitaciones de los modelos neurona-
les recurrentes tradi,ci,onales y cmo algunas de ellas pueden ser superadas
mediante modelos o algoritmos de entrenamiento ms elaborados.
La tesis ha sido posible gracias a las ideas y aportaciones continuas
durante ms de tres aos de los Drs. Mikel L. Forcada y Jorge Calera Rubio
del Departamento de Lenguajes y Sistemas Informticos de la Universidad
de Alicante. No obstante, la parte de la tesis relacionada con el moclelo
denominado memoria a corto y largo plazo es fmto de mi estaucia de dos
rneses en 2000 en el Istituto Dalle Molle di Studi sull'Inteligenza Artificiale
(IDSiA) de Lugano (Suiza) bajo la supervisin del Dr. .Irgen Schmidhuber.
Estructura de l a tesi s
Se ofrece a continuacin un pertruerlo resunlerl de lo que se cliscntir en
cada urro de los captulos. Los
prirneros tieneu car,cter itttloduc;lorio:
Modelos predictivos basados en redes neuronales recurrentes de tiempo discreto. Juan Antonio Prez Ortiz
Tesis doctorales de la Universidad de Alicante. Tesi doctoral de la Universitat d'Alacant. 2002
PREFACIO
Captulo 1. Este captulo presenta los problemas que se estudian en esta
tesi s.
Captulo 2. Se introduce el modelo de red neuronal recurrente de tiempo
discreto y las principales tareas a las que se ha aplicado dentro del
campo del procesamiento de secuencias.
Captulo 3. Un repaso a los modelos rreuronales que se utilizan a lo largo
de Ia tesis, tanto los que se pueden considerar
"clsicos", como algunos
ms recientes (en concreto, dentro de este ltimo grupo, la red neuro-
nai recurrente en cascada y la red basada en las memorias a corto y
l argo pl azo).
captulo 4. En este captulo se introducen los principales algoritrnos de
entrenarniento supervisado para redes recurrentes, especialmente el
descenso por el gradiente y el filtro de Kalman extendido desacoplado.
Con todo, las redes neuronales recurrentes presentan algunos proble-
mas fundamentales que son analizados tarnbin.
captul o 5. Una vez i ntroduci dos Ios probl emas estudi ados en Ia tesi s, as
como los aspectos fundamentales de 1as redes nerrronales recurrerrtes.
se presentau los enfoques corl los que previarnente han sido abordados
estos problemas? haciendo especial nfasis en las soluciones de carcter
neuronal.
Los captulos anteriores son bsicamente un repaso al estado de Ia cues-
tin, adems de presentar una formalizacin de los conceptos introducidos.
Los captulos que se describen a continuacin constituyen la aportacin ori-
ginal de esta tesis:
captulo 6. EI objetivo es estudiar el uso de las redes recurrentes para pre-
decir el siguiente smbolo de una secuencia de texto. Se hace nfasis en
la prediccin en lnea, un problema rnucho rns difcil que la inferencia
gramatical con redes neuronales clsica. El modelo de probabiiidad
desarrollado por la red se utiliza en un cornpresor aritmtico, de for-
ma que la razn de compresin se usa como medida de la calidad del
predi ctor. A modo de estudi o prei i mi nar, se anal i za tambi n l a pre-
diccin sobre secuencias derivaclas de automatas finitos deterministas
o sobre secuencias caticas.
captulo 7. El modelo de memorias a corto y largo plazo (LSTM) entrena-
do mediante el descenso por el gradiente es capaz de resolver problemas
muy difciles de resolver con las redes tradicionales. Aqu se aplica por
primera vez a este modelo un algoritmo de entrenamiento basado en el
filtro de Kalman extendido y se cibserva cmo los resultaclos rnejoran
Modelos predictivos basados en redes neuronales recurrentes de tiempo discreto. Juan Antonio Prez Ortiz
Tesis doctorales de la Universidad de Alicante. Tesi doctoral de la Universitat d'Alacant. 2002
PREFAC!O
ostensiblemente, en cuanto a velocidad y robustez, Ios del algoritmo
original en un par de tareas de inferencia de lenguajes.
Captulo 8. En este captulo se explora el uso de las redes recurrentes para
la desambiguacin lxica de corpus textuales, basndose en la predic-
cin de la categora lxica de Ia palabra siguiente a las ya vistas de
una oracin. El enfoque presentado aqu no necesita ningn texto
desambiguado manualmente, 1o que lo convierte probablemente en el
primer mtodo neuronal que posee esta cualidad. Los experimentos
demuestran que el rendimiento de este enfoque es) como mnimo, si-
milar al de un modelo oculto de Markov estndar entrenado mediante
el algoritmo de Baum y Welch.
Captulo 9. Aqu se presenta un estudio comparativo del rendimiento de
Ias redes cuando son entrenadas en lnea para predecir la prxirna
muestra de una seal de voz digitalizada. La comparacin se realiza
principalmente con modelos lineales y con una red recurrente en casca-
da que fue propuesta en su da para realizar esta tarea. Los resultados
confirman los de otros trabajos que encontraron serias limitaciones a Ia
hora de trabajar con series numricas, especialmente al usar un algo-
ritmo de aprendizaje basado en el descenso por el gradiente. EI filtro
de Kalman aplicado al entrenamiento de estas redes, por otro lado,
supera parcialmente algunas de estas limitaciones.
Captulo 10. Este captulo recoge las principales conclusiones que se de-
ducen de todo lo anterior, ademas de presentar una lista detallada de
posibles trabajos de investigacin para el futuro.
Apndice A Este apndice muestra cmo entrenar un modelo oculto de
Markov para realizar la desambiguacin de las categoras morfolgicas
de una oracin, tcnica que se utiliza en los experimentos del captulo 8.
Publ i caci ones
Esta tesis doctoral recoge algunos trabajos publicados en congresos o
revistas internacionales:
Juan Antonio Prez-Ortiz, Jorge Calera-Rubio y Mikel L. Forcada,
2001. "Online text prediction with recurrent neural networks"
,
Neural
Processing Letters t4(2), L27-1,4A.
Juan Antonio Prez-Ortiz y Mikel L. Forcada,200I. "Part-of-speech
tagging with recurrent neural rretworks"
,
et Proce.edings of the Intern,a-
t'ionul Join,t Co'nference on Neural Networks, I"f CNN 2001,7538- 1592.
Modelos predictivos basados en redes neuronales recurrentes de tiempo discreto. Juan Antonio Prez Ortiz
Tesis doctorales de la Universidad de Alicante. Tesi doctoral de la Universitat d'Alacant. 2002
PREFACIO
Juan Antonio Prez-Ortiz, Jorge Calera-Rubio y Mikel L. Forcada,
2001.
'A
comparison betrveen recurrent neural architectures for real-
tirne nonlinear prediction of speech signals", en D. J. Miiler, T. Adali,
J. Larsen, VI. Van Hulle y S. Douglas, coordinadores, Neural Net-
works
for
Signal Process'ing XI, Proceedi.ngs of the 2001 IEEE Neural
Networks
for
Si.gnal Processi,ng Worlcshop, \NSP 2001,73*8I, IEEE
Signal Processing Society.
Juan Antonio Prez-Ortiz, Jorge Calera-Rubio y Mikel L. F'orcada,
2001. "Online symbolic-sequence prediction with discrete-time re-
current neural networks", en G. Dorffner, H. Bischof y K. Hornik,
coordinadores. Proceedi.ngs of the I'nternati,onal Conference on A,rti,-
fi,cial
Neural Networks, ICANN 2001, vol. 2130 de Lecture Notes i,n
C o mputer S ci,en ce, 7 I9-7 24, S pringer-Verlag, Berln.
Felix A. Gers, Juan Antonio Prez-Ort2, Douglas Eck y Jrgen Sch-
mi ci huber,2002. "DEKF-LSTM", en M. Verl eysen, coordi nador, Pro-
ceedi.ngs of the 10th European Sympos'ium on Arti,fici.al Neural Net-
works, ESANN 2002, 369-376, D-side Publications.
Tambin son consecuencia de las investigaciones desarrolladas para. la
tesis los siguientes artculos todava inditos, aunque ya aceptados:
Juan Antonio Prez-Ortiz, Felix A. Gers, Douglas Eck y Jrgen Sch-
midhuber, 2002. "Kalmarr fiiters improve LSTM network performance
in hard problems", Neural Networks, aceptado con modificaciones.
Felix A. Gers, Juan Antonio Prez-Ort2, Douglas Eck y Jrgen Sch-
midhuber, agosto de2002. "Learning context sensitive languages with
LSTM trained with Kalman fiiters"
,
en Proceedi,ngs of the Internotio-
nal Conference on Arti,fi,cial Neural Networks, ICANN 2002, Lecture
Notes in Computer Sc,ience, Springer-Verlag, Berln; aceptado.
Juan Antoni o Prez-Orti z, Jrgen Schmi dhuber, Fel i x A. Gers y Dou-
glas Eck, agosto de 2002. "Improving long-term online prediction with
decoupled ext,ended Kalman filters"
,
en Proceedi,ngs of the Internatio-
nal. Conference on Arti.fici,al Neu,ral Networks, ICANN 2002, Lectu're
lloes 'n Computer Science, Springer-Verlag, Berln; aceptado.
Agradecimientos Vaya ahora mi agradecimiento a todos los que han con-
tribuido de forma directa al desarrollo de este trabajo: a mis directores
de tesis, a los miembros del Departar,mento de Lenguajes y Sistemas In-
formticos de la Universidad de Alicante y a todos los que rne acogieron en
el IDSIA de Lugano. Tambin han siclo fundamentales para la elaboracin
Modelos predictivos basados en redes neuronales recurrentes de tiempo discreto. Juan Antonio Prez Ortiz
Tesis doctorales de la Universidad de Alicante. Tesi doctoral de la Universitat d'Alacant. 2002
PREFACIO
de este trabajo la beca de formacin de personal investigador FPI-99-74-268
de la Generalitat Valenciana y los proyectos de la Comisin Interministerial
de Ciencia y Tecnologa TIC97-0947 y TIC2000-1599-C02-02.
Finalmente, un sincero
graci,as!
a todos los que habis estado ah mien-
tras escriba esta tesis.
Juan Antoni,o Prez Ortiz
Al'icante, 5 de
juli,o
de 2002
Modelos predictivos basados en redes neuronales recurrentes de tiempo discreto. Juan Antonio Prez Ortiz
Tesis doctorales de la Universidad de Alicante. Tesi doctoral de la Universitat d'Alacant. 2002
Volver al ndice/Tornar a l'ndex
Modelos predictivos basados en redes neuronales recurrentes de tiempo discreto. Juan Antonio Prez Ortiz
Tesis doctorales de la Universidad de Alicante. Tesi doctoral de la Universitat d'Alacant. 2002
NnrcB GENERAL
Prefacio
l- Los problemas
1.1 Secuenci as
1.2 Los probl emas .
1.2.1 Compresin de secuencias simblicas
1,.2.2 Inferencia de lenguajes con dependencias a largo plazo
1.2.3 Desambiguacin categorial .
1.2.4 Predi cci n de seal es de voz
1-
2
J
J
A
t)
Redes neuronal es recurrentes I
2. 7 Redes neur onal es - . . . . I
2.L.1 Modei o de neurona 10
2. L. 2 Poder c omput ac i onal . . . . . . 12
2.L.3 Topol ogas neuronal es L4
2. 2 Redes r ec ur r ent es . . . . . L4
2.3 Aplicacin de las redes recurrentes al procesamiento de se-
cuencias 15
Model os 19
3. 1 Model osr ecur r ent est r adi ci onal es . . . . . 19
3.1.1 Redes de pri mer orden 19
3. 1. 2 Redes des egundoor den . . . . . 22
3.1.3 Adi ci n de una ventana temporal 23
3. I . 4 Ot ras redes 23
3.2 Modelo de memoria a corto y largo plazo 25
3.2.I Cl cul o de l a funci n de sal i da . . . . . 27
3.2.2 Li mi taci ones de l a red LSTM ori gi nal . . . . . 29
3.3 Red recurrente en cascada 30
Entrenami ento 35
4.7 Algoritmos de entrenamiento supervisado 35
4.1,.7 Aprendi zaj e en l nea y fuera de l nea 36
4.2 Prediccin mrmrica con redes recurrentes 38
4.3 Prediccin simblica con redes recurrentes 38
4. : l . I Conv er genc i a . . . . . 39
vii
Modelos predictivos basados en redes neuronales recurrentes de tiempo discreto. Juan Antonio Prez Ortiz
Tesis doctorales de la Universidad de Alicante. Tesi doctoral de la Universitat d'Alacant. 2002
INDICE GENEHAL
4.4 Mtodos bsados en derivadas .
4.5 Aprendiza.je recurrente en tiempo real
4.5.1 Ejernplo de clculo de las derivadas del error
4.6 Retropropagacin en el tiempo
4.6.1 Ejemplo de clculo de las derivadas del error
4.7 Filtros de Kalman
4.7.7 El fi l tro de Kal man
4.7.2 El fi l tro de Kal man extendi do
4.8 Entrenamiento de una red neuronal con el filtro de Kalman
4.8.1 El filtro de Kahnan extendido desacoplado .
4.8.2 Control de l a di vergenci a del fi l tro
4.8.3 Parrretros i ni ci al es del ai gori tmo
4. 9 Cost ecomput aci onal
4.10 Mtodos no basados en clerivadas
4.11 Probl emas en el aprendi zaj e .
4.7I.1 Mni rnos l ocal es
4.1.7.2 El gradi ente evanescente
4.12 Justi fi caci n de l a recl LSTM
4.72.I Cl cul o del gradi ente .
Las sol uci ones previ as
5.1 Cornpresin de secuencias simbiicas
5. 1. 1 Ent rop a
5.L2 Cornpresi n de Huffman
5.1.3 Compresi n ari tmti ca
5.7.4 Model os de probabi l i dad
de n-gramas
5.1.5 Programas de compresi n
5.1.6 Diferencias con la inferencia gramatical clsic-r,
5.1.7 Trabaj os neuronal es
Inferencia de ienguajes con dependencias a largo plazo
Desambiguacin categorial
5.3.1 Trabai os neuronal es
5.4 Predi cci n de seal es de voz
5.4.1 Trabaj os neuronal es
Cornpresi n
6. 1 Mt odo
de secuenci as si mbl i cas
6.1.1 Secuenci as de estados fi ni tos
6.I.2 Secuenci as cati cas
6. 1. 3 Text os
6.2 Parmetros
6.3 Resul tados
6.3.1 Secuenci as de estados fi ni tos
67
67
67
4I
A '
43
44
40
47
4B
bU
( o
c.)
DC
DU
b
b
59
5 V
61
D. j
69
77
7B
79
B1
B1
83
B3
B4
5
BB
B8
B9
B9
90
17,)
n, 1
t 4 *
I O
o
D. J
6.3.2 Secuenci as cati cas
Modelos predictivos basados en redes neuronales recurrentes de tiempo discreto. Juan Antonio Prez Ortiz
Tesis doctorales de la Universidad de Alicante. Tesi doctoral de la Universitat d'Alacant. 2002
/NDICE GENERAL
6.3.3 Textos en lenguaje humano
6.4 Di scusi n
7 fnferencia de lenguajes con dependencias a largo plazo
7.1. Mtodo
7.2 Parmetros
7.3 Resultados
7.4 Di scusi n
8 Desambiguacin categorial t-1-3
8. 1 Mt odo . . 113
8. 1. 1 Fas es deent r enami ent o . . . . . i 14
8. L. 2 Model os al t er nat i vos . . . . 118
8. 2 Par met r os . . . . 118
8. 3 Resul t ados . . . . . 120
8. 4 Di sc us i n . . . . . 123
9 Prediccin de seales de voz 125
9. 1 Mt odo . . 125
9.1.1 Predi ctores no l i neal es . . 126
9. 1. 2 Pr edi c t or es l i neai es . . . . 727
9. 2 Par met r os
" . . . 727
9. 3 Res ui t ados . . . . . I 28
9. 4 Di s c us i n . . . . . 132
10 Concl usi ones y perspecti va 1-35
10. 1 Conc l us i ones . . . 135
10.2 Contri buci ones de esta tesi s . . 137
10.3 Sugerencias para prximos trabajos . . . 138
A Modelos de Markov para el etiquetado categorial t4l
A. 1 Apl i caci nal et i quet adocat egori al . . . . . . . i 42
A. 1. 1 Si mpi i f i c ac i ones . . . . . . 1. 42
A.t.z Probabilidades hacia adelante . . 142
A. 1. 3 Pr obabi l i dadeshaci aat r s. . . . 143
A. 1. 4 Ot r as pr obabi l i dades . . . . . . 143
A. 1. 5 Nuev os par met r os .
" . . I 45
A. 1. 6 Segment aci n . . . . . 746
A. L. 7 I ni c i al i z ac i n . . . 148
Indi ce de smbol os i mportantes
ndi ce de abrevi aturas
Bibliografa
L49
1_51_
1-53
92
93
97
97
100
L02
707
Modelos predictivos basados en redes neuronales recurrentes de tiempo discreto. Juan Antonio Prez Ortiz
Tesis doctorales de la Universidad de Alicante. Tesi doctoral de la Universitat d'Alacant. 2002
Modelos predictivos basados en redes neuronales recurrentes de tiempo discreto. Juan Antonio Prez Ortiz
Tesis doctorales de la Universidad de Alicante. Tesi doctoral de la Universitat d'Alacant. 2002
1. LOS PROBLEMAS
Esta tess aborda diversos aspectos relativos al uso de redes neuronales
recurrentes de tiempo discreto en tareas de prediccin de secuencias.
En este captulo se presenta los problemas estudiados y los motivos
por 1o que es importante abordarlos.
Las redes neuronales recurrentes (Kolen y Kremer 2001) (Haykin 1999,
cap. 15) (Hertz et al . 1991, cap. 7) sonT en pri nci pi o, un model o computa-
cionai ms potente que las clsicas redes neuronales hacia adelante. Esta
mayor potencia proviene del hecho de que las redes reclrrrentes son capa-
ces de procesar secuencias temporaies gracias a la posibilidad de recordar
parcialmente la historia relevante de la secuencia por medio de una .repre-
sentacin en forma de estado. Esta memoria no existe de manera natural
en las redes no recurrentes, utilizadas principalmente para el procesamiento
de datos estticos.
A simple vista el rasgo que diferencia las redes neuronales recurrentes
de las que no lo son es simple: la existencia de, como mnirno, una conexin
cclica (recurrente) entre las neuronas que las configuran. Esta diferencia
tiene, sin embargo, profundas implicaciones en la capacidad de computacin
del modelo y en los algoritmos de entrenarniento necesarios para conseguirla.
A la hora de clasificar las redes neuronales recurrentes se suele considerar
la forma en la que el tiempo transcurre durante la actividad de la red. En
este sentido podemos distinguir entre redes neuronales de ti,empo d,iscreto
y redes neuronales de ti,empo cont'inuo. En las redes neuronales de tiempo
discreto los clculos ocurren a saltos, como si un reloj marcara ei ritrno de
procesamiento y se asume qlle er] cada paso de tiempo la salida de cada
neurona se obtiene instantneamente a partir de sus entradas. En el caso de
Ias redes neuronales de tiempo continuo (Pearlmutter L995), las entradas y
salidas de la red son funcin de una variable temporal continua y la dinmica
de sus neuronas viene descrita por una ecuacin diferencial.
En este trabajo se estudia la capacidad de las redes recurrentes para
predecir el siguiente componente de distintos tipos de secuencias. Ya clue
Ias secuencias son de tiempo discreto. las redes tarnbirr tienen oue sello
i
Modelos predictivos basados en redes neuronales recurrentes de tiempo discreto. Juan Antonio Prez Ortiz
Tesis doctorales de la Universidad de Alicante. Tesi doctoral de la Universitat d'Alacant. 2002
1. LOS PROBLEMAS
forzosamente. La prediccin del siguiente elemento con redes recurentes
es un terna clsico; vase, por ejemplo, los trabajos de Cleerernarrs et al.
(1989) y El man (i 990). En este contexto es de esperar que l a red cl esarrol l e
un modelo interno de la informacin relevante sobre una cierta canticlad
de la historia pasada de la secuencia que le pernrita, realizar predicciones
acertadas sobre el futuro.
Dado que la tesis se centra en el procesamiento de secuencias tempora-
les (Weigend y Gershenfeld 1994)) es momento de introducir este concepto.
1. 1. Secuenci as
Informalmeute, diremos que ulla -cecuenc'ia es una serie de datos loma,clos
de un conjunto ^9 y que representarentos como
s[ zz]
:
s[ 1] , s[ 2] . . . . , s[ t r " ]
donde -L" es Ia longi,tud de Ia secuencia. En una secrrencia es posible que
s[t]
:
5'1 parat
f
tt. Los valores entre corchetes son n,di,ce.s (nonnalrnente
valores enteros) que reflejan el orden de los distintos datos dentro de la
secuencia; cuando este ndice se refiere al tiempo se dice que
la secuencia es
de tipo temporaL.
Supongamos un sistema que trabaje con secuencias ternporales. Po-
demos intentar caracterizar los tipos de operaciones que el sistema puede
realizar sobre una secuencir (Forcada y Gori 2001). Para ello, considerelnos
que i os el ementos de l a secuenci a de entrada z[] pertenecerr a un coni unto
U y que la secliencia tiene Iongitud L,", es decir, las secuencia.s de entrada
son de la forma
ul t l eU, t : 7, 2, . . . , L, , ( 1. 1)
El si stema transforma l a secuenci a de entrada en uua secuenci a de sal i da,
digamos g[]. consideremos que los elementos de la secuencia de salida
pertenecen a un conjunto Y y que la longitud de la secuel cia es -Lr, esto es,
yl t l e Y, t : 7, 2, . . . , La ( L z
Segn la forrna de las variabies anteriores, las operaciones que un sisterna
que trabaje con secuencias puede desarrollar pueden dividirse en cuatro
gruposl
o Tro,ducc'irt o
f,ltrad,o
de secu,enc,ias. Este es el caso ms gcneral de
procesanri ent o de secuenci as. Una secuenci a a[ 1] , r, 121, . . . , 2[ 2, ] se
t ransf orura en ot ra secuenci a
AI I ), y121, . . . , yl Lu] . Un
caso i rrt eresant e
Modelos predictivos basados en redes neuronales recurrentes de tiempo discreto. Juan Antonio Prez Ortiz
Tesis doctorales de la Universidad de Alicante. Tesi doctoral de la Universitat d'Alacant. 2002
1.2. LOS PROBLEMAS
dentro de este tipo de procesamiento es Ia traduccin sncrona en la
que el sistema lee y genera una componente en cada paso, con lo que
ambas secuencias crecen al mismo ritmo y Lu: LE.
Clasi.fi,caci.n de secuenci,as. Aqu Lc
:1.
El sistema asigna a toda Ia
secuencia de entrada un nico valor o etiqueta del conjunto Y.
Generac' i n de secuenci os. Ahora Lu
:
L. En este modo, el si stema
genera una secuencia de salida para una nica entrada.
Predi,ccin de secuencias. En este caso U
:
Y. El sistema lee una
secuenci a u[L],u12),...
,ul t)
y produce como sal i da una posi bl e conti -
nuaci n de l a secuenci a de entrada l t+I]' ,l t+21,. .. Normal mente se
predice un nico valor futuro, generalmente d[a 1], aunque en algunos
casos el valor predicho es tLlt + kl para un valor pequeo de k.
Los problemas abordados en esta tesis se pueden incluir dentro del ltimo
grupo y se introducen a continuacin.
1. 2. Los probl emas
Las tareas de prediccin que estudia esta tesis se pueden clasificar desde
varios ejes. Uno de ellos atiende al origen de los componentes de la secuen-
cia; as, en el caso de prediccin sobre seales numricas, tendremos [/
:
IR.
y en el caso de prediccin sobre series simblicas U
:
E, donde X es un al-
fabeto cualquiera. Por otro lado, puede considerarse la aplicacin concreta
de las tareas de prediccin estudiadas. Esta ltima clasificacin es la que
determina en gran medida la estructura de los contenidos de la tesis y con-
sidera fundamentalmente cuatro aplicaciones: Ia compresin de secuencias
simblicas, Ia inferencia de lenguajes regulares y sensibles al contexto, la
desambiguacin de las partes de una oracin y la compresin de seales de
voz digitalizadas.
L.z.L. Compresi n de secuenci as si mbl i cas
Las limitaciones impuestas por la capacidad de Ios dispositivos de alma-
cenamiento y por el ancho de banda de los medios de transmisin obliga a
comprimir la informacin. Las tcnicas de compresin suelen ser distintas
segn Ia naturaleza simblica o numrica de las secuencia;q a comprimir.
Dentro del primer grupo, los sistemas compresores (Bell et al. 1990;
Nelson y Gailly 1995) suelen basarse en un motlelo de probabilidad que
cletermine las probabilidades de aparicin de cacla srnbolo en un contexto
secuencia,l cleterminado. De esta lnanera) lr cotlificacin elegida parr urr
Modelos predictivos basados en redes neuronales recurrentes de tiempo discreto. Juan Antonio Prez Ortiz
Tesis doctorales de la Universidad de Alicante. Tesi doctoral de la Universitat d'Alacant. 2002
1. LOS PROBLEMAS
smbolo concreto est en funcin de las previsiones realizadas antes de su
aparicin por el rnodelo y se puede usar codificaciones ms pequeas para
los smbolos ms frecuentes, redrtciendo as el nmero de bits necesarios
para
codificar Ia inforrnacin.
Las redes recurrentes son candidatas para dicho modelo de probabilidad
y en esta tesis se estudia la eficiencia de este enfoque, principalmente con
secuencias de texto en lenguaje natural, aunque tambin se consideran otros
tipos de secuencias simblicas para poder matizar los resultados obtenidos.
En esta tesis nos hemos planteado una restriccin importante: que el rnodelo
de probabilidad debe obtenerse aI uuelo (lo que se llama habitualmente e?l
Inea), de forma que Ia codificacin se realice sobre Ia marcha conforme se
procesa Ia secuencia de entrada.
I.2.2. Inferenci a de l enguaj es con dependenci as a l argo pl azo
La inferencza de lenguajes (o
'inferenc,ia
gramati,cal) consiste (Sakaki-
bara 1997) en deduci r un model o (por ej empl o,
.un
autmata fi ni to o una
gramtica) de un lenguaje a partir de un conjunto de cadenas de ejemplo.
Las aplicaciones de la inferencia de lenguajes se extienden por multitud de
campos como el reconocimiento sintctico de formas, la linestica compu-
tacional o la bioinformtica.
Las redes neuronales recurrentes de tiempo discreto han sido amplianren-
te utilizadas en tareas de inferencia de lenguajes (Forcada2002). Se pueden
distinguir dos mtodos principales (Alquzar y sanfeliu 1994) para abordar
Ia tarea en funcin de si todas las cadenas de ejemplo pertenecen al Ienguaje
a inferir (llarnadas muestras posi.ti,aas) o si se incluyen tambin cadenas que
no pertenecen a l (muestras negati,uas) convenientemente identificadas. En
el primer caso se entrena la red recurrente para que prediga en cada paso
el siguiente smbclo de cada una de las muestras positivas y se establece un
umbral de prediccin para intentar que la red acepte las cadenas correctas
y rechace las incorrectas. EI segundo caso se resuelve como una tarea de
clasificacin en la que el entrenamiento se lleva a cabo para discernir si una
cadena pertenece o no l ienguaje tras haberla visto completamente.
Eu este trabajo se considera la modalidad predictiva para la inferencia
de lenguajes regulares y sensibles ai contexto que presentan dependenc'as a
largo plazo, que, como se ver, suelen ser difciles de rnanejar con las redes
recurrentes tradi ci onai es (Hochrei ter et al . 2001). Por el l o, se consi derar
tambin el modelo recurrente de nlemorias a corto y largo plazo (Hochreiter
y Schrni dhuber 1997), i deado para superar este probl erna.
Modelos predictivos basados en redes neuronales recurrentes de tiempo discreto. Juan Antonio Prez Ortiz
Tesis doctorales de la Universidad de Alicante. Tesi doctoral de la Universitat d'Alacant. 2002
1.2. LCS PROBLEMAS
L.2.3. Desambi guaci n categori al
La existencia de ambigedades en las lenguas es uno de los principales es-
collos para conseguir sistemas de calidad para su pror:esamiento automtico.
La correspondiente desambi,guacin es un paso intermedio muy importan-
te (Manning y Schtze 1999) en muchas aplicaciones como el reconocimiento
del habla o la traduccin automtica.
En esta tesis se estudia el problema de la desambiguacin de aquellas
palabras a las que se puede asociar ms de una categora Ixica (problema
conocido tambin como et'iquetado de las par"tes de la oracn; en ingls PoS
taggi,ng por part-of-speech tagging).t
rJn
eti.quetador morfosi,nt6,cti,co es, ell
este contexto, un programa que asigna a cada palabra de un texto una
categora lxica de entre un conjunto previamente definido de categoras.
Las categoras lxicas (tambin llamadas partes de la orac'n) pueden
ser rluy amplias (como
"verbo") o muy especficas (como
"velbo transitivo,
3.u persona del singular del presente de indicativo"), segn la aplicacin
concreta que queramos darles. A Ia mayor parte de las palabras de cualquier
oracin se les puede asignar fcilmente una nica etiqueta lxica mediante la
consulta de un diccionario o lrico.2 Sin embargo, como ya se ha dicho, hay
tambin muchas palabras que son ambi,guas en el sentido de que se les puede
asignar ms de una categora lxica; por ejemplo, en espaol la palabra bajo
puede ser un nombre
-un
instrumento que produce sonidos graves-) un
adjetivo
-de
poca altura-, un adverbio
--equivalente
a abajo- o una
preposicin
-debajo
de.
La eleccin de Ia categora lxica correcta puede ser crucial, por ejemplo,
al traducir a otro idioma. La mayora de los desambiguadores categoriales
se basan en Ia suposicin de que Ia categora correcta puede determinarse a
partir del contexto en el que aparece Ia palabra, o que) al menos, este con-
texto hace que una de ellas sea ms probable. Normalmente, la decisin se
toma en funcin de las categoras lxicas de las palabras vecinas, asumiendo
que la sintaxis es Ia mejor aliada a la hora de desambigrrar una palabra. Esta
idea puede fallar, no obstante, en frases como en Ia clsica frase en ingls
"Time flies like an arrow", donde, adems de la interpretacin principal
lAunque
la ambigedad se puede presentar en distintos niveles, nos centraremos en el
nivel lxico. Dentro de este nivel hay dos causas principales de ambigedad: la polisemia y
la homograia. Una palabra es polismico cuando puede tener nrs de una interpretacin,
todas con la misma categora lxica. Por otro lado, en las palabras homgrafas, que sorl
la.s que aqu nos interesan, las distintas interpretaciones pertenecen a categoras lxicas
di terentes.
z'lanibin
puede usarse un rdiui,nad,or, que deduce ia categora lxica cle la palabra a
partir de su forma superficial (por ejemplo, en espaol pr.cticamente todas la^s palabras
rcabaclus en
-aba' is
son verbos).
Modelos predictivos basados en redes neuronales recurrentes de tiempo discreto. Juan Antonio Prez Ortiz
Tesis doctorales de la Universidad de Alicante. Tesi doctoral de la Universitat d'Alacant. 2002
I. LOS PROBLEMAS
(nombre-verbo-conjuncin...), existen otras dos sintcticamente impeca-
bles, aunque semnticamente improbables (verbo-nombre-corrjuncin... y
nombre*nombre-verbo...
).3
Diremos que un texto est completamente eti,quetado o eti,quetado si,n
ambi.giiedades cuando cada aparicin de una palabra lleva asignada la eti-
queta lxica correcta. Por otro lado, un texto parc,ialmente eti,quetado o
eti.qetado amb'igu,amente es aquel en el que se asocia (rnediante un Ixico o
un adivinador) a cada palabra (independientemente del contexto en el que
aparece) un conjunto de posibles categoras lxicas; en este caso? a la^s pala,-
bras ambiguas y desconocidas les corresponde ms de una etiqueta lxica.a
La obtencin de corpus significativos de textos completamente etiqueta-
dos es un problerrla para todas las ienguas, especialmente para las tninori-
tarias. Por ello, es muy recornendable disear desarnbiguadores ca,tegoriales
que no los necesiten.
Las palabras que comparten el mismo conjuuto de categoras lxicas se
di ce que pertenecen a Ia mi sma cl ase de ambi gti edad (Cutti ng et al . 1992);
por ejernplo, las palabras canto y li,bro pertenecen a Ia rnisna clase cle am-
bi gedad
{nombre,
verbo}.
En esta tesis se plantea de forma original la desambiguacin categ-orial
como url problema de prediccin de clases de ambigedad con redes recu-
rrentes, corno se ver ms adelante. Aclerns, el etiquetador morfosintctico
propuesto necesila solo corpus de textos parcialmente etiquetados.
I.2.4. Predi cci n de seal es de voz
La prediccin de seales de voz en tiernpo real (Barnwelt et al. 1996)
es una parte muy importante de sistemas de colnunicaciu actuales c:omo
los sistemas de telefona rnvil. Si suponemos que el valor de la seal en el
instante puede predecirse a partir de su valor en instarrtes anteriores, se
puede conseguir reducir la tasa de bits (siempre en funcin de ia calidad del
predictor) codificando eficientemente la diferencia entre Ia seal real en el
instante y la seal predicha, como se observa en la figura 1.1.
Aunque se ha comprobado que Ios predictores de voz no lineaies mejo-
ran la capacidarl predictiva de los lineales (Townshend 1991), la mayora
slas
tres posibles irrterpretaciones seran
"E.1.
tiempo vuela como una flecha",
"Crono-
metra a la^s moscas como una flecha" y
"A la^s moscas del tiempo les gusta una flecha".
aA
las palabras clesconociclrs se les asigna normalmente el conjunto cle la^s categoras
abiertas, formada por aquellas categora-s a las que es posible aadir nuervas pala.bra^s del
lenguaje: nombres comunes y propios, velbos, adjectivos y adverbios. Esta a^signacin se
refina normalrnente con 1a ayuda de un adivinador, como ya se ha explica,:lo anterionnente.
Modelos predictivos basados en redes neuronales recurrentes de tiempo discreto. Juan Antonio Prez Ortiz
Tesis doctorales de la Universidad de Alicante. Tesi doctoral de la Universitat d'Alacant. 2002
1.2. LOS PROBLEMAS
rltl
[l
-
1], ul t
-
21,. .. ultl
Figura 1.1: Esquema de la codificacin predictiva sobre una seal u[fl. La sea]
enviada por el canal (despus de ser codifi.cada) es r[t].
de los estndares actuales (Barnwell et al. 1996) consideran modelos linea-
les adaptativos para implemeniarlos debido al equilibrio que proporcionan
entre complejidad y rendimiento. Los modelos no lineales como las redes
neuronales recurrentes deberan, en principio) superar a las tcnicas tradi-
cionales.
Estudiaremos, por tanto, el rendirniento de ciertas redes a Ia hora de
predecir Ia siguiente muestra de una secuencia de voz digitalizada.
Modelos predictivos basados en redes neuronales recurrentes de tiempo discreto. Juan Antonio Prez Ortiz
Tesis doctorales de la Universidad de Alicante. Tesi doctoral de la Universitat d'Alacant. 2002
Volver al ndice/Tornar a l'ndex
Modelos predictivos basados en redes neuronales recurrentes de tiempo discreto. Juan Antonio Prez Ortiz
Tesis doctorales de la Universidad de Alicante. Tesi doctoral de la Universitat d'Alacant. 2002
2. REDES NEURONALES RECUR,RENTES
Este captulo introduce los elementos principales que defi.nen una neu-
rona y la forma en que estas se combinan para constituir redes neurona-
les recurrentes. Adems de plantear un modeio formal de red neuronal
recurrente, que ser utilizado en posteriores captulos, se describen
brevemente las principales aplicaciones de este tipo de redes.
2.1. Redes neuronal es
Una red neuronal puede verse como una m,qu,in diseada originahnente
para modelizar la forma en que el sisterna nervioso de un ser vivo realiza una
determinada tarea. Para lograr este objetivo, una red neuronal est formada
por un conjunto de unidades de procesamiento interconectadas llamadas
neuTonas.
Cada neurona recibe como entrada un conjunto de seales discretas o
continuas, Ias pondera e integra, y transmite el resultado a las neurorras
conectadas a ella. Cada conexin entre dos neuronas tiene una determinada
importancia asociada denominada peso sinpti,co o, sirnplemente, peso. En
los pesos se suele guardar la mayor parte del conocimiento que la red neuro-
nal tiene sobre Ia tarea en cuestin. EI proceso mediante el cual se ajustan
estos pesos para lograr un determinado objetivo se denomina aprendi.zaje
o entrenami,ento y el procedimiento concreto utilizado para ello se conoce
como algoritmo de aprendi,zaje o algoritmo rJe entrenarniento. El ajuste de
pesos es la principal forma de aprendizaje de las redes neuronales, aunque
hay otras foma^s posibles.l
El artculo de McCulloch y Pitts (1943) se considera como el prrnto de
arranque de la investigacin en redes neuronales; este trabajo introdujo tam-
bin la teora de autmatas finitos como modelo computacional. McCulloch
y Pitts propusieron un rnodelo simplificado de la actividad nerviosa real en
el que cada neurona de una red neuronal poda activarse o desactivarse en
funcin de Io que hicieran las neuronas conectadas a ella. Debido a que una
neurona solo poda estar acivada o desactivada, Ia capacidad computacional
' Por
ejemplo, la modifica,cin del nmero de neuronas o rie la forrna de conectarlas
Modelos predictivos basados en redes neuronales recurrentes de tiempo discreto. Juan Antonio Prez Ortiz
Tesis doctorales de la Universidad de Alicante. Tesi doctoral de la Universitat d'Alacant. 2002
2. REDES NEURONALES RECURRENTES
de la red completa se define en trminos del conjrurto de predicados igicos
que es capaz de computar. En este artculo ya aparecen redes neuronales
recurrentes, a las que se denomina redes cor c,iclos.
Unos aos despus, Kleene (1956) reformul algunos de estos resultados
e introdujo una notacin ms compacta, y general. En su artculo se define
el concepto de erpresin regular (all llamado euento regular), tan impor-
tante para la teora de lenguajes actual y sts aplicaciones. A partir de ah,
el campo de las redes neuronales y el de lr teora de lenguajes comienzan
a tomar caminos separados. De hecho, el segundo aca.par una creciente
atencin desde entonces hasta nuestros da^s, mientras que el primero qued
prcti camente ol vi dado araz cl el trabaj o cl e Mi nsky
5.
Papert
(1969).
Sal -
vo algunos trabajos aislados (Werbos 7974't
,
las redes neuronales clueclan
relegadas a un segundo plano hasta la llegacla de los ochenta.
Las redes neuronales destacan por su estructrrra fcilmente paraleliza-
ble y por su elevada capacidad cle generaLtzac,i.n (capacidad de producir
salidas correctas para entradas no vistas durante el entrenamiento). Otras
propiedades interesantes son:
No lineali,datl. Una red neuronal pr"rede ser lineal o no lineal. Esta
l ti ma caractersti ca es muy i mportante, especi al nrente si se i nteuta
modelizar sistemas generados mediante pautas no lineales.
Adaptabilidad. Las redes neuronales son capaces de reajustar sus pe-
sos para adaptarse a cambios en el entorno. Esto es especialmente til
cuando el entorno que surninistra ios datos de entrada es no estac,io-
nario, es decir, algunas de sus propiedades varan con el tiempo.
Toleranc'ia ante
.fallos.
Una red neuronal es tolerante ante fallos en el
sentido de que los posibles fallos operacionales en partes de la red soio
afectan dbilmente ai renclimiento de esta. Estr propiedad es debida
a la naturaleza distribuida de Ia informacin alnracenada o procesada
en ia red neuronal.
2. 1. 1. Model o de neurona
En el modelo ms habitual de neurona se iclentitit:an cinco elementos
bsicos para la
7-sima
nellrona de una recl de tiernpo cliscreto:
Un conj unt o de n seal es de ent rada, zl t ), i
-
1, . . .
)?z)
que sumi ni s-
tran a la nerrrona los datos del entorno; estos datos pueden ser externos
a la red neuronal, pertenecientes
a la salidr de otras neuronas cle Ia
red..o bi en correspondi entes a l a sal i da anteri or de l a propi a neurorl a.
Modelos predictivos basados en redes neuronales recurrentes de tiempo discreto. Juan Antonio Prez Ortiz
Tesis doctorales de la Universidad de Alicante. Tesi doctoral de la Universitat d'Alacant. 2002
2.1. BEDES NEURONALES
Un conjunto de si,napsis, caracterizada cada una por nn peso propio
Wt, i
-
1, . . .
,n.
El peso W; est asociado a la sinapsis que conecta
la unidad z-sima con Ja neurona j-sima.
Un sesgo W cula presencia aumenta la capacidad de pror:esamiento
de Ia neurona y que eleva o reduce la entrada a la neurona, segn sea
su valor positivo o negativo.
Un sumador o integrad,or que suma las seales de entrada, ponderadas
con sus respectivos pesos) y el sesgo.
o Urra
funci,n
de acti,uaci,n g q\e suele limitar la amplitud de la salicla
de l a neurona.
Utilizando la notacin definida anteriormente podemos describir la ope-
racin de una neurona media.nte la ecuacin
que
determina su act'iuac,in en
el instante
-.1-
1:
zl t + 1l : g ( 2. 1)
Es habitual,
y
as se har norrnalmente en este trabajo, considerar el ses-
go como un peso ms de la red y no clistinguirlo del resto de pesos sinpticos.
Por tanto, mientras no se diga lo contrario, el trmino peso.s se refiere indis-
tintamente tanto a Wt como a Wj.
La funcin de activacin es la que define finalmente la salida de la neu-
rona. Las funcioues de activacin ms utilizadas habitualmente son ias
siguientes:
Funci.n identi,dad. Tiene la forma gt(r) :
r y se utiliza cuando no
se desea acotar Ia salida de la neurona.
Funci,n escaln. Adopta la forma
(E*""^a*w' )
1.
2.
(
t r ) o
eEl r ) : l
o
" l o
( 2. 2)
y proporciona una salida con dos posibles valores. Es habitual en..
contrrsela con el nombre de
funci.n
de Heauistd,e.
3. Funcin logstica. Las funciones sigmoideas son un conjunto de funcio-
nes crecientes, rnontonas y acotadas que provocan una transfornracin
no lineal de su argumento. Una de las ms utilizadas es Ia funcin
logstica definida por
/ \
1
gL\ r ) :
I +e-
(2 3)
Modelos predictivos basados en redes neuronales recurrentes de tiempo discreto. Juan Antonio Prez Ortiz
Tesis doctorales de la Universidad de Alicante. Tesi doctoral de la Universitat d'Alacant. 2002
2. REDES NEURONALES RECURRENTES
0 L
- 1 0
Fi gura 2.1: Representaci n grfi ca
entre
-10
y
+10.
1 0
funci n l ogsti ca, l l Q + e-"), para :r
n
de l a
/ n 2 \
- ex p( - =)
\
o' /
funcin alcanza, su valor
La funcin logstica est acotada elltre 0 y 1 En la figura 2.1 se
ntuestra su representacin.
4. F'u'nci'n tangente h'iperbli,ca. otra fiurcin sigmoidea es Ia tangente
hi perbl i ca:
9r(r)
:
tanh(c) {) a.\
En este caso, Ia funcin est acotada entre
-1
y 1. La funcin logstica
y la tangente hiperblica se relacionan rnediante la ecuacin:
tanh(r)
5. Funci.n de base radi.al. Las ms
no montonas del ti po
c
- c
t { - t
( 2. 5)
habituales son funciones
qaussianas
gB( r )
clonde o define la ancJrura. La
l a entrada es cero.
( 2. 6)
mximo cuando
2.L.2. Poder cornputaci onal
EI poder computacional de una nica neurona es bastante limitado. Si
considerarnos una neurona colr funcin de activacin escaln, este poder cle
cotnputacitl puede estudiarse desde dos puntos de vista equivalentes: el de
Ia ciasificacin y el de la representacin lgica.
Modelos predictivos basados en redes neuronales recurrentes de tiempo discreto. Juan Antonio Prez Ortiz
Tesis doctorales de la Universidad de Alicante. Tesi doctoral de la Universitat d'Alacant. 2002
2,1. REDES NEURONALES
c Clasi,ficaci,n. Dado un conjunto de np vectores de entrada, cada uno
de n componentes, clasificaclos como pertenecientes a ttlta de entre dos
clases, una neurona puede (mediante la asignacin cortecta de valores
a sus pesos y a su sesgo) clasificarlos correctamente2 nicamente si se
cumple la condi,ci,n de separabi.li,dad li,neal: los conjuntos de vectores
pertenecientes a cada clase deben ser separables por un hiperplano en
el espacio np-dimensional.
o Representaci.n lgi.ca. La fraccin de funciones lgicas de n varia-
bles que pueden representarse mediante una neurona con funcin de
activacin escaln decrece con 7. Por ejemplo, para n
:
L las 4 po-
sibles funciones (identidad, negacin, sempre cierto y siempre falso)
son computables a travs de una neurona. Sin embargo, para n
:2 ya
existen dos funciones no computables (la o exclusiva y su negacin).
Para n variables, hay un total de 22" funciones lgicas. El nmero de
funciones dentro de esas 22" que son linealmente separables, es decir,
que se pueden implementar con una neurona? NFL(n), no tiene una
expresin exacta para n ) 8, aunque la siguiente (Horne y Hush 1996)
permite acotar su valor:
,>n2
+l
4. 2n( n- t ) 12
I
NFL( n)
=
"
^
( 2. 7)
esta clasificacin puede
y el valor 0 a los de la
que representa una fraccin cada vez menor del total de funciones
cuando se aumenta n.
Las limitaciones anteriores se cumplen independientemente de Ia funcin
de activacin utilizada. Si se interconecta un conjunto de neuronas formando
una red de manera que la salida de algunas de ellas sea entrada de otras
y se utilizan funciones de activacin no lineales, pueden superarse estas
limitaciones y las redes neuronales resultantes son capaces de emular Ia
mquina universal de Turing (Hopcroft y Ullman 1979) y de computar, por
tanto, cualquier funcin computable (Siegelmann y Sontag 1991). La salida
de algunas de esas neuronas se convierte en la salida de la red neuronal y al
resto de neuronas se las denomina unidades ocultas o de estado.
EI problerna que surge entonces es cmo determinar el valor de los pesos
y sesgos de la red para poder computar una funcin determinada. Dado
que el espacio de exploracin puede ser enorme, se hace necesario el uso de
heursticas a travs de algoritmos de entrenamiento, que no siempre logran
dar con una solucin adecuada.
' Si,
por ejemplo, se utiliza una funcin de activacin escaln,
hacerse asignando el valor de salida 1 a los vectores de una clase
obra.
Modelos predictivos basados en redes neuronales recurrentes de tiempo discreto. Juan Antonio Prez Ortiz
Tesis doctorales de la Universidad de Alicante. Tesi doctoral de la Universitat d'Alacant. 2002
2. REDES NEURONALES NECURRENTES
2.I.3. Topol ogas neuronal es
La forma en que se interconectan las neuronas de una red neuronal define
un grafo dirigido. Si este grafo es zicclico, ia red se denomina red neuronal
haci,a adelante (en ingls,
feedforward
network) y en el caso de que posea
ciclos, se denomina red neuronal recurrene. En el primer grupo estn, entre
otros) los perceptrones, las nrquinas de vectores soporte y las redes de
funci ones de base radi al 3 (Hayki n 1999).
En el caso de las redes recurrentes, los ciclos existentes tienen un pro-
fundo impacto en la capacidad de aprendizaje de la red y las hacen especial-
mente indicadas para el procesamiento de secuencias ternporales; son estas
rltimas, las redes recurrentes, las que se usan en esta tesis.
2. 2. Redes recurrent es
Adems de la ya discutida al comienzo del captulo 1 (redes de tiempo
conti nuo y redes de ti ernpo di screto), otras posi bl es cl asi fi caci ones di vi den
las redes neuronales recurrentes eir redes cle estado contintto o de estado
discreto, segn Ia forrna de las funciones de activacin ernpleaclas. Segrn la
forma en que se utilicen, cabe tambin hablar de redes recurrentes de
,rela-
jaci,n y de redes recurrentes para el procesam,iento tentparal. Las prirueras
evolucionan durante una serie de iteraciones desde un estado inicial a un
estado normalmente estacionario, momento en el que se consulta la salida
de la red; la salida de las redes usadas para el procesatniento temporal, por
otro lado, se consulta continuamenbe tras cada iteracin.
Entre los grupos anteriores, esta tesis se centra en las recles neuronales
recurrentes de tiempo discreto con funciones de activacin continuas apli-
cadas al procesamiento temporal cie secuencirs. Trabajaremos con sistemas
dinmicos que poseen un estado que cambia conforme se procesa la secuen-
cia de entrada y que proporciona una secuencia de salida a partir de las
activaciones en cada instante de tiempo de las ueuronas de salida. Ms for-
malmente, una red neuronai recurrente de tiempo discreto (RNR a partir de
ahora) de las que se van a considerar en esta tesis puede verse (Carrasco et al.
2000; Forcada y Gori 2001) como una sxt upl a l y' : (X, U, Y, 79, gy, r)
donde:
o X
:
[,90,,Si ]"*
es el espaci o de estados de Ia RNR.4 So y ,9r son l os
valores que definen el rango de salidr de las funciones de activacin
"Aunque existen tanbin algunos trabajos sobre redes recurrentes de funciones de base
racl i al (Ci d-Suei ro et al . i 994).
' Esta
condicin puede rela.jarse para permitir que el intervalo de X sea abierto. La red
LSTNI, que veremos en el siguiente captulo, es un ejemplo de RNR en la que ocurre esro.
Modelos predictivos basados en redes neuronales recurrentes de tiempo discreto. Juan Antonio Prez Ortiz
Tesis doctorales de la Universidad de Alicante. Tesi doctoral de la Universitat d'Alacant. 2002
2-3. APLICACIN DE US REDES RECURRENTES AL PROCESAMIENTO DE SECUENCIAS
utilizadas en Ia funcin siguiente estado y nx es el nmero de unidades
de estado.
[/
:
IR'u es el espacio de los vectores de entrada
!
n el nmero de
componentes de la entrada.
y
:
lTo,Ti]'"
"t
el espacio de salidas de la RNR. To
Y ft
definen el
rango de salida de las funciones de activacin utilizadas en Ia funcin
de salida y ?y es el nmero de componentes de los vectores de salida-
gx: X xU
--,
X es l a funci n de si gui ente estado, que conl puta un
nuevo estado rltl a partir del estado auterior rlt
-
1'l y Ia entrada
actual u[l ].
gy es la funcin de salida, que habitualmente toma una de Ias dos
formas siguientes:
1. gv: X x U
-n
Y- La sal i da
3l [t]
se obti ene a parti r del estado
anterior rlt
-
tl y la entrada actual u[]; este tipo de redes se
conocen como mqu'inas neuronales de estados de Mealy.
2. gv : X
--.
Y. La nueva salida y[t) se obtiene a partir de] esta-
do recien alcanzado z[]; estas redes se conocen como m6,r1u'nas
neuronales de estados de Moore.
. rr0 es el estado inicial de la RNR, es decir, z[0].
En el captulo 3 se muestran algunas topologas neuronales de carcter
recurrente; en el captulo 4 se describen los algoritmos de entrenarniento
ms utilizados sobre RNR.
2.3. Apl i caci n de l as redes recurrentes al procesami ento de
secuenci as
A continuacin se enumeran, siguiendo a Forcada y Gori (2001)' aigunas
de las tareas relacionadas con el procesamiento de secuencias a las que se
han aplicado las RNR.. Los elementos de la siguienbe lista no son exclrryentes,
es decir, alguna tarea podra englobarse en ms de una categora.
Prediccin de series temporales. Esta es una de las aplicaciones ms
habituales de las RNR. A partir de la historia pasada de una o ms
variables, la red neuronal debe proporcionar una prediccin lo ms
cotrecta posible de su valor futuro. La nayor parte de los estudios de
5Si
Ia funcin de salida no est acotada, el intervalo cle )' puede ser ahierto'
Modelos predictivos basados en redes neuronales recurrentes de tiempo discreto. Juan Antonio Prez Ortiz
Tesis doctorales de la Universidad de Alicante. Tesi doctoral de la Universitat d'Alacant. 2002
2. REDES NEURONALES RECURRENTES
este tipo se centran en series econmicas (lVlccluskey 1993) o tornadas
de fenmenos naturales (Aussem et al. 1995)) pero hay otras aplicacio-
nes como Ia continuacin de melodas inacabadas (N,Iozer 1994). Por
otro lado, muchas de las tareas clue se indican en los siguientes grupos
y cualquiera de las abordadas en esta tesis pueden enfocarse como una
tarea de predi cci n.
Procesami ento del l enguaj e humano. EI anl i si s si ntcti co de frases o
el estudio de regularidades en el lenguaje son algunas de las tareas
relacionadas con el lenguaje humano (escrito) a las que se han apiicado
l as RNR (El man 1990; 1991).
Ecual i zaci n de canal es di gi tal es. Los efectos del canal sobre l a seal
transmiticla en conlurricaciones digitales pueclen hacer que esta ser
irreconocible al llegar al receptor. Se hace necesalio, por Lanto, el uso
de aign tipo de filtro inverso que deshaga estos efectos y proporcione
una seal similar a la original. Esta tarea de traduccin cle seales se
conoce normalmente como ecual,izac,in y varios traba.jos se han acer-
cado a ella con RNR (Kechriotis et al. 1994; Ortiz Rrentes y Forcada
1997; Ci d-Suei ro et al . 1994).
codificacin del habla. Existe gran cantidad de tcnicas para cor.nprimir
una seal de voz de rnanera que pueda ser transmitida por un canal
con el rnenor nmero de bits pol segundo posible (para una calidad
de recepcin detenninada). Algunas de estas tcnicas se basan elr
la llamada codi,ficaci,n pred,i,cti,ua; en elia Io que se enva no es lr
seal, sino Ia di,fere,n,ci.a enlre su vaior real y el valor predicho por
un determinado predictor. si el predictor es bueno, esta diferencir
ser pequea y se necesitarn pocos bits para codificarla. Las RNR
tambin han sido usadas como predictores para la codificacin del
habl a (Hayki n y Li 1995).
Reconoci mi ento del habl a. El reconoci mi ento del habl a puecl e consi de-
rarse corno una tarea, de traduccin de secuencias (por ejemplo, cuari-
do se asigna una secuencia de fonemas a una secuencia de vectores
acsticos obtenidos rnediante el procesamiento de una seal de voz) o
como una tarea de clasificacin de secuencias (por ejenrplo, al a,signar
una palabra a una serie de r,-ectores acsticos). Existen varias referen-
cias que utilizan RNR para el reconocimiento del habla (Robinson y
Fal i si de 1991).
Inferencia gramatical. Dado un conjunto de cadenas pertenecientes
a un
cierto lengua.je, uno de los problemas ms estudiados es la inferencia
de un rnodelo (un autmata finito o una gramtica inclependiente del
contexto, por ejernplo) que describa de manera correcta ese lenguaje.
Modelos predictivos basados en redes neuronales recurrentes de tiempo discreto. Juan Antonio Prez Ortiz
Tesis doctorales de la Universidad de Alicante. Tesi doctoral de la Universitat d'Alacant. 2002
2.3, APLICACION DE LAS REDES RECURRENTES AL PROCESAMIENTO DE SECUENCIAS
Este es posiblemente el campo en el que las RNR han proporciona-
do mejores resultados (Cleeremans et al. 1-989; Castao et al. 1995;
Carrasco et al . 2000).
Control de sistemas. Las RNR pueden ser tambin entrenadas
(Pusko-
rius y Feldkamp 1994) para controlar un sistema real de manera que
su salida siga un determinado patrn temporal.
Modelos predictivos basados en redes neuronales recurrentes de tiempo discreto. Juan Antonio Prez Ortiz
Tesis doctorales de la Universidad de Alicante. Tesi doctoral de la Universitat d'Alacant. 2002
Volver al ndice/Tornar a l'ndex
Modelos predictivos basados en redes neuronales recurrentes de tiempo discreto. Juan Antonio Prez Ortiz
Tesis doctorales de la Universidad de Alicante. Tesi doctoral de la Universitat d'Alacant. 2002
3. MODELOS
En este captulo se describen algunos modeios de RNR, ltaciendo espe-
cial nfasis en aquellos que se van a utilizar en esta tesis. No pretende,
por tanto, ser una recopilacin exhaustiva de los distintos tipos de
RNR. Por su relativa novedad y escasa difusin hasta la fecha, se tnues-
tra con nrs detalle el modelo de memorias a corto y largo plaz<.r.
3.1. Model os recurrentes tradi ci onal es
En este apartado se presentan algunos modelos recurrentes que poderr:,os
consi derar "cl si cos"
(Carrasco et al .2000)? ya que hati si do uti l i zados en
n'rultitud de referencias desde
prcticamente
ios ilricios de la^s RNR.
3.1.L. Redes de pri mer orden
Una de las topologas neuronales ms utilizadas en este trrlbajo es ia,
red recurrente de propagacin de errores o red parciahnente recurrente (Ro-
binson y Fallside 1991) de primer orden (RPR), cuya dinrnica viene dacla
por:
Eltl
: gv(Yltl)
nu
i : Lr . . .
f r y
nx
( 3. 1)
( 3. 2)
( 3. 3)
(3. 4)
Vltl
:
D,wl,:",ttl
+
!
wl:" rt
-
rl + w:
: l i : 1
: gx( X[ t ] ) i : I , . . .
Dx
nu nx
:
Dr:,;""t14
+
I
w;"*t[
-
1] +wf
; - 1 ; - 1
J - L J - L
donde gy y gx son funciones de activacin equivalentes a las de la seccin 2.2,
nx es el nmercl de neuronas de estado, nut es el nmero de entradas a la
red y rzy es el nmero de neuronas de salida. Un diagrama de la RPR puede
observarse en la figura 3.1-.
A continuacin sigue una breve explicacin sobre Ia notacin r"rtilizacla
pa,ra,los pesos y sesgos de la red: los superndices indica,n el c,lculo eu el que
- . 1 +i
&1,
Lu I
Xltl
19
Modelos predictivos basados en redes neuronales recurrentes de tiempo discreto. Juan Antonio Prez Ortiz
Tesis doctorales de la Universidad de Alicante. Tesi doctoral de la Universitat d'Alacant. 2002
3. MODELOS
,ltl
E14
X
rl t rl .r[4
Figura 3.1: Esquerna de ia red parcialnleute recurrente de
y Fal l si de 1991). EI bl oque eti quetado con :-l representa
retardo temporal .
prirner orden (Robinson
un vector de clulas de
Fi gura 3-2: Esquema de l a red recunente si mpl e de pl i mer orden (E1man i 990)
est iniplicado el peso: por ejemplo, Wl.;" indica que ese peso contribuye a
determi nar Ia sal i da y a parti r de l a entraa z. Por otra parte, l 4l 0" i ndi ca que
este peso es un sesgo implicado en el clculo del estado r. Los subndices
muestran las unidades concretas que se ven afectadas (conectadas) y van
paralelos a los superndices.
Otro tipo de red es la red recurr.errte sirnple de primer orden (RRS)
propuesta por El rnan (1990), que puede observar.se en l a fi gura 3.2 v cttya
Modelos predictivos basados en redes neuronales recurrentes de tiempo discreto. Juan Antonio Prez Ortiz
Tesis doctorales de la Universidad de Alicante. Tesi doctoral de la Universitat d'Alacant. 2002
3.1. MODELOS RECURRENTES TRADICIONALES
t
.!ltl
Figura 3.3: Esquema de Ia red totalmente recurrente de primer orden (Wiliiams
y Zi pser 1989).
dinmica viene determinada oor las ecuaciones:
a l t )
:
gv( Yl t l ) i
:
7, . . . , TI y
nx
vltl
:
D*y,:",ttl+w!
- . l r l
* x L " J
x14
( 3. 5)
( 3. 6)
( 2 n \
( 3. 8)
r : 1
La red totalmente recurrente (Williarns y
(RTR) viene descrita por:
yl t j :
r i l t f i
:
1, . . .
, TLy
; - t
gx6i l t ) )
' i - -
r , . . .
, TLX
nu nx
D*r"",tl
+
I
wl,'rt
-
U
+ wf
Zi pser 1989) de pri mer orden
/ " u
nx
,ltl
:
ex
t
t
wi;"ut| +
t
wf.;" rlt
-
r)
\ j : t
j : \
normalmente con nx
>
ny. Un esquema de Ia RTR
fi gura 3.3.
(3. e)
\
+w:
I
r:
rol
se muestra en Ia
Segn l o di scuti do en l a secci n 2.2,Ia RRS y l a RIR son mqrti nas de
Moore neuronales y la RPR es una rnquina de Mealy nettronal. El estado
de la red se define como z[1.
Modelos predictivos basados en redes neuronales recurrentes de tiempo discreto. Juan Antonio Prez Ortiz
Tesis doctorales de la Universidad de Alicante. Tesi doctoral de la Universitat d'Alacant. 2002
3. MODELOS
(RPR2) de la
y Gi l es (1996)
por Ca-
( 3. 11)
( 3. 12)
( 3. 13)
( 3. 15)
( 3. 16)
3. L. 2. Redes de segundo orden
La red recurrente si mpl e de segundo orden (RRS2), uti l i zada
rrasco et al . (1996) y por Bl ai r y Pol i ack (1997), vi ene dada por:
/ ' * \
u{tl
:
s,
l!,w!
f
"tt)
+ t'vy
I
\ : : t /
/:::v \
rltl:
n"
I I Dr:.]:r""lt
-
rlultl + wf
l
\ J : r
r c : l
/
Tarnbin puede obtenerse una versin cle segundo orden
RPR. Esta topol oga ha si do uti l i zada, entre otros, por Oml i n
y responde a las ecuaciones:
/ n *
" u
\
uiltl: *
l>,Dry":i' ' rrlt
-
I)u,lt) + w!
|
\r:r
r:r
I
r l t l : g, l : t 14)
La red totalrnente recurrente de segundo orden (RTR2) propuesta por
Gi l es et ai . (1992) se defi ne a parti r de:
, l t
-
11. u[ t ] . *t )
u' ;lt]:
' ' t]l
/:::v
\
r[t1:
r"
I I D*:]:{,lt
-
tlu"ltl + wf
l
\ J: 1
r c: r
/
/ n *
n u
tDl wi ",,i
\ j : 1k : r
donde, como en Ia RTR, se suele hacet n,y ) ny.
Segn l o di scuti do en l a secci n 2.2,l a RRS2 y l a RIR2 son mqr-ri nas
de Moore neuronales de segr-rnclo orden y Ia RPR2 es uria rnquina de l\,Iealy
neuronal de segurrdo orden. EI estado de Ia red se considera, de nuevo,
al macenado en r[t].
Modelos predictivos basados en redes neuronales recurrentes de tiempo discreto. Juan Antonio Prez Ortiz
Tesis doctorales de la Universidad de Alicante. Tesi doctoral de la Universitat d'Alacant. 2002
3.1. MODELOS HECURRENTES TRADICIONALES
3.L.3. Adi ci n de una ventana temporal
Todos los modelos anteriores de RNR pueden ser ampliados con Ia in-
corporacin a sus entradas de una n)emolia explcita a corto plazo. De esta
forma, la entrada a la red consistir en el valor actual u[t] concatenado con
I osp- L val or es ant er i or es r r l - 1] , . . . , u\ t - p+ 1] . Apse l e conoce como
orden de la memoria de entrada u orden de entrada. Una de las primeras
utiiizaciones de esta idea
(con
redes no recurrentes) fue el proyecto NetTalk
(Sejnowski y Rosenberg 1987).
con esta ampliacin, la red recurrente tiene a su disposicin de forma
explcita Ia historia ms reciente y puede, en teora, utilizar el estado para
almacenar informacin relativa a un pasado ms remoto.
AI incorporar una ventana de entradas de orden p la ecuacin (3.4). por
ejemplo, se convierte ahora en:
n u p
nx
xl tl
:tI wi ;' (rruft
-
k +i l +
t
wf;' r[t
-
t)+wf (3.17)
j : I k=l
donde se ha utiliz ado Wi.;'i*, para referirse al peso que une u[t
-
k +
1] con
la neurona d del estado.
-
Ls ecuaciones de las otras redes recurrentes se
modificaran de manera similar.
A efectos prcticos, es aconsejable no alterar las ecuaciones y considerar
que i a entrada de l a red ti ene tamao ntg
:
P.rl u,
adems de control ar
esa entrada realizando el desplazamiento de todos Ios componentes en cada
instante de tiempo para descartar la informacin ms antigua e incorporar
la nueva.
Ya que en esta tesis se pretende estudiar la capacidad de las RNR para
desarrollar per se una representacin interna de los contextos de ias secuen-
cias procesadas, no se considerarn apenas modiflcaciones de este tipo' salvo
en el captulo 9.
3.L.4. Otras redes
Las RNR de primer y segundo orden mostradas hasta ahora pueden
considerarse d,e estad,o oculto; el estado <le estas redes se almacena en z[tl.
Existen otras redes) como Ia red NARX, que se pueden considerar de estado
ui,sr,ble, ya que su estad.o es simplemente una combinacin de las entradas
.y
salidas anteriores.
Modelos predictivos basados en redes neuronales recurrentes de tiempo discreto. Juan Antonio Prez Ortiz
Tesis doctorales de la Universidad de Alicante. Tesi doctoral de la Universitat d'Alacant. 2002
3. MODELOS
Adems de incorporar a la red las p
-
1 entradas anteriores, Ias redes
NARX1 (Narendra y Parthasarathy 1990) aaden las q salidas anteriores de
la red. Una red NARX colr orden cle entrada
'p
v orden de sali,da n viene
defi ni da oor l as ecuaci ones:
u;l tl : n,
( 3. 18)
Se ha usado z para Ias neuronas interrnedias y no r par eviiar confu-
siones, ya que) como se ha comenla,clo, el estaclo de las NARX tro est, en
ellas, sino en la verrtana de entradas y en Ia, de salidas.
Cuando el estado de Ia red NARX est formado niclnente por las
eutradas anteri ores de l a recl , es deci r, cuando g :
0, se obti ene una red de-
nominada tradicionalmente red neztronal de retardos temporales (Sejnowski
y Rosenberg 1987) (TDNN, por el i ngl s tune-del ayed neural network).
Por otro lado, si eliminamos el conjunto de neuronas interrnedias (con
activaciones zltl) de la red NARX para permitir as la conexin directa en-
tre la entrada y Ia salida de la red, y usarnos la identidad corno funcin de
activacin para gy, obtenemos el modelo cle filtro de respuesta de tiempo
inf,ni,to al irnpulso (IIR, por el ingls infi,nite-time'impulse response), am-
pliamente utilizado en teora de la serial (Oppenheim y Schafer 1989; Proairis
y
Manolakis 1998) y cuya ecuacin es:
(E'""'u+w:)
l " u
o
nY
a
\
z[t]
:
n,
lr,L*,in;",1t
-
k + 1l +
t lwi,flk)uitt
-
kl +
vt

|
\ . r : t
k: t j : r
k: r
/ . r r l
u;ltl
:
t I
wl,,i,r"lt
-
k + 11 +
t Lrni,,:,rr,lt
-
kl + wy (3 20)
; - 1 L - I , l - r l - - 1
Finalmente, si las consideraciones anteriores se aplican a una red'IDNN
(esto es, si se hace g: 0 en la ecuacin anterior), se obtiene las ecuaciones
de un filtro d.e respttesta de tiernpo
fi.ni.to
aI'irnptLlso (FiR, por el ingis
f.rr,ite-
ti.me impulse response), tarnbin mrry usaclo en teora la seal (Oppenheini
y Schafer 1989; Proaki s y Manol aki s 1998):
n u p
ai[t]
:
t I
wili*t"lt
-
k + tl + w!
j =7 k : I
( 3. 21)
' Aunque
aparezca en una seccin aparte, la red NARX tambin puede considerarse
como una red de primer
oden.
Modelos predictivos basados en redes neuronales recurrentes de tiempo discreto. Juan Antonio Prez Ortiz
Tesis doctorales de la Universidad de Alicante. Tesi doctoral de la Universitat d'Alacant. 2002
3.2. MODELO DE MEMORIA A CORTO Y LARGO PLAZO
s z z) ( ^ )
^ s M( r )
Figura 3.4: Un bloque de menroria con una uica celda. La elrtrada de Ia ceLda
se represerrtacon Z,la activacin de ia conrpuerta de entrada con r[,la activacin
de la compuerta de salida con
1,
la activacin del CEC con r y la activacin global
de la celda con z.
3.2. Model o de memori a a corto y l argo pl azo
Para comprender totaltnente el modelo de memoria a corto y largo plazo
(LSTM, por el ingls long short-term rnemory) es fundamental conocer el
problema del gradiente evanescente que las motiva y la manera con la qr.re el
modelo intenta superar este problema. Pero para ello es necesario discutir
previamente ciertos aspectos relativos a los algoritmos de entrenamiento
de RNR y al clculo del gradiente de la funcin de error. En el captulo
siguiente se estudian estos aspectos y, entonces) se introducen los principios
en los que se basa la red LSTM. En este apartado, por tanto, nos limitaremos
a presentar la configuracin y las ecuaciones que definen el modelo.
Ei componente bsico del modelo LSTM (Hochreiter y Schmidhuber
1997) es el bloque de memoria, que contiene una o ms celdas de memo-
ria, una cornpuerta de entrada y una compuerta de salida. Las compuertas
son unidades multiplicativas con activacin continua (normalmente dentro
del intervalo unidad) y son compartidas por todas las celdas que pertenecen
a un mismo bloque de memoria. Cada celda contiene una unidad lineal con
una conexin recurrente local llamada carntsel de error constante
(CEC);
la activacin del CEC se conoce como el estado de la celda.
La figura 3.4 muestra uno de estos bloques de memoria con una, irnica
celda; esia, figura es til tambin para introducir la notacin relativa al
modeio que se utilizar a 1o largo de la tesis. La figura 3.5 muestra r,rn bloque
de mernoria con dos celdas, que cornparterr las compuertas del bloque'
Modelos predictivos basados en redes neuronales recurrentes de tiempo discreto. Juan Antonio Prez Ortiz
Tesis doctorales de la Universidad de Alicante. Tesi doctoral de la Universitat d'Alacant. 2002
3. MODELOS
gz( z t )
gMwi l )
gu(zz)
Fi gura 3.5: El bl oque de memori a i -si mo con dos cel cl as.
Cacla celda recibe como entrada una coleccin de valores (ponderados
mediante los pesos correspondientes) provenientes de la entrada de la red
y de las salidas de todas las celdas del modelo en el instante anterior. La
compuerta de entrada se encarga de perrnitir o impedir el acceso de estos
valores al CEC del interior de Ia celda. La compuerta de salida realiza una
accin similar sobre la salida de la celda, tolerando o reprimiendo Ia diiusin
del estado del CEC al resto de Ia red.
Los bloques de memoria configuran una red LSTM como puede verse en
Ia figura 3.6, donde no se indican los sesgos de las distintas neuronas del
modelo. La existencia de las conexiones con pesos WY'u determina la natu-
ral eza de l a red segn l o di scuti do en2.2. As, si se permi te Ia exi stenci a de
esta conexin, la red LSTM se puede considerar como una mquina neuronal
de estaclos de Mealy; si no se permite, la red LSTM puede considerarse corno
una mquina neuronal de estaclos de Moore. El estado de la red LSTI\{ est
formado por las a,ctivaciones de las compuertas, e1 CEC y las celdas cle los
bl oques de l nemori a.2
Basndonos en la notacin ya introducida, a continuacin se describe
brevemente i a correspondi ente a l a red LSTM. Sean ny, ny) TLM y rt6 eI
nmero de neuronas de entrada, salida, bloques de memoria y celdas pclr
bl oque. respecti vanrente. La entrada en el i nstante I se denota con u[t] y
2Ntese
cmo los valores de algunos componentes del estado, en especial la activacin
de los CEC, no estn a,cotados.
Modelos predictivos basados en redes neuronales recurrentes de tiempo discreto. Juan Antonio Prez Ortiz
Tesis doctorales de la Universidad de Alicante. Tesi doctoral de la Universitat d'Alacant. 2002
3.2. MODELO DE MEMORIA A CORTO Y LARGO PLAZO
Figura 3.6: Una red LSTM con dos bloques de memoria de dos celdas cada uno.
Solo se muestran algunas conexiones y no se rnuestran Ios sesgos.
la salida correspondiente con yft]. La salida de la
j-sima
celda del bloque
-simo se representa con zltl.
Como ya se vio antes, al representar los pesos) los superndices indican
el clculo en el que est involucrado el peso en cuestin: el "@, z" en W,"
indica que el peso se usa para calcular la activacin de una compuerta de
entrada (/) a partir de la de una celda (z); el "J"
"n
trV'r indica que el sesgo
se usa para calcular Ia activacin de urla compuerta de salida. Los subndices
indican las unidades particulares afectadas por el peso y van paralelos a los
superndices.
3.2.1. Cl cul o de l a funci n de sal i da
La activacin de la compuerta de entrada del i-simo bloque de memoria
{
se calcula como:
o[]
;it1
nM nC nU
t t
w!;i zult
-
tl +
Y,wf,tr
ultl + w!
Q.22)
j : l
k: 1 j : l
gc(o[]) (3.23)
Modelos predictivos basados en redes neuronales recurrentes de tiempo discreto. Juan Antonio Prez Ortiz
Tesis doctorales de la Universidad de Alicante. Tesi doctoral de la Universitat d'Alacant. 2002
3. MODELOS
donde
96:
es la funcin de activacin de todas las compuertas de la red (1a
funcin logstica, si no se dice 1o coutrario).
La activacin de la contpuerta de salida se calcula como sique:
NM NC
r[]
:
tt
wl;"ezu[t- 1] +
L,w:,i
u[t]
+wl
j : r
k: I j : I
-ylt)
: gc(r[])
nu
(3. 24)
(3.25)
El estado interno de la celda de memoria se calcula sumanclo la entrada
modificada por la compuerta correspondiente con el estado en el instante
anteri or
-
1:
rltl
:
:rlt
-
tl +
alt) sz\Z[t])
(3.26)
donde gz es una funcin de activacin (normalmente sigmoidea y acotada)
n, M nC nu
Zol tl
:
f I
Wi ;,"r,zel t- 1l +
D,r:,,,i u"1.t)+Wf,
(3.27)
L " - 1 - 1
con ri j l O]
:0 pal a todo i .j . La sal i da de l a cel da se cal cul a aj ustan,l o el es-
tado del CEC mediante una nueva funcin de activacin gM y multiplicanclo
el valor resultante por Ia activacin de la compuerta cLe salida:
z
a
ltl
:
y[t)
s xa
(r

lt])
( 3. 28)
Finalmente, si permitirnos
la conexin directa entre la entrada y
las neur.onas
de salida, la salida global de Ia red se calcula mecliante:
nU
Y[t)
:
t I
wl;"u zr"ft]
+
t
w!
,"'
ultl + wl (3.2e)
j : I
k: r j : I
vltl
:
sY(Vltl)
(3.30)
donde gy es, otra vez, una funcin de activacin a,decuada,.
Los pesos que inciden en las compuertas de entrada
),
salida se suelen
iniciar de forrna gue cb[0] y
l[0]
est.. cerca de 0; de esta manera los bloques
de memoria estn desactivados inicialmente y el entrenamiento se centra en
Ias conexiones directas entre la entrada y ia,s neuronas de salida. As, el
protagonismo
de los bloques de memoria va aumentando paulatilarnente
conforme el algoritrno de aprendizaje determina su rol.
Fi nai mente, el nmero de pesos a aj ustar erl una red LSTM es (,nr-tt,s
nu
-l l )(' nv
t n,,1l z:' l 2n).
Modelos predictivos basados en redes neuronales recurrentes de tiempo discreto. Juan Antonio Prez Ortiz
Tesis doctorales de la Universidad de Alicante. Tesi doctoral de la Universitat d'Alacant. 2002
3.2. MODELO DE MEMORIA A COHTO Y LARGO PLAZO
Figura 3-7: Un bloque de memoria con una compuerta de olvido con activacin )
3.2.2. Li mi taci ones de l a red LSTM ori gi nal
El modelo inicial de la red LSTM (Hochreiter y Schmidhuber 1997) ha si-
do aumentado desde su concepcin original para superar algunos probiemas
detectados. A continuacin, se muestran dos de Ias principales modificacio-
nes.
Reticencia a olvidar. Cuando la red LSTM presentada hasta ahora se
aplica a tareas de procesamiento de secuencias de longitud arbitrariamente
larga de forma contintia, el modelo se vuelve inestable debido a que bajo de-
termirradas circunstancias el estado de los CEC crece indefinidamente (Gers
et al. 2000). Para paliar este problema, se incorpora una tercera compuerta
a los bloques de memoria: la compuerta de. olui,do.
La compuerta de olvido (Gers et al. 2000) puede rebajar e irrcluso anular
el estado interno de la celda, esto es, Ia activacin del CEC, cuando sus
contenidos caducan. Estas compuertas permiten que Ia red LSTM pueda
procesar establemente secuencias de longitud a,rbitrariamente larga.
La figura 3.7 muestra la nueva imagen de los bloques de meinoria con
la adicin de la cornpuerta de olvido. Como ocurra con las compuertas de
entrada y de salida, la cornpuerta de olvido es cornpartida por todas las
ceidas ciel bloque.
Modelos predictivos basados en redes neuronales recurrentes de tiempo discreto. Juan Antonio Prez Ortiz
Tesis doctorales de la Universidad de Alicante. Tesi doctoral de la Universitat d'Alacant. 2002
3, MODELOS
La activacin de las compuertas de olvido l; se obtiene calculando:
A
[]
)[]
nI4 nC
I t wl ; i zul t -t )
j : I
k: t
gc(Llt))
nu
+ \ - I , 7. ) : " t , . l l l + W\
t t , 1\
,
/ _ , ,
i . , j
e l p J I
v ,
i \ . r /
; _ I
( 3. 32)
Al consi derar l as compuertas de ol vi do, Ia ecuaci n (3.26) cambi a su
forma. El estado interno de la celda de memoria se calcula ahora sumando
la entrada modificada por Ia compuerta correspondiente y el estado en el
instante anterior
-
1 multiplicado por la correspondiente compuerta de
ol vi do:
rlt)
:
),itlrt
-
1l + ,bltl gz(Ztt)) ( 3. 33)
Los pesos de las compuertas de olvido se irricializan normahnente de
manera que )[0] est cerca de 1; con esta i ni ci al i zaci n,l as cel das no ol vi ci an
nada hasta que aprendan cmo olviclar.
Ai sl ami ento del estado. Al rnodel o base anteri or se l e ha aadi cl o reci en-
tetncnte (Gers y Schmi dhuber 2001) una seri e de coneri ones ce mi ,ri ,l Lcr) que
perrniten ia conexin directa entre el CEC y las compuertas que 1o contro-
lan. Aunque Ia misin de las compuertas es controla.r de un moclo u otro el
estado de los cEC, el modelo original no permita qrie las compuertas pu-
dieran acceder directamente a dicho estado interno; con esta amplincin del
modelo, cada compuerta dispone de una miri,lla desde Ia que poder observar
el i nteri or del bl oque de memorj a. Estas rl l l evas conexi ones son uecesari as,
como veremos, para poder aprender aigunas tareas.
La figura 3.8 muestra el bloque de memoria de la figura 3.2 con el aadido
de ias conexiones de mirilla. Cada conexin de mirilla tiene un peso asociaclo
que deber ser ajustado por el algoritmo de entrenamiento correspondiente.
3.3. Red recurrente en cascada
El ltirno de los modelos que verenlos en esta seccin es la recl neuronal
recurreute en casca,da (RNRC), propuesta por Hayki n y Li (1gg5) para rea-
lizar ra prediccin de la siguiente muestra cle una seal de voz. Daclo que la
RNRC se ha utilizado nicamerite en este tipo de tareas de procesamiento
de seales, describiremos el modeio en este contexto, de manera que la sa-
lida de la red ser un nico vaior y la entrada ser la concatenacin de las
muestras recientes de la seal, esto es, una ventana temporai de entradas.
Grosso modo,la RNRC puede considerarse corno una serie de n,, redes
en cascada con pcsos compartidos. Todas las redes son RPR, excepto Ia
Modelos predictivos basados en redes neuronales recurrentes de tiempo discreto. Juan Antonio Prez Ortiz
Tesis doctorales de la Universidad de Alicante. Tesi doctoral de la Universitat d'Alacant. 2002
3,3. RED RECURRENTE EN CASCADA
Figura 3.8: un bloque de lnemoria con conexiones de mirilla, que conectan el
estado del CEC con cada una de }as compuertas.
Fi gura 3.9: Esquema de l a red recurrente en cascada (Hayki n y Li 1995).
n,-sima, que es una RTR con el mismo nmero de pesos (vase el aparta-
do 3.1.1). Un esquema de l a RNRC se muestra en l a fi gura 3.9.
Teniendo en cuenta que cada rndulo de la red puede verse como una
RPR, que los pesos son idnticos para los distintos mdulos
y
la,s ecuacio-
nes (13,1) a (3.4), Ia sal i da del mdul o rn-si mo en el i nstante f vi ene ci efi ni da
f:
' r-----
t -
I
| ,----------
;l
RrR,,,
l---T
t r t l
t t t l
I
LJ . - r l . I
I
t t - t l
t=l
'----til
Modelos predictivos basados en redes neuronales recurrentes de tiempo discreto. Juan Antonio Prez Ortiz
Tesis doctorales de la Universidad de Alicante. Tesi doctoral de la Universitat d'Alacant. 2002
por:
yr
)ltl
: gv
/ n x
(r"-' t' -
nu
I
W!'
+ u(^) W
a'"
+
L
"l'-'
ltl
W!'"
3. MODELOS
( 3. 36)
( 3. 3e)
* * ' )
(3. 34)
donde el estado del z-simo mdulo es:
( m\ , , ,
/ + l
( m. \ , .
- 1 t r r a i , .
n
"
\
ri
' LtJ:
sx
I
Lrl ^)
[
-
1] wf]"
+r@)w,f,," +
!
"!*)[t]wf.i
+tvy
I
\ r : t i : r
/
( 3. 35)
En lo anterior, gX
t*
gy son funciones cle activacin y
,u(-)
es la salicla
del mdulo anterior si rn
(
n o bien la salida pasada clel propio mrlulo si
m
:
' nM.
es deci r:
. , ( - ) r nt -
g{ * +r ) l t |
m1n
. ,
L' r
-
\ , ( nu) [
_
f ] r n: nM
El error de la red3 es urla combinacin lineal de los errores e(-.) cle cada
uno de l os mdul os:a
(3. 37)
n: I
donde.\ es un
factor
de ol ui do erponenci al en el rango 0 < )
(
1; el i nverso
de 1
-
) es una especie de indicador de la rnemoria de la R.NRC. La seal
de error de cada mdulo, utilizada en la ecuacin anterior es:
"(,[t]:
(a@)l tl
-
y{,.)t1)
( 3. 38)
A1 aplicar Ia red a la precliccin de seales nurnricas cie la forma s[t], se
hace n
:
p, donde p es el orden del predictor. Las p rnuestras cle entracla
a cada mdul o son:
' u' ")
[t]:
s[
-
(m + i
-
r)]
y l a sal i da deseada del mdul o rn es:
t ^) f f i : s[ - m+J, ]
El t)
:
Ii
^^-'
("t-r
t,'
(3. 40)
3Como
veremos en el siguiente captulo, el errcr es utilizaclo por los algoritnios de
entrenamiento para ajustar los pestts de la. red neuronai.
' *Ntese
que el superndice de ) es en este cr.so un exDonente.
Modelos predictivos basados en redes neuronales recurrentes de tiempo discreto. Juan Antonio Prez Ortiz
Tesis doctorales de la Universidad de Alicante. Tesi doctoral de la Universitat d'Alacant. 2002
3.3. RED RECURRENTE EN CASCADA
De esta manera la salida g@)Vl se puede interpretar como una estimacin
del valor de la seal en el instante
-
rn * 1. y, por tanto:
vQ)
:
3[ t ] (3. 41)
La salida del primer mdulo es Ia prediccin global del sistema.
Modelos predictivos basados en redes neuronales recurrentes de tiempo discreto. Juan Antonio Prez Ortiz
Tesis doctorales de la Universidad de Alicante. Tesi doctoral de la Universitat d'Alacant. 2002
Volver al ndice/Tornar a l'ndex
Modelos predictivos basados en redes neuronales recurrentes de tiempo discreto. Juan Antonio Prez Ortiz
Tesis doctorales de la Universidad de Alicante. Tesi doctoral de la Universitat d'Alacant. 2002
4. ENTRENAMIENTO
Una vez seleccionado el modelo neuronal con el que resolver un de-
termnado problema, surge la, cuestin de cmo deteminar el vor de
los pesos de la red que permiten resolverlo con xito. Los algoritmos
de entrenamiento se encargan de intentar encontrar esta configuracin
coruecta. En este captulo se muestran algunos de los ms utilizados
con RNR, principalmente el descenso por el gradiente y el fiitro de
Kalman extendido desacoplado. Ambos se basan en el cIculo de la
derivada de Ia funcin de error; dos son las formas rns habtuales de
obtener estas derivadas: el aprendizaje recurente en tiempo real y la
retropropagacin a travs del tiempo.
4.1. Al gori tmos de entrenami ento supervi sado
Cuando se desea resolver una determinada tarea con la ayuda de urra
RNR, lo primero que se debe considerar es el tipo de red que se va a utilizar.
La eleccin no es trivial: hay problemas que se resuelven a,ceptablemente
bien con un tipo de red, pero que son muy difciles (o imposibles) de resolver
con otro.
El nmero de entradas y de neuronas de salida vienen deterrninados por
la naturaleza de la tarea a resolver, por el tipo de secuencias a procesar o por
la codificacin utlizada para sus elementos. Otros valores como el nmero de
neuronas de estado o el orden de entrada o salida debern ser determinados
tras experimentar con distintas combinaciones o usar los lmites dados en la
teora para al gunos ti pos de tarea.l
A continuacin debe entrenarse la red para ajustal sus parmetros libres
(los pesos habitualmente). Atendiendo a la forma en que se presentan los
datos, Ios algoritmos de aprendizaje pueden dividirse en dos categoras:
lpot u:"*plo, r.r"
""*t*u
n"ito determinista puede codificarse sobre una RRS con
"x
:
l Ql l t l
neuronas de est ado (Carrasco et al . 2000). Si est amos i nt ent ando que una
RRS aprenda un lenguaje regular a partir de ejemplos, podemos har:er una. estimacin de
lQl
y utilizarlo para calcular el valor de ny.
35
Modelos predictivos basados en redes neuronales recurrentes de tiempo discreto. Juan Antonio Prez Ortiz
Tesis doctorales de la Universidad de Alicante. Tesi doctoral de la Universitat d'Alacant. 2002
4. ENTRENAMIENTO
Entrenam'iento superu'sado. En este tipo de algoritmos la red neuro-
nal cuenta con el apoyo externo de un "rnaestrott que irrfcrrrna de ia
correccin de la salida producida por Ia red de acuerdo con Ia salida
considerada cotrecta.
Entrenarn'iero no superu'isado. En este caso llo existe tal maestro
5r
la red neuronal debe extraer sin ayuda caractersticas de los datos que
se l e sumi rri stra.
Este trabajo se centra en el uso de RNR para la prediccin del siguiente
elemento de distintas secuencias; por ello, todos los algoritrnos de aprendi-
zaje estudiados sern supervisados. Durante el entreiramiento, la entrrda
al algoritmo ser una representacin del elemento actual (o de1 actual y de
algunos de los anteriores, si se utiliza una ventana temporal cle entradas)
;y
ia salida deseada ser la representacin del siguiente elemento.
Para entrenar la RNR de forma supervisada se necesita nolrnalmente
algrn tipo de m,edi,da del enor E[] que describa Ia adecuacin de la sali-
da proporcionada, por la red al valor deseado. Los parrnetros se ajustan
i ntentancl o mi ni mi zar este error.
La funcin de error ms habitual es la funcin de error cuadrtico, defi-
nida para el instante corno:
E[t1:
l i r,l t]
-
anl tl )'
( 41\
L : T
donde d[] es Ia sali,da deseada r objetiuo para la z-sima neurona de salicla
en el instante t e yltl es la salida correspondiente cle la, red.
Una posible forma de ertcontrar la solucin que minimice el valor del ercr
es la bsqueda exhaustiva sobre todas ias posibles cornbinaciones de valores
de los pesos (o sobre un conjunto finito io suficienternente significativo de
posibles valores). Evidentemeute, esta forrna de resoltrcin es intratabie
en la mayora de los casos. Si el problerna a aprender es sencillo, puede
que una estrategia basada en gerlerar aleatoriamerrte conjuntos de valores
para l os pesos funci one (schrni dhuber y Hochrei ter 1g96). En general , si n
embargo, se hace necesaria la utilizacin de algn tipo de heurstica que
recorte el espacio cle soluciones a explorar; esta es la labor de los algoritmos
de entrenanriento.
4.L.L. Aprendi zaj e en l nea y fuera de l nea
Strpongamos una red neuronal que se est utilizando para el procesa-
mieuto de secuencias. Si Ia red se aplica r Ia clasificacin de secuencias, por
Modelos predictivos basados en redes neuronales recurrentes de tiempo discreto. Juan Antonio Prez Ortiz
Tesis doctorales de la Universidad de Alicante. Tesi doctoral de la Universitat d'Alacant. 2002
4.1. ALGORITMOS DE ENTRENAMIENTO SUPERVISADO
ejemplo, el conjunto de entrenamiento contendr una serie de secuencias
cuya clasificacin es conocida de antemano. El algoritmo de entrenamiento
debe conseguir que Ia red "aptenda" estas clasificaciones. Otras veces puede
quererse que la red procese una nica sectrencia en tiempo real.
En algunos casos) la red neuronal se somete a una fase de entrenamiento,
tras la cual sus pesos se congelan. Durante esta fase a la red se Ie presentan
(normalmente ms de una vez) los datos del llamado conju,nto de entrena-
m'ento. A continuacin, esta red neuronal se euala sobre un nuevo conjunto
de datos para determinar la correccin del aprendizaje.
En otros casos) las fases de entrenamiento y evaluacin no estn tan
claramente separadas y Ia salida de la red se usa simultneamente como
punto de referencia para cambiar los pesos y como producto utilizado en la
resoiucin de la tarea en cuestin.
Cada tipo de procesamiento requiere una estrategia de aprendizaje dis-
tinta, Segn la forma de actualizar los parmetros libres (pesos y sesgos,
normalmente) de la red neuronal, los algoritmos de entrenamiento supervi-
sado pueden dividirse en las siguientes cuatro clases:
t Entrenam'iento en lnea. Puede subdividirse en:
-
En lnea por elementos o en lnea puro. Esle tipo de algoritmo
se utiliza cuando se pretende que la red trabaje en t'iempo real,
dando urta salida 1o ms cortecta posible a, Ios elementos de la se-
cuencia surninistrados en cada instante. Es habitual en este caso
no distinguir las fases de entrenamiento y evaluacin. Se consi-
dera una funcin de error instantneo y los pesos se actualizan
inmediatamente despus de considerar cada elemento.
Este tipo de entrenamiento se hace especialmente necesario al
tratar con entornos no estacionarios en los que las estadsticas de
Ias fuentes de datos cambian con el tiempo.
-
En lnea por secuenc'ias. En este caso, Ios pesos se siguen ajus-
tando tras el procesamiento de cada elemento, pero, adems, se
permite reiniciar el estado de la red en momentos determinados
del entrenamiento, normalmente al final de cada secuencia.
Enh'enam'i,ento
fuera
de lnea. Los algoritrnos pertenecientes a este
tipo de entrenarniento pueden a su vez subdividirse en:
-
Fuera de lnea por secuenci,as. La actualizacin de los pesos rea-
lizada por el algoritmo se lleva a cabo tras la presentacin de
cada secuencia. La funcin de error cousidera todos los errores
Modelos predictivos basados en redes neuronales recurrentes de tiempo discreto. Juan Antonio Prez Ortiz
Tesis doctorales de la Universidad de Alicante. Tesi doctoral de la Universitat d'Alacant. 2002
4. ENTRENAMIENTO
instantneos cometidos sobre cada uno de los elementos de la
secuencia.
Fuera d,e lnea por pocas o por lotes. Los pesos se actualizan
una vez presentada^s todas las secuenc,ias, es decir. nicamente
despus de ver todo el conjunto de entrenamiento, periodo que
se denomina poca. La funcin de error considera, por tanto, Ios
errores cometi dos sobre todo ese coni unto.
4.2. Predi cci n numri ca con redes recurrentes
La forma de utilizar una RNR para la prediccin del siguiente elerrrento
de una secuencia numrica es aparentemente sencilia: ia muestra s[t] se
introduce en las entradas de la RNR (directamente con su valor o bien con
uu valor normaiizado sobre un determinado rango) y se computa con etla ia
sal i da correspondi ente g[]. Esta sal i da se consi dera como una esti maci n
del val or de l a si gui ente rnuestra de l a seal , esto es, gl t] :3[+
1], con l o que
el val or de l a sal i da deseada usado en l a funci n cl e error es d[f] :
sP + 1].
La funcin de activacin de las nellronas de salida debe aiustarse ade-
cuadamente ai rango de posibles valores de la seal.
4.3. Predi cci n si mbl i ca con redes recurrentes
Ei caso de prediccin sobre secuencias sirnblicas es un poco rns elabo-
rado. Consi deremos que t enemos un al f abet o E:
{ot , . . . , oj q}
a part i r
del cual se generan secuenci as t emporal es de l a f orma
"[ 1] ,
. . , s[ t ] , . . . , sl L).
Para predecir el siguiente smbolo de la secuencia con una RNR debemos
determinar varias cosas: crno se representa cada uno de los smbolos de x
y cmo se realiza el entrenamiento de la red para esta tarea.
La forma ms habitual de codificar los distintos smbolos o6 e E para
su procesamiento por una RNR es la denominada codificacin erclus,iua. En
ella, todos los smbolos se codifican mediante vectores unitarios de tamao
l El ,
de forma que l a representaci n del smbol o o r1 r espaci o
[0,
tl l rl
"u
obtiene a travs de Ia funcin de codificacin:
C2 : D
----.
[0,
tllrl
en la que el j-simo
componente de la imagen es:
( Cy( o ) ) : 6,
o D,
i
:
I , . . .
, l t l
y donde es la funcin delta de Kronecker, definida como:
( 4r \
a -
. I I s l ? : ?
A . . _ /
\ J
|
( )
el r of r o caso
L "
(4. 3)
Modelos predictivos basados en redes neuronales recurrentes de tiempo discreto. Juan Antonio Prez Ortiz
Tesis doctorales de la Universidad de Alicante. Tesi doctoral de la Universitat d'Alacant. 2002
4.3. PREDICCIN SIMBLICA CON REDES RECIJBRENTES
Es decir, el smbolo o s representa mediante un vector unitario en el que to-
dos los componentes excepto el z-simo son cero. Cada smbolo se representa
con el mismo vector durante todo el entrenamiento.
Cuando se entrena una RNR para predecir Ias probabilidades del si-
guiente smbolo de una secuencia, en el instante se alimenta Ia red con la
entrada:
u[ t ) : C ( s[ t ] ) (4.4)
y la salida obtenida
Vt[]
se puede interpretar (como veremos a continua-
cin), despus de normalizarla para, que todos sus componentes sumen uno,
como la probabilidad de que el siguiente smbolo de la secuencia sea o.2
Para reajustar los pesos de la red, se considera como salida deseada para el
algoritmo de entrenamiento supervisado:
dl t ): C(sP + 1l ) (4. 5)
Cuando la codificacin exclusiva se aplica a las entradas, el nmero de
entradas es ng
:
lXl,
y puecle considerarse que cada smbolo selecciona una
determinada dinmica de la red. Al aplicar este tipo de codificacin tambin
a las salidas deseadas, el nmero de neuronas de salida S n1,
:
lll
4.3.1. Convergenci a
A continuacin se demuestra que en el caso de que el entorno sea es-
tacionario, el entrenamiento se haga fuera de lnea por pocas (es decir, se
consideren todos los datos disponibles antes de reestimar los parmetros)
y se utilice una funcin de error cuadrtico, el mnimo de esta se produce
cuando la salida
A,ttl
de la red es la probabilidad condicionada de obtener o
despus de haber visto todos Ios smbolos de la secuencia hasta el instante
(Kremer 1997).
En efecto, Ia contribucin al error total debida al smbolo s[t] de una
de las secuencias
.iene
dada, si consideramos Ia funcin de error cuadrtico
( 4. 1) , por :
LIro_
autti)2
( 4. 6)
clonde la sa,lida deseada d[] es la codificacin exclusiva del smbolo s[t + 1].
El error asociado a la neurona cle salida i-sima es, por tanto, (1
-
y)2 si
s[t
-r
1]
:
oi e
11f;
en caso contrario.
' En.
la.s tale^s de prediccin el alfabeto cle entrrda y erl de salida sucle ser el urisrno
Modelos predictivos basados en redes neuronales recurrentes de tiempo discreto. Juan Antonio Prez Ortiz
Tesis doctorales de la Universidad de Alicante. Tesi doctoral de la Universitat d'Alacant. 2002
4. ENTRENAMIENTO
supongamos que N secuencias de la rnuestra de entrenamiento tienen
el pref i j o u
:
s[ 1] , "[ 2] , . . . , s[ t ] en comn y que de el l as n cont i nan con el
srnbolo o
!
N
-n
con un smbolo distinto de E-
{o}.
si estas ly' secuerrcia,s
comparten el mismo prefijo u, significa que el nrismo estado rltl y, por tanto,
la misma salida g[] sern obtenidos exactamente N veces durante una poca
en el contexto de u. Entonces, puede considerarse el error acumulado debiclo
a,l prefijo u como:
n(1
-
anl tl )' +
(/
-
n)(si [)2
Deri vando l a ecuaci n anteri or con respecto a
Ai l tl ,
obtenemos:
(4. 7)
-2rt (I -
a[ t ))
+ 2(N
-
n)y[ t ] l:1" R)
La segunda deri vada es 2N ) 0. Luego el mni mo se obti ene cuancl o yi [t]:
n,f N, es decir, cuando e1 valor predicho por la red neuronal para el smbolo
o tras leer el prefijo u coincide con la frecuencia relativa con clue o, sigue a
u. un buen algoritmo de entrenamiento clebera descubrir este rnnimo.
En el caso del apreirdizaje en lnea se puede coustatar ernpricamente
que las salidas tienden a valores cercanos a las probabilidades reaies, auu-
que la propia naturaleza temporai clel entrenalniento no perrnite demostrrr
una cotlvergencia eventual como en el caso anterior. Las dos principales su-
posiciones de Ia discusin anterior clue no se mantienern en el entrenamiento
en l uea son:
1. como los pesos se ajustan de forma continua, las l/ zrpariciones crel
prefijo u no resultarn en el mismo estado
y
en la misma salida de ia
red.
2. La funcin de error ya no es global y la existencia de unos mnimos
adecuados ya no es demostr:ible, al menos no de forma tan sencilia
como en el caso del aprendizaje fuera de lnea.
El entrenamiento en lnea puedr: ser preferible en ocasione-sr y& que suele
provocal una reduccin en ei tiempo de aprerrdiz:je con respecto a las es-
trategias fuera de lnea y, adems, es idneo para eniornos no estacionarios.
Eiman (1990) conietur que ia RRS debera desarlollar representaciones i-
ternas de las propiedades temporales de las secuericias de entracla. Aunque
as ocurre de hecho, el entrenamiento usado en su artculo era en inea _v,
como ya hemos ccrmentado, la fatta d.e un modelo terico corrpieto para este
tipo de aprendiza.je hace difcil demostrar. algrn tipo de equivalencia
-,en
el
Irnite" con el aprendizaje fuera de lner.
Modelos predictivos basados en redes neuronales recurrentes de tiempo discreto. Juan Antonio Prez Ortiz
Tesis doctorales de la Universidad de Alicante. Tesi doctoral de la Universitat d'Alacant. 2002
4.4. MTODOS BASADOS EN DERIVADAS
4.4. Mtodos basados en derivadas
Los algoritmos de entrenamiento modifican los parmetros configurables
de Ia red3 intentando minimizar la medida de error -D; es un probletna
complejo de optimizacin sin restricciones para el que es necesaro aplicar
criterios heursticos.
Los principales algoritmos de entrenamiento se basan en el clculo del
gradiente de la funcin de error, esto es, de la derivada de la funcin de
error con respecto a los distintos parmetros ajustables de la red. Se trata
de intentar encontrar el mnimo de la funcin de error mediante la bsqueda
de un punto donde el gradiente se anule.a
Una de las variantes basadas en el gradiente mas utilizadas es el descenso
por el gradiente. En l los sucesivos ajustes realizados a los parmetros se
hacen de forma individual para cada uno de ellos, digamos W, en sentido
opuesto al vecto de gradiente 7Eln)l)W[n]:
donde G es un parrnetro conocido como asa de aprendizaje, que ha de
tomar un valor convenientemente pequeo. Al pasar de la iteracin5 n a Ia
'n
* 7, el algoritmo aplica la correccin:
trlnl
Wl n' f l l
:
W1"]
- ^
-
" L' "r
-
}Wlnl
LWi l nl : Wl n+ 1l
-
Wl nl :
-*
P4.
.
LL. - r
_,
) Wl nl
(4. e)
( 4. 10)
Puede demostrarse (Haykin 1999) que para valores positivos muy pe-
queos de la tasa de aprendizaje y funciones de error globales, la formulacin
del algoritmo de descenso por el gradiente permite que la funcin de error
decrezca en cada iteracin. La tasa de aprendizaje a tiene, por tanto, una
enorme influencia en Ia convergencia del mtodo de descenso por el gradien-
te. Si a es pequea, el proceso de aprendizaje se desarrolla suavemente, pero
la convergencia del sistema a una solucin estable puede llevar un tiempo
excesivo. Si a es grande, la velocidad de aprendizaje aumenta, pero exis-
te el riesgo de que el proceso de aprendizaje diverja y el sistema se vuelva
i nestabl e.
Es habitual aadir un trmino de momento (Plaut et al. 1986; Rumelhart
et al. 1986) a (4.10) que en ocasiones puede acelerar el aprendizaje
y reducir
' N".*.I*""t"
I"" p"."r d" lr *d, aunque tambin pueden considerarse otros elementos
corno ei estado iniciai z[0] (Bulsari y Saxn L995; Forcada y Carrasco 1995).
aEsta
condicin es necesaria, pero no suficiente debido a la existencia de mnimos
locales. nrxinros o puntos de silla; de ah el carcter heurstico del mtodo.
sEl
momento preciso de la actualizacin de los parmetros depende del carcter en
lnea o fuera de lnea del entrenanriento.
Modelos predictivos basados en redes neuronales recurrentes de tiempo discreto. Juan Antonio Prez Ortiz
Tesis doctorales de la Universidad de Alicante. Tesi doctoral de la Universitat d'Alacant. 2002
4. ENTRENAMIENTO
el riesgo de que el algoritmo se vuelva inestable. La nueva ecuacin de
actuaiizacin del parmetro ajustable l\' tiene la forma:
LWl nl : Wn+ 1l
-
Wl nl :
-"
HH
+
1LWl n
-
Il
dwi l nl
clonde a es la ta,sa de aprendizaje y
f
es Ia constante de rnomento.
( 4. 11)
El efecto del momento es el siguiente: si la cterivada parcial del error
tiene el mismo signo algebraico durante varias iteraciones seguidas (lo que
indicara que se est descendiendo por una "ladera"), el trmino LWl1'r,] ir
crecienclo y el incremento del parrnetro ser may'or; si la derivacla parcial
cambia de signo constantemente (inclicacin de que el algoritrno se encuentra,
en ulra zona complicada), el vaior de LWIn) se va reduciendo y el parmetro
se ajusta de forma ms precisa.
Existen otros mtodos de optimizacin ms sofisticados (por ejempio,
mtodos que consideran Ia informacin suministrada por las derivadas de
segundo orden6), que) en general , proporci onan rnefores resul tados que el
clescenso por el gradiente, a veces simplemente corr una leve modificacin.
Algunos de ellos son el mtodo de Newton, e1 algoritrno de Levenberg-
Marquardt o el mtodo de Ios gradi entes conj ugados (Shephercl l gg7). Todos
elios han sido utilizados abundanternente sobre redes no recul'retltes y esca-
sarnente con redes recurrentes (Chang y Mak 1999; Chan y Szeto l ggg).
A continuacin veremos tres algoritmos de entrenamiento que se basan
en el clculo del gradiente. Los dos prinreros, el aprendizaje recurrente en
tiempo real y la retropropagacin a travs del tiempo, de hecho, usan el
descenso por el gradiente y se pueden considerar ms bien como formas
distintas de calcular el valor de Ia derivada correspondiente. EI tercero
de ellos, el filtro de Kahnan extenclido desacoplado) usa de un modo ms
elaborado que el descenso por ei gradiente las derivadas de la funcin de
error, calculadas de cualquiera de las dos formas anteriores.
4.5. Aprendi zaj e recurrente en ti empo real
Como ya se ha dicho al final del apartado anterior, eI aprendizaje re-
currente en t'iempo real (RTRL. por el ingls real-t'irne recurrent leanti,ttg)
(Williams y Zipser 1989) se considerar aqu como una forma de calcular las
derivadas parciales de la funcin de error, aunque algunos autores se refieren
a l como un algoritmo de entrenarniento per se al combinarlo con el ajuste
de pesos realizado con el descenso por el gradiente.
oEn
cualquier ca^so, los mtodos de segundo orden no evitan el problerna cle los mnimos
locales.
Modelos predictivos basados en redes neuronales recurrentes de tiempo discreto. Juan Antonio Prez Ortiz
Tesis doctorales de la Universidad de Alicante. Tesi doctoral de la Universitat d'Alacant. 2002
4.5. APRENDIZAJE RECURRENTE EN TIEMPO REAL
Con un ejemplo es ms sencillo entender la forma de calcular las deriva-
das en RTRL.
4.5.L. Ej empl o de cl cul o de l as deri vadas del error
En este apartado se derivarn las ecuaciones de RTRL para una RRS,
cuya dinmica viene definida por las ecuaciones (3.5) a (3.8). La derivacin
de las ecuaciones para otros tipos de redes recurrentes suele ser muy similar
a l a de l a RRS.
Consideremos una funcin de error cuadrtico com< la de (a.1). Aplican-
do la regla de la cadena y considerando un parmetro ajustable cualquiera,
se ti ene oue:
ry#:-fu,vt-a,vDH
: 1
(4.12)
(4. 13)
14.1,4)
(4. 15)
( 4. 16)
(4. t 7)
En lo anterior, la derivada AArftllAn depende del parmetro concreto consi-
derado. A continuacin se dan las expresiones de estas derivadas para todos
los pesos y sesgos de la red:7
aytt)
w
oyLlt)
tr
aaltl
AW;
oatltl
w
aatlt)
w
:
sY(Y[t])
syffiltl)
rltl6,
q' -(Yttt\T
rY:u:-:Ltl
'
aw;
nx
ar[t]
gyVLltD>,wi.:#-
:1
- v;,' ;
syVrltl)>_-*,f
W
; - l
7La
derivada de la funcin iogstica es g(r)(1
-
s*)).
La derivada de Ia funcin
tangente hiperblica es I
-
g$(r).
Modelos predictivos basados en redes neuronales recurrentes de tiempo discreto. Juan Antonio Prez Ortiz
Tesis doctorales de la Universidad de Alicante. Tesi doctoral de la Universitat d'Alacant. 2002
4, ENTRENAMIENTO
Para Ia derivacin de las ecuaciones anteriores debe tenerse en
Ias siguientes expresioues:
aw:
6W
:
o'j
aW!:!
6frtr
:
6'6'r
aw:
AW;
"Z, J
0w!:"
dWt r: 6' ' 6' L
awf'",
ffi
:
6,"6,t
cuenta
( 4. 18)
( 4. 1e)
(4.20)
(4.2r)
(4.22)
donde la funcin d, es la delta de Kronecker'j ya definida en (4.3).
Las deri vadrs cl el estado z[t] de l as ecuaci ones (4.15) a (11,17) son recu-
rrentes en RTRL como resultado cle Ia propia recurrencia cle la recl:
(4.23)
or l t ) , . .
(
' Lx
r r r
1l \
awTp
g' x(xl t l )
(ul t l 6.
+ \ - wr' xori nl t
-
L)
)
G, . 24)
-
"
t.k X 11
,'rn
AW;,';'
/
l rl t ]
(
nx
o r'
"\
aw;.;
g'x(xltl)
("-O
-
116, +
p,*mt#f
)
e25)
La implementacin de un algoritmo de descenso por el gradiente a partir
de estas ecuaciones es sencilla.
4.6. Retropropagaci n en el ti empo
Al igual que hicimos con HIRL, consideraremos la retropropagacin a
travs del tiempo (BPTT, por el ingls backpropagatton tltrough ti,rne) (Ru-
melhart et al. 1986; Williams y Peng 1990) como una forma de calcular las
derivadas parciales de Ia funcin de error con respecto a los parmetros ajus-
tables de Ia red, aunque hay autores que denominan BPTT a la combinacin
de lo anterior con el descenso por el gradiente.
Al calcular ias derivadas parciales en BPTT se asulne que el comporta-
miento temporal de Ia RNR puede ser desplegado en el espacio en forma de
W
:
g'xq"td)
(u,,,
*
2'rcff)
Modelos predictivos basados en redes neuronales recurrentes de tiempo discreto. Juan Antonio Prez Ortiz
Tesis doctorales de la Universidad de Alicante. Tesi doctoral de la Universitat d'Alacant. 2002
4.6. RETROPROPAGACION EN EL TIEMPO
Figura 4.1": Una RRS desplegada eu el instante t segn BPTT.
red hacia adelante. Es posible aplicar entonces el conocido algorrtmo de re-
tropropagacin (Rumelhart et al. 1986) para calcular las derivadas parciales
de este tipo de redes.
El despliegue de la RNR hace que la red hacia adelante (red ertendi,da)
vaya creciendo una y otra vez tras cada instante de tiempo. As, suponiendo
una RRS, las unidades de entrada y las unidades de estado del
jnstante
se convierten en dos nuevas crpas en Ia red extendida; las unidades de
entrada y las unidades ocultas del instante - l" se convierten tambin en dos
nuevas capas de la red extendida; y as sucesivamente hasta llegar al primer
instante de tiempo. Como realmente solo existe un conjunto de unidades de
entrada y de unidades ocultas, los pesos equivalentes en las distintas capas
virtua,les han de tener idntico valor. EI algoritmo de retropropagacin
permite obtener la contribucin al error total de cada una de las versiones
de los pesos) pero a la hora de actualizarlos debe considerarse la suna de
las contribuciones de los pesos equivalentes. En la figura 4.1 se muestra la
red rlesplegada utilizada en el instante .
r t
t " ' l
- - -ir- --:-
W", ,
,l
-
1l
Modelos predictivos basados en redes neuronales recurrentes de tiempo discreto. Juan Antonio Prez Ortiz
Tesis doctorales de la Universidad de Alicante. Tesi doctoral de la Universitat d'Alacant. 2002
4. ENTRENAMIENTO
Cuando el entrenamiento es por secuencias, el tamao de cada secuencia
determina el de la red extendida; en el caso de una secuencia de Iongitud
relativamente extensa, las necesidades temporales y espaciales clel algoritmo
creceran linealmente conforme la red fuera procesando las entradas. Por
ello, en estos casos, la historia de la red se trunca y se considera irrelevante
cualquier informacin anterior a 6 instantes de tiempo. El valor se conoce
como umbral de t,r'urcami,ento y la tcnica resultante como BPTT truncada.
4.6.t. Ej empl o de cl cul o de l as deri vadas del error
En este apartado se deriva las ecuaciones de BPTT para una RRS con
l a di nmi ca defi ni cl a por l as ecuaci ones (3.5) a (3.8), y que despl egada en el
ti ernpo ti ene el aspecto de l a fi gura 4.7. La red neuronal de esa fi gura es una
red uo recurrente con lo que las derivadr,s de la fultcin de euor sern las
mismas que Ias calculadas con la tcnica de retroprcipagacin (Rurnelliart
et al . 1986), de l a que no rnostrarernos aqu l os detal l es. Si se uti l i za el
descenso por el gradiente, el algoritmo se limita a actualizar cada peso (no
se muestran las ectiaciones de los sesgos) mediante la llamacla regla d,elta
g eneral'izad( colno sigue;
n A l l f l r . l f l
t
\ l -
" Y. ,
a > O' ; - l Tl r l T
- -
l . l
t
f - ^ v . ,
c ) ' ' ' l r l u; l r l
J ' L
r - 1
donde la se'al de error 6Y y Ia seal de error retro'p,rctpaqada
a
parti r
de:
xY t*]
aElt]
vi
LUJ
aw
' nY
6{Vl
:
s' x(x;14)t
6l ttl wi ;:
y par al l r <t ,
c X t , , - , , .
" '
6i
L'l
:
e'x(xhl)
t
af
["
+ r]w;,:
; - |
LWI;"ltl
:
LWf;"[t)
:
Lwf;"ftl
:
(4.26)
(4. 27)
( 4. 28)
. Y
,= se dennen
(4.2e)
(4.30)
( 4. 31)
La seal de error retropropagada puede verse como un emisario del pre-
sente que viaja hacia atrs en el tiempo para influir en el pasado de forma
que este contribul'a en mayor medida a los acontecirnientos que se deseara
haber observaclo en el
presente.
Modelos predictivos basados en redes neuronales recurrentes de tiempo discreto. Juan Antonio Prez Ortiz
Tesis doctorales de la Universidad de Alicante. Tesi doctoral de la Universitat d'Alacant. 2002
4.7. FILTROS DE KALMAN
4.7. Filtros de Kalman
El filtro de Kalman (Kalman 1960) sirve para estimar el estado de un
determinado sistema dinmico lineal cuyo modelo no es completanlente co-
nocido y al que se accede a travs de un proceso de medicin que tambin
posee un cierto nivel de ruido. El filtro permite utilizar la informacin
incompleta del modelo para mejorar de forma recursiva la estimacin del
estado del sistema proporcionada por la medicin. Por otro lado, el filtro
de Kalman extendido es una adaptacin del anterior que permite trabajar
sobre sistemas no lineales.
El flltro de Kalman ha sido objeto de un gran nmero de investigaciones
y aplicaciones en multitud de reas como la navegacin martima, la instru-
mentacin en centrales nucleares o la visin artificial. Aqu nos centraremos
en su aplicacin al entrenamiento supervisado de redes neuronales.
Normalmente, los algoritmos de descenso por el gradiente sol) menos
rpidos de Io deseado debido a que solo utilizan la itima estimacin del
gradiente: las derivadas de la funcin de error solo tornan en cuenta la
distancia entre Ia salida actual y la correspondiente salida deseada sin usar
a la hora de actualizar los parmetros ninguna informacin sobre la historia
anterior del entrenarniento.
EI filtro de Kahnan extendido desacoplado (Puskorius y Feldkamp 1994;
Haykin 1999) se basa en el filtro de Kalman extendido para superar la limi-
tacin anterior y considerar el entenamiento corno un problema de filtrado
ptimo en el que se encuentra recursivamente una solucin al problema de
los mnimos cuadrados.8 En todo momento se utiliza toda la informacin
suministrada a la red hasta el instante actual, incluidas todas las derivadas
calculadas desde Ia primera iteracin del proceso de aprendizaje. Sin em-
bargo, el algoritmo funciona de tal modo que solo es necesario almacenar
explcitamente los resultados de la ltima iteracin.
oEl
problema. de los mnimos cuadrados consiste en encontrar la curva que mejor apro-
xima, un conjunto de rlatos determinado de manera que se minimice la distancia media
entre los dato-"
y la curva.
Modelos predictivos basados en redes neuronales recurrentes de tiempo discreto. Juan Antonio Prez Ortiz
Tesis doctorales de la Universidad de Alicante. Tesi doctoral de la Universitat d'Alacant. 2002
4. ENTRENAMIENTO
4.7.1,. El fi l tro de Kal man
EI fi l tro de Kahnan (1960) (FK) i ntenta esti mar el estadoe to[] e R' de
un sistema dinmico lineai de tiempo discreto gobernado por la ecuacin:
u[t + 1]: Auft) + Bul t] + c.r[t]
donde z[] es la entrada del sistema) cor] una medicin dp] e R-
dl t l : Hul t l + ul t )
donde A, B y ,f son conocidas. Las variables aleatorias ar[t] y
sentan el ruido del proceso y de la medicin, respectivamente.
que se trata de ruido blancol0 de media cero y con matrices cle
diagonales
Q[t]
y Rftl
(.^,ftl.^'rftl)
(ul t l url t ))
:
Q[ t ]
:
Rt]
(4.32)
r r a a a '
(. {. 33)
z[] repre-
Se asurne
covarianza
(4. 34)
(4. 35)
En cada paso el filtro proyecta Ia estimacin del estado actual y de la
covarianza actual hacia adelante en el tiempo para obtener una estimacin
a priori para el sigrriente paso. Despus utiliza ios resultados de ia meclicin
real para mejorar esta estimacin y obtener una estimacin a posteriori.
Este proceso tambin puede \erse como un ciclo cle prediccin y correccin.
Sea -[] la estimacin a prr.or"i del estado en el instante a partir del
conocimiento anterior al oaso :
Lu-
ltl
:
Atult
-
Il + Bult
-
tl
La estimacn a posteriorz del estado, ti.r[t], se obtiene colno una combi-
nacin lineal de Ia estirnacin a priori -
ltl V
Ia diferencia ponderada entre
l a medi ci n real d[] y una predi cci n de Ia medi cl a Htu-l t):
ltl
:
-
[]
+ I([t)(dlt)
-
H{x-lt])
(4. 36)
(4.37)
La expresin (d[tl
-
Hu,-lt]) se denomina res,iduo o innouac'in de la medi.da
y refleja Ia, discrepancia entre Ia medicin predicha y la real.
eEs
importante destacar que la nocin cle estado utilizada en este apnclice es cliferente
a la del resto del trabajo (normalmente, como los valores cle activacin de las uniclades
recurrentes cle una RNR); por ello, para evitar confusiones, la notacin utilizada en este
apnclice para el estado es u-rft] y no r[t] como es habitual en Ia bibliografa sobre el tema.
10El
espectro del ruido blanco es continuo y uniforme sobre una cleterminacla ba.ncla de
frecuencia.
Modelos predictivos basados en redes neuronales recurrentes de tiempo discreto. Juan Antonio Prez Ortiz
Tesis doctorales de la Universidad de Alicante. Tesi doctoral de la Universitat d'Alacant. 2002
4.7. FILTROS DE MLMAN
Consideremos ahora los errores de la estim acin a pri,ori, y de la estima-
cin a oosteriori:
- r . J
e
Lt J: l xl t l - u Ll
el t l : ul t l -rol t l
del error de estimacin es:
- . " ? l
( e
l t l ( e- [ 4) ' )
:
P- [ ]
(4. 38)
(4. 3e)
( 4
4) \
La covarianza a pri,orz
(4.40)
y a posteriori:
(e[ t ] (e[ t ] )r) :
P[ ] (4.41,)
L'amatriz de ganancia K se elige de manera que se minimice la covarianza
del error a posteriori (4.4I). Una posibilidad es:
Kl t l : P-[ t ] Hr (HP-Vl Hr + E[ ] )-'
Debido al ruido, la ecuacin (4.36) tiene asociada una covarianza del
error a pri,ori que se calcula mediante:
P-
t1:
APl t
-
\er
+
Ql tl @.43)
La covarianza del error o posteriori se obtiene de:
P[]
: (r
-
KltlH)P-tl
14.44)
Un ciclo del algoritrno consiste en evaluar, por este orden, las ecuaciones
(4.36), (4.43), (4.42), (4.37) y (a.AQ. La natural eza recursi va, del fi l tro
hace que la estimacin del estado del sistema est en funcin de todas las
mediciones del pasado pero sin tenerlas que considerar explcitamente.
El rendimiento del filtro puede mejorarse mediante el control de Ias rna-
trices
Q[]
y RLtl. Estas matrices pueden fijarse antes del funcionamiento
del filtro o pueden ir cambindose dinnricamente. As, R[] telidr que ser
ajustada en funcin de nuestra confianza en el mecanismo responsable de la
lnedicin. Por otra parte, con
Q[]
se puede modeiizar nuestra incertidum-
bre en el modelo
Q.32);
a veces, un modelo aproximado o incluso alejado
del real puede ser til si se introduce suficierite ruido en la rnatriz
Q[t].
Modelos predictivos basados en redes neuronales recurrentes de tiempo discreto. Juan Antonio Prez Ortiz
Tesis doctorales de la Universidad de Alicante. Tesi doctoral de la Universitat d'Alacant. 2002
4, ENTRENAMIENTO
4.7.2. El fi l tro de Kal man extendi do
Normalmente, el proceso a estirnar o la ecr-racin de medicitl son 1l.o
Iineales. Debe hacerse, por tanto, una aproximacin a este caso. Un filtro
de Kalman que lineaiiza en torno a la media
"v
a la covarianza actual se
denomina un filtro de Kalman extendido (FKE).11
Ahora el proceso vuelve a tener un vector de estado ult) e R', pero la
ecuacin que lo gobierna es:
u[t + 1]
:
/(tr.' [t] ,u[t])
+
ul tl
con una medicin d iR- que es:
l 4 r t 5)
(L
LO\
dl t l : h( t ol t ) ) +u[ t ]
(4
C\
dorrde las variables aleatorirs .ltl y rz[] representan, como antes, el ruidcr
de media cero del proceso y de la medida, respectivamente (con matrices de
covari anza
Ql tl V
Rp]). Las.funci ones
f V
h son funci ones no l i neal es cl ue
relacionan el estado en el instante con ei estadrt en el instante * 1
y
con
Ia rnedi ci n d[f], respecti varnente.
Mediante la Iineaiizacin de las ecuaciones de estado y de rneclicin se
llega a una serie de ecuaciones equivalentes a Ias del caso lineal (va,se) por
ejernplo, el texto de Welch y Bishop (2002) para rns detalles). As, la
estirnacin a pr'ori del estado (4.36) se aproxima ahora haciendo:
r - [ ]
:
f
( - [ t - 1] , z[ r
-
1] )
y la covarianza clel error p'r'iori (4.43) se calcula con:
(4. 17)
P-l t): Al t
-
I)Pl t
-
1l (A[
-
1]).7 +wl t
-
r)Ql t
-
Ll (wl t
-
1l )" (4.48)
donde A y W son matrices nuevas. La matriz -4 se define ahora como la
malrz de derivadas parciales (jacobiano) de
/
respecto al estado:
A[]
:
of t , , , ] f t , , .
_ t T t _ t l
7wt ' " t AuJ 2t " J
0f,
,,,
O.ft
,,.
n l v l ^ l u l
Owt - ' Ou; 2"
" J
7
f + 1
= - t u l
d' t u, r'
'
0f , . .
O ar r '
-
ofn
,*',
)fn
,,.
aqLLJ aIu2LL)
0f n, , ,
- t r l
n l " l
O? n '
'
ttExisten
otras propuestas para aplicar ei FK a sistemas nr: lineales clistintas a, la clue
rnostraremos en este apartado (Julier y Uhlmann 1997).
Modelos predictivos basados en redes neuronales recurrentes de tiempo discreto. Juan Antonio Prez Ortiz
Tesis doctorales de la Universidad de Alicante. Tesi doctoral de la Universitat d'Alacant. 2002
4.7. FILTROS DE KALMAN
donde se ha abreviado
/, []
por
/,
(ti.'
[] ,
ultl) . Por otra parte, W' es la matriz
de derivadas parcia,les de
;f
respecto al ruido c:
donde de nuevo se ha escrito
f.ltl
por
f-({olt],
r[]).
La matriz de ganancia (4.42) se obtiene en el filtro extendido a partir de
la ecuacin:
Kltl
:
p-
ltl(Httl)r
(nt\r- pl(HItDr
+ v
ttlaltl(vft|1-t
(4.51)
donde r/ es aqu el
jacobiano
de las derivadas parciales de h respecto al
estado:
of t , , . of t , , ,
Aert t l A*l t l
of z, . . of z, . .
a^Lrl arrl tl
w[ t ] :
H[ t ] :
v[ t ] :
Dh'
,r,
oh'
,r,
oht
,r,
6ur t " t 7- z' " t ownL" t
dh,
,' ,
ohr,,. oh2
,,' ,
a1t ) 11' l au2t LJ al u
r LLl
#0,
o
fz ,,.
a*l t l
(4. 50)
(4.52)
(4. 53)
donde se ha abreviado h-[] por
parciales de
f
respecto a u:
es la matriz de derivadas
0h* , , .
; - l l
out - '
0h' ' . -
_ t r l
out
"
0b. .
-
t + l
^ l " l
ou7-
-
0h* , , .
_ t l
?' ,Ltn' "t
?hr . ,
_
t + l
or^' "t
} hc . .
'
t + l
or*' "t
0h* , , ,
- t t t
aw2' "'
h,-({r-lt)), y V
OfLt . .
or 2' - '
) hr . .
-
t t l
au2L"
J
0h^
, . .
0h^
, . ,
- t t _ t f l
0u,
'''t
0u,
t"t
0h^, , .
-
t r l
or*' -t
donde otra vez se ha escrito h-[] por h,"({D-ltl).
Modelos predictivos basados en redes neuronales recurrentes de tiempo discreto. Juan Antonio Prez Ortiz
Tesis doctorales de la Universidad de Alicante. Tesi doctoral de la Universitat d'Alacant. 2002
52 4. ENTRENAMIENTO
La estimacn a posteriori, del estado (4.37) utiliza tambin aqu K para
oonderar Ia diferencia entre la medicin real v una
prediccin
de la meclida:
lult)
:
*
[]
+ I{ltl(dttl
-
h(r-tl)) (4.54)
Finalmente, lrr, covarianza del error tiene una forma similar a la del caso
tineal (4.44); aunque debe tenerse en cuenta que ahora 1{[] se calcula de
manera diferente al caso lineal:
Pl t): (r
-
KIt]H
i l )P-pl
( 4. 55)
La operacin bsica del FKE se puede resumir en los siguientes pasos.
En primer lugar, se proyectan las estirnaciones del estado y de la covarianza
del error del i nstante t aI t,* t haci encl o uso de l as ecuaci ones (,1.47) y (a. B).
Despus ha de hacerse uso de estas nuevas estimaciones a priori para obtener
nnas corregi das al consi derar l a medi ci n d[t]. Las ecuaci ones (4.51), (4.54)
y (4.55), por este orden, nos dan l as esti maci ones a poster' ori dei estado y
de la covaria,nza dei error. De nuevo) Rlt)
V Q[t]
son parmetros ajustables
clel algoritmo.
4.8. Entrenami ento de una red neuronal con el fi l tro de
Kalman
Para poder a,plicar el FK al entrenamieuto de redes neulonales (recu-
rrentes o no), e1 aprendizaje se considera corno un probierna de filtrado ell el
que los parmetros ptimos de la red se estirnan de forrna recursiva a partir
de l as ecuaci ones del fi l tro (Puskori us v Fel dkarnp 1991; Hayki n 2001). El al -
goritmo es especialrnente idneo para situaciones de aprendizaje en lnea, en
las que ios pesos se ajustan continuarnente, aunque tambin puede aplicarse
al procesanriento fuera de Inea (Feldkamp y Puskorius 1994).
Comencemos cou.siderando que el estado de la red, que denotaremos por
tr.r[], vi ene dado por l os ual ores de sus pesos.t2
La ecuacin que describe el sistema es lineal y sigue Ia ecuacin (4.32)
con A
:
I, B:0 y <
:0
(esta rl ti ma i gual cl ad l a reconsi cl eraremos rns
adel ante):
uft + 1]
:
-[] (4.56)
Esta ectracin asume que ei sistema se encuentra en un estado pti,m,o y
estable, por tanto. Este estado puede corresponder a lln ninimo local o
global de la superfi.cie de error.
12El
estaclo de las redes neurona,les recurrentes de tiernpo rliscreto o[t] no se representa
expicitarnente en las ecuaciones del filtro de Kalman.
Modelos predictivos basados en redes neuronales recurrentes de tiempo discreto. Juan Antonio Prez Ortiz
Tesis doctorales de la Universidad de Alicante. Tesi doctoral de la Universitat d'Alacant. 2002
4,8. ENTRENAMIENTO DE UNA RED NEURONAL CON EL FILTRO DE KALMAN
La medida es Ia salida deseada de la red neuronal. Se trata, por tanto,
de una ecuacin no lineal como la ecuacin (4.46) con Ia forma:
dl tl :
sl tl
+ vl tl (4. 57)
donde g[t] es la salida de la red cuando se aplica a sus entradas u[], esto
es, l a no l i neal i dad gl obal de l a red
Ul t):
h(to[t]).
Debido a que la ecuacin de estado es lineal, el filtro de Kalman utilizar
l as ecuaci ones (4. 36) y (a. a}) con A: I , B: 0 y
Q[ t ] : 0.
La no l i neal i dad
de la ecuacin (4.57)
aade las restantes ecuaciones del filtro: las ecuaciones
(4.51), (4.54) y (a.55) con h i gual a l a sal i da de l a red gr[t] cuando uti l i za
l os pesos tr[].
El
jacobiano
Vlt] de la ecuacin (a.51) se hace normalmente igual a la
matriz unidad, V[t]: I, ante Ia dificultad de una estimacin correcta de su
valor. Se asume) entonces, que su influencia est de alguna manera
"oculta"
dentro de R[t].
El valor de Ia medida real de la ecuacin (a.54) es el valor de la salida
deseada de la red. Las derivadas parciales de la matriz fl[l se calculan
normalmente mediante BPTT o RTRL.
Con todo Io anterior, ya tendramos una versin del denomitado
filtro
de Kalman ertendi.do global (FKEG). No obstante, para su utilizacin real
como algoritmo de entrenamiento de redes neuronales es aconse.iable la in-
troduccin de algunas modificaciones.
4.8.L. El fi l tro de Kal man extendi do desacopl ado
Cuando se trabaja con redes de cierto tamao, el vector de estado u.r[]
puede tener un nmero considerable de corrponentes (tantos como pesos ten-
ga la red). Ello ocasiona que los clculos sobre matrices como /[] requieran
una cantidad elevada de recursos computacionales, inciuso para redes de ta-
mao moderado. El
fittro
de Kalman ertendi,do desacoplado (FKED) reduce
esta complejidad (Puskorius y Feldkamp 1991; Haykin 2001).
El FKED di vi de l os pesos de l a r ed en g gr upos, ui , i : L, . . . , g, pa-
ra lograr que el problema sea computacionalmente tratable. Habr tantos
grupos como neuronas en la redis y dos pesos pertenecern al mismo grupo
si forman parte de la entrada de una misma neurona. La versin desaco-
plada, por Io tanto, aplica el filtro de Kalman extendido a cada neurorra
independientemente para estimar el valor ptimo dr: los pesos que llegan a
13En
el caso de la red LSTNI, se considera un grupo para cacla neurona, celda de rnemoria
' compuert a
di f erent e, con l o que resul t a g = nv(nc *3) *n1, , si se usan compuert as de
ol vi do.
Modelos predictivos basados en redes neuronales recurrentes de tiempo discreto. Juan Antonio Prez Ortiz
Tesis doctorales de la Universidad de Alicante. Tesi doctoral de la Universitat d'Alacant. 2002
4. ENTRENAMIENTO
ella. De esta fbrma, solo se consideran las interdependencias Iocales durante
el entrenamiento.
La principal diferencia entre la versin desacoplada y la global es la
sustitucin de Ia rnatriz Hltl de la ecuacin (4.52) por
9
rnatrices de ia
forma:
H l t l : 14 58)
con e: 1, . . .
, g,
y donde. r, t )
".
el
j -si mo peso del grupo z. Se ha supl res-
to que n es el nrnero de pesos del grupo z. Con esto, Ia matri z f{[j es
si mpl emente Ia concatenac' i n de l as matri ces 11[l :
Hl tl
:
(fIr[], Hzl tl , . . ., H
nl t))
14 5q)
Es fcil observar que el filtro de Kalman extendido desacoplado se reduce al
gl obal cuando g: L
A continuacin se muestra el algoritmo de la versin desacoplada ciei
fi l tro de Kal man extendi do:14
1. Hacer g igual al nmero de neuronas de la red.
2. I ni ci ar l os pesos de I a r ed, . ?r [ 0] , ' i
:
7, . . . , g.
3. Iniciar los elementos de la diagonal de E[0] y P,[0]
tnPara
el clculo de la matriz inversa en los experimentos cle esta tesis se utiliz la
versin de 23 agosto de 1999 de newmatlo, desarroilada por Davies (1994). La rutina para
el clculo de ia inversa. se basa en la que aparece en el libro de Pess et al. (1988).
Modelos predictivos basados en redes neuronales recurrentes de tiempo discreto. Juan Antonio Prez Ortiz
Tesis doctorales de la Universidad de Alicante. Tesi doctoral de la Universitat d'Alacant. 2002
4,8. ENTRENAMIENTO DE UNA RED NEURONAL CON EL FILTRO DE KALMAN
A
Par a
: 7, 2,
;
[t]
:
Po
tt'l
:
)ilt
-
U
Pilt
-
rl
(4. 60)
/
n
t-l nut'
liutvlr;14@ttJ)r
+ nt1
)
\ r: t /
K[t]
:
P;ltl(HiVDr
{' :[tl
:
{u;
+ Ki [tl @[t\-
u[t])
P[t]
:
(r
-
KiltlHiltl)P;
ltl
(4.62)
(4. 63)
(4.64)
donde d[] es la salida deseada de la red en el instante e g[] es Ia
salida real de la red para la entrada tz[]. Ntese que las dos primeras
ecuaciones son innecesarias en la implernentacin del algoritmo y pue-
de trabajarse con las estimaciones o posterior' del instante anterior
directamente.
5. Actual i zar R[t].
4.8.2. Control de l a di vergenci a del fi l tro
La forma no lineal del FKED provoca numerosas dificultades nun.ricas
a la hora de su inplementacin, que hacen que el filtro diverja de Ia solucirn
correcta.
Una forma heurstica de evitar esta divergencia (Haykin 1999, p. 769)
es aadir ruido a la ecuacin del proceso, haciendo que c.r[t]
I
0. EI nico
cambio sobre la forma descrita anteriormente
para
el FKED es la ecuacin
(4.64) que se convierte en:
Pltl: (r
-
KiltlHiltl) P;
[t]
+
Q;[t1
(4. 65)
Ademas de evitar la divergencia, la introcluccin de
Q[]
tiene el efecto
secundario de hacer que el algoritmo tenga menor propensin a quedarse
atrapado en mnimos locales. Normalmente se usa la misma matriz para
todos los grupos, por lo que hablaremos simplemente de
Q[t].
A continuacin
se indican algunas pautas para dar valores a los parmetros iniciales del
FKED.
4.8.3. Parmetros i ni ci al es del al gori tmo
Los parrnetros a ajustar en la inicializacin del F-KED son:
Modelos predictivos basados en redes neuronales recurrentes de tiempo discreto. Juan Antonio Prez Ortiz
Tesis doctorales de la Universidad de Alicante. Tesi doctoral de la Universitat d'Alacant. 2002
4. ENTRENAMIENTO
El valor inicial de la covarianza del error o posteriori
4
[0];
este valor
se suele inicializar corno P[0]
:
61, doncle d es una constante positiva.
Los elementos diagonales de las matriz inicial de covarianza del ruido
de la medicla E[0]; estos elementos se templan normalmente, corno se
ver mis abajo, desde un valor inicial a valores ms bajos conforme
avanza el entrenamiento.
l5
Los elementos de la diagonal de la matriz de covarianza inicial del error
del proceso
Q[0];
estos valores tarnbin se templan.
El templado de los elementos de las matrices de co'uarianza pasa por
darles un valor o temperatura inicial e ir decrementndolo paulatinamente
segn una determinada tasa de rednccin de la tempetatura ?. Por ejemplo,
consideremos que los valores de la diagonal de Ia matriz R[0] se inicializan
con un valor Rn.'6* y se ternplan con urla tasa ? hasta alcanzar e1 valor R*in,
lo que expresarernos cor) Ia notacin:
R[] : R,,.,6*
a,
R-n
La ecuacin que se aplicar en esta tesis para obtener Ia evolucin de los
parmetros es:
R[]
:
La figura 4.2 uluestra cmo
7 en l a evol uci n de R[t].
Rmx
-
R.r-rn
t P
| 4 uml n (4. 66)
awn(t /' l \
influye la ta,sa de reduccin de Ia tempelatura
4. 9. Cost e comput aci onal
La complejidad del algoritrno de descenso por gradiente viene cletermi-
nada principalmente por Ia complejidad de los esquemas de clculo de las
derivadas de la funcin de error empleados.
La complejidad temporal de BPTT cuando se aplica a redes de primer
orden como l a,s del epgrafe 3.1.1 con nx > nu y nx ) ny es O(n2r),16
esto es, una complejidacl temporal asinttica de la misma familia que la de
Ios clculos que determinan el valor de la salida de Ia RNR a
partir
de 1a
lsPodra
pensarse que el templado no es compatible con el aprendizaje en lnea. Aun
as, si el entorno es estacionario o semiestacionario, el templado puede usarse para reducir
nuestra incertidumbre sobre l conforme se avanza en el procesarniento de la entrada. EI
templado debe descartarse o se debe incrernentar los vaiores inferiores cuando el entorno
es no estacionario.
I 6La
ecuaci n ( 4. 31) se i mpl er nent a en r r n bucl e con, i : 1, . . . , n .
Modelos predictivos basados en redes neuronales recurrentes de tiempo discreto. Juan Antonio Prez Ortiz
Tesis doctorales de la Universidad de Alicante. Tesi doctoral de la Universitat d'Alacant. 2002
4.9. COSTE COMPUTACIONAL
Rm^
\ 7 - R0 0 n
i ? = 1000
P
30000 40000 50000
t
Figura 4.2: Evolucin de la matriz de covarianza del error del FKED segrin la
tasa 7.
entrada actual y del estado de la red. Esta es una de las grandes ventajas de
BPTT. El coste espacial, sin embargo) es uno de sus grandes inconvenientes,
ya que es necesario almacenar varias rplicas de Ia red; adems, en el caso
de BPTT no truncada, debe guardarse todas las entradas procesadas hasta
el instante actual.
Aunque la complejidad espacial al calcular las derivadas con RIRL es
mucho menor que la de BPTT, su complejidad temporal es muy superior.
Cuando se aplica RTRL a RNR de primer orden con nx > nu y ny ) ny,
la complejidad temporal es O(nar).LT
Muchos autores, por ejemplo Schmidhuber (1992), han propuesto algo-
ritmos hbridos que combinan eficientemente lo mejor de ambos algoritmos.
Finalmente, el FKED se apoya en el clculo de Ia derivada del error,
que puede realizarse tanto con BPTT como con RTRL. El coste es, por
tanto, como mnimo igual al del algoritmo de clculo de derivadas utilizado.
Adems, el FKED realiza en cada paso un buen nrimero de operaciones con
matrices, incluido el clculo de Ia inversa de una matriz de tamao ny x ny.
17La
er:uacin (4.25) se implernenta en una serie cle
r , - . .
, nx.
brrcl es ani dadc)s con i , j , k
:
Modelos predictivos basados en redes neuronales recurrentes de tiempo discreto. Juan Antonio Prez Ortiz
Tesis doctorales de la Universidad de Alicante. Tesi doctoral de la Universitat d'Alacant. 2002
58 4. ENTRENAMIENTO
4.LO. Mtodos no basados en deri vadas
Los algoritmos basados en gradientes o en derivadas del error son los
ms utilizados, con diferencia, para el entrenamiento de RNR. Pero existen
otros algoritmos que evitan ei costoso clculo de estas derivadas y que se
basan en la perturbacin de los pesos de la red. Veamos dos algoritmos,
indicados para redes tanto recurrentes como no recurrentes y rnicamente
para el entrenamiento fuera de lnea.18
Alopex. Unnikrishnan y Venugopal (1994) actualizan los parrnetros de la
red rnediante pequeas perturbaciones de sus valores, eu Lrno u otro sentido
segn la correlacin entre Ios sentidos de las perturbaciones recientes y el
cambio en el error cometido sobre todo el conjunto de entrenamiento. Es
uu algoritmo especialmente interesante ya que no necesita conocer Ia forma
de Ia red ni la funcin de error utilizada, 1o que 1o hace til tambin para
cualquier tarea de optimizacin distinta a la de las redes neuronales.
Al gori tmo de Cauwenberghs. Cauwenberghs (1993) si gue una regl a de
aprendi zaj e pareci da a l a de Al opex. Se suma una perturbaci n al eatori a
zr al vector de pesos actual W y se cal cul a el error resul tante E(W +n).
Este nuevo error se utiliza para actualizar eI vector de pesos en la direccin
de zr, si es menor que el error anterior E(W), o en direccin contraria, si es
mayor
rye
E(W). El nuevo r,-ector de pesos es, por tanto, W
-
a(E(W +
r)
-
E(W))zr, donde a es i a tasa de aprendi zaj e.
4.LL. Probl emas en ei aprendi zaj e
Existen varias circunstancias que pueden hacer que una determinacla ta-
rea de procesamiento de secuencias no pueda ser resuelta mediante una RNR.
En primer lugar, como ya se cornent al comienzo del captuio, es posible
que el modelo neuronal elegido no sea idneo para esa tarea erl particular,
circunstancia esta difci] de evaluar en muchas ocasiones. En segundo lugar,
aun suponiendo que el modelo elegido sea adecuado (incluyendo tanto el
nmero de neurona,s como la representacin de la informacin de entrada y
salida), es posible clue el aigoritrno de entrenamiento empleado no sea ca-
paz de encontrar un valor de Ios pesos correcto. Los motivos que pueden
llevar a ello son principalmente
dos; la existencia de mnimos locales o cle
dependencias a largo plazo.
18Hay
una carencia casi total de algoritmos de entrenamiento en lnea para RNR que
no estn basados en el clculo de derivadas.
Modelos predictivos basados en redes neuronales recurrentes de tiempo discreto. Juan Antonio Prez Ortiz
Tesis doctorales de la Universidad de Alicante. Tesi doctoral de la Universitat d'Alacant. 2002
4.1 1. PROBLEMAS EN EL APRENDIZAJE
4.1L.1. Mni mos l ocal es
La funcin de error -E define una superfi.cie lnultidimensonal (hipersu-
perficie) conocida como h'ipersuperfici,e de error. Normalmente, la hipersu-
perficie de error tiene un mnimo global (posiblemente mltiples mnimos
globales debido a simetras de la red) y muchos mnimos locales, que pue-
den no corresponder a una solucin correcta del problema (Bianchini et al.
1994). Estos mnimos locales son consecuencia de la elevada dimensionali-
dad dei espacio de bsqueda y son el mayor problema, al quedar atrapados
en ellos, de casi todos los aigoritrnos de aprendizaje de redes neuronales,
especialmente de los que realizan una bsqueda local como los basados en
el gradiente.
En cualquier caso? el problema de los minirnos locales no es especfico de
las RNR y afecta a la practica totalidad de los modelos neuronales.
4.1L.2. El gradiente evanescente
Aunque en un principio el estado de una RNR puede almacenar Ia in-
formacin relevante sobre la historia de una secuencia, la prctica totalidad
de los algoritrnos de entrenamiento encuentran grandes problemas (en oca-
siones insalvables) pata rnantener esla informacin, especialmente cuando
el intervalo de tiempo entre la presencia de una determinada entrada y la
salida deseada correspondiente es relativamente largo (normalmetrte a partir
de unos l-0 instantes de tiempo). Esto hace que a Ia hora de la verdad rnu-
chas RNR tengan poca ventaja sobre las redes no recurrentes con ventana
temporal.
Dependencias a largo plazo. Dada una fuente que genera una secuencia
si mbl i ca de l a f or ma s[ 1] , . . . , s[ , ] , . . . , s1t u1, . . . , di r emos que exi st e una
dependencia a largo plazo entre el smbolo1g del instan te t, y el del instante
tu, y lo expresaremos mediante s[t"] *- s[tr], si se cumplen las siguientes
condiciones:
El valor de s[r"] depende del valor de s[t"];
t, )) tu;
No exi ste , con tu 1t-
(
,,, tal que s[.,] *- s[t-] .- s[t"j .
Los algoritmos de entrenamiento de RNR suelen ser inacapaces de cons-
tatar las dependencias a largo plazo debido a que la salida, actual de Ia red
ttL","
d.fl"t.' .t"r
"""1"
*fjt"*="
tambin a cualquier tipo de eventos temporales, tro
solo a secuerncirs sirnblicas.
cv
l .
2.
t
Modelos predictivos basados en redes neuronales recurrentes de tiempo discreto. Juan Antonio Prez Ortiz
Tesis doctorales de la Universidad de Alicante. Tesi doctoral de la Universitat d'Alacant. 2002
4. ENTBENAMIENTO
es muy poco sensible a una entrada antigua. En el caso de Ios algoritmos
basados en el gradiente, el hecho anterior puede formularse con cierto deta-
l l e (Bengi o et al . 1994; Hochrei ter et al . 2001) a travs del l l amado probl ema
del gradi,ente euanesce'nte, qte verenlos a continuacin.
Flujo de error. Consideremos las seales de error definidas en las ecua-
ciones (4.29) a (4.31). Aunque ios resultados que se van a mostrar en esta
seccin son ciertos independientemente del rnodelo recurrente considerado,
cle la funcin de error utilizada (siempre que sea derivable) y de Ia manera
en qrle se calcule el gracliente, me basar en el nrtodo visto en el ejernplo de
BPTT para una RRS del apartado 4.6.I, ya que el anlisis es relativamente
senci l l o a parti r de 1.
En prirner lugar, consideremos el flujo de error locaL entre Ia i-sima
neruona de salida y la
j-sima
rreurona de estado. Consideremos el caso en
el que el error cometido en el instante en la neurona de saiida, clue viene
representado por' nv[t], "vi aa" hac' i u atr,s en el ti empo hasta l l egar a l a
neurona de estado del instante s
(
. Esta seal de error intenta "modificar
el pasado" de manera qrle se obtenga nn presente ms confbrrne con Ia salida
deseada d[]. El flujo del error queda escalaclo, por lo tanto, segn:
a6!
lsl
a{t
nx t l x nx
\- \- \-
./J lJ /
l s 1 1 =1 1 ' 4 2 : l l t - t : 1
g' x6l tl )w,:
g'x(x["])DlI,
(tW#
_I
_I
,;r)
(n'*{x,,vDrf"'i,.,))
(4. 68)
(*r*,b))wtii_,
. 5 : L
s <t
(4.67)
Si clesarrollamos la ecuacin anterior, oltenemos:
ad{
lsl
atl
-
l l
En general, el flujo de error no ser local, ya que los errores de las ny
neuronas de salida viajarn en el tiempo i;ttentando modifical' Ia
j-sima
neurona de estado en el instante s. Sin embargo, esto no snporre inconve-
niente alguno pa,ra el aniisis de esta seccin. Efectivamente, el flujo de error
global se obtiene a partir de:
n \ ' ^ e Y r r
\ \
odj ' t sl
4-: a{ttl
(4.6e)
Modelos predictivos basados en redes neuronales recurrentes de tiempo discreto. Juan Antonio Prez Ortiz
Tesis doctorales de la Universidad de Alicante. Tesi doctoral de la Universitat d'Alacant. 2002
4.12. JUSTIFICACIN DE LA RED LSTM
y, por lo tanto, si cada error local se desvaneciera o explotara, como veremos
ahora, tambin lo hara el error global.
Si el trmi no
l g' x(X,l tl )Wi ' i ,*rl
de (4.63) es mayor que 1 para todo r,
entonces el productorio crece exponencialmente segn la distancia temporal
entre y s, es decir, el error erplota y a Ia neurona de estado le llega
una seal de error que puede hacer oscilar los pesos y volver inestable el
aprendizaje (Hochreiter et al. 2001). Por otro lado, si
lg'x(Xulrl)Wf"'i"-)
es nenor que 1 para todo r, el productorio decrece exponencialmente con Ia
distancia entre I y s: es decir, el flujo de error se desvanece y no es posible
salvar esta distancia, lo que es un problema cuando o[t] <- o[s].
Ntese cmo incrementar el nmero de unidades de estado nx no aumen-
ta necesariamente el flujo del error, ya que los sumatorios de (4.68) pueden
tener signos diferentes. Este anlisis es aplicable a muchas otras RNR, no
solo a Ia RRS; por ejemplo, Hochreiter et al. (2001) Io aplicaron a una RTR.
A la vista de lo anterior, parece plausible que una solucin al problema
pase por i nt ent ar qt e g' y(X"[ r] )Wi ' i , *r: 1para t odo r, est o es, un
f l , uj o
de error constante. La red LSTM se basa en esta idea.
4.L2. Justi fi caci n de l a red LSTM
Para simplificar el anlisis de este apartado, consideremos una RNR con
una ni ca neurona conectada a s mi srna (Hochrei ter
y
Schmi dhuber 1997).
En ese caso, el trmino g'x(Xul"l)Wi:i,r, obtenido en el apartado anterior
se puede si mpl i fi car a g' (XVDW:i ' .
Para garantizar un flujo de error constante, hemos visto que se puede
intentar conseguir q.ue g'(Xlrl)W:i' :
1. Integrando esta ecuacin respecto
a Xltl se tiene que:
o l
g(xl rl ):W (4.70)
Luego una de las formas de asegurar el flujo de error constante a travs de
esta neurona es obligar a que W;"
:
1 y usar una funcin de activacin
identidad para g. A una unidad de este tipo la denominaremos carrusel de
error constante (CEC) y
"r
la piedra angular de la red LSTM.
Evidentemente, el estudio precedente es extrem.adamente simple. En
general, llna neurona recibir entradas adicionales y actuar sobre ms neu-
roners aparte de ella misma.
Cmo
podemos garantizar el flrijo de error
consl,ante sobre una topologa rns cornpleja'l
Modelos predictivos basados en redes neuronales recurrentes de tiempo discreto. Juan Antonio Prez Ortiz
Tesis doctorales de la Universidad de Alicante. Tesi doctoral de la Universitat d'Alacant. 2002
4. ENTRENAMIENTO
Para responder a esta pregunta, podemos considerar dos posibles pro-
blemas, que tienen lugar especialmente cuando se consideran dependencia"s
a largo plazo: los que se pro,:lucen a la entrada de la neurona y los que se
producen a su salida.
Confl,i,ctos en los pesos de entrada. Supongamos que la neurona que
estarnos estudiando ha de gestionar adecuadamente una determinad1.
deperrdencia a largo plazo oft] r- a[s] activndose en el instante .s
.v
desactivndose en el instante . En este caso, el algoritmo de entre-
narniento intentar que los pesos que llegan a la unidad lineal prove-
ni entcs de otras neuronas cousi gan un dobl e obj eti vo: por un l ado,
mantener la neurona activa durante el intervalo corlespondiente; por
otro lado, proteger la entrada de la neurona de activaciones irrelevantes
que pueden desactivarla. Esta circunstancia hace qr-re el aprendizajc
sea clifcil e invita a controlar de algn modo las opera,c'iones de escri-
tura a travs de los pesos entrantes.
Confl,i,ctos en los pesos de sali,da. Los pesos que enlazan la salida cle
la unidad lineal con otlas neuronas tarnbin se ajustarn intentando
logra,r un cloble objetivo: por un lado, acceder a la informacin alma-
cenada en la neurona; por otro, evitar que esta informacin contamine
a ias neuronas enlazadas cuando no corresponde. De manera similar
al punto anterior, parece til imponer cierto control en ias operaciones
de lectura.
Las celclas de los bloques de memoria de la red LSTM (vase el apar-
tado 3.2) instrumentan las ideas anteriores. El CEC con activacin iineal
y conexin recurrente es la caracterstica principal de las celdas de memo-
ria. Las cornpuertas de entrada vetan ia entrada indeseada al CEC y las
cornpuertas de saiida hacen 1o mismo col] su salida..
Los CEC obligan a que el flujo de1 error sea constante (Hochreiter y
Schmidhuber 1997) y permiten superar el problema fundamental del gra-
diente evanescente; los CEC impiden que ia influencia de la seal se debilite
rpidamente al ir hacia atrs en el tiempo. Como es de esperar, Ios errores
corresponclientes al CEC o a cualquiera, de las compuertas se utilizan en la
actualizacin de los pesos. Sin ernbargo, los CEC son los nicos que siguen
Ia pista dei error hacia atrs en el tiempo; el resto de errores se truncan en
el algoritrno de entrenamiento. Los gradientes ajenos ai CEC, por tanto.
pueden desvanecerse exponenciaimente de la misma forma que en las RNR
tradicionales.
El seguimiento de las dependencias a muy largo plazo en los CEC permite
que la red LSTIVI pueda detectar adecuadamente eventos interdepenclientes
1.
-
Modelos predictivos basados en redes neuronales recurrentes de tiempo discreto. Juan Antonio Prez Ortiz
Tesis doctorales de la Universidad de Alicante. Tesi doctoral de la Universitat d'Alacant. 2002
4.12. JUSTIFICACION DE LA RED LSTM
rrtffi*,
@%W=o
,r,
anlt)
= o
awf
(ro\
ozotl
* o
awI
rttl ffi =o
ooffi=o
etffi*o
@e##=,
rsl
aa[,]
* o
'
awa'"
02,^ltl
111) " " ' r yO
' '
aw[,:i
ouffi=o
ortffi*o
otffi=o
rqs##=o
rnl
tnlll
-"
o
"
}Wat i
1 , KL
p1
oz,lt]
= o
' '
awf"'ti
ortffi=o
rtuffi=o
Figura 4.3: Truncamientos totales realizados en el clculo de las derivadas de la
red LSTM en el instante . Las aproximaciones de esta figura se cumplen para
cualquier valor de los subndices.
separados por miles de instantes de tiempo discreto, mientras que las RNR
tradicionales no suelen ser capaces de manejar corlectamente intervalos su-
periores a unos 10 instantes de tiempo.
4.L2.1-. Cl cul o del gradi ente
Como se ha visto en este captulo, los algoritmos de entrenamiento ba-
sados en el gradierrte necesitan calcular las derivadas parciales de la no
linealidad global de la red, representada por gl[], con respecto a cada uno
de l os pesos. Estas deri vadas son )yft1/Aw[t] donde
,i
:
1,...
,ny
y Wj
es un peso sinptico cualquiera.
La forma de calcular las derivadas de la funcin de salida de la red
LSTM unida a la propia topologa del modelo permite superar el problema
del gradiente evanescente, como se ha dicho anteriormente. El truncamiento
realizado sobre ciertas derivadas garantiza que los errores no pueden volr,-er
a entrar en las celdas y esto perrnite el flujo constante del error eu el interior
de l a cel da de rnemori a.
Modelos predictivos basados en redes neuronales recurrentes de tiempo discreto. Juan Antonio Prez Ortiz
Tesis doctorales de la Universidad de Alicante. Tesi doctoral de la Universitat d'Alacant. 2002
4. ENTRENAMIENTO
A- . . l +l
( t 9) r 1{ =0, si i l k
awf
Qr ) yyx0,
si i l k
' '
awf;*
0r' .' ltl
(23)
^fi)"
= 0, si ij
t'
kl
"
r ,
kL, m
- . . l +1
(20)
Ia{l
= 0, s i
I
k
'
ow[,:t"
0r,^ltl
( zz) f f i x0, si i j l kt
0r,rl tl
Qa)
;f)-
x 0, s ij
I
kl
"
, ,
kt , r nn
Figura 4.4: Truncamientos parciales realizacios en el clculo de las derivadas cle
la red LSTNI en el instante .
A contiutracin se describen las ecuaciones del gradiente de la red LSTIVI;
en ios casos en los que se realiza algn truncamiento, se indica la expresin
truncada segn los nmeros que aparecen en las figuras 4.J y 4.4. El gra-
diente con respecto a los pesos que inciden en 1a capa de saiida es:
Las derivadas con respecto a los pesos de las compuertas <Ie salida son:
oa[t)
AW
oaltl
AWry
3 , K
oaltl
6wJh-r
g' Y( Y[ t ] ) 6 ,
sy
(Y,ltl)u"ftl6,
sy
(Y[t)) zl t]6,
( 4. 7r )
(4.72)
(4.73)
(4. 74)
( /
a<\
l : 1
n.c
gv (yltl) gb
e [t])
z,l
-
1I
L,!r;n
r, @ ,,ltl)
(4 76)
nt =1
oytltl
awj
oa[t]
w
aaltl
aw!:,
. l , Kr
nc
gv (V[t])
sb(r, [] )
D
*
!;^n,
1r

t"lt))
k: l
nc
sv
(Ylt)) gb(r
[r] )
z
[r]
L
ri;
n n,
(r
{t))
3 , 6
Modelos predictivos basados en redes neuronales recurrentes de tiempo discreto. Juan Antonio Prez Ortiz
Tesis doctorales de la Universidad de Alicante. Tesi doctoral de la Universitat d'Alacant. 2002
4.12. JUSTIFICACION DE LA RED LSTM
Las <ierivadas de la funcin de salida con respecto a ios pesos de la
compuerta de entrada, con indicacin de los truncarnientos efectuados, son:
YY
''
sy(Y[])ri[]
i*:;rrrq*,,ltD*4
e.7T)
awf
k: t
" " ' aw:
W' E
g' Y(Yl tl )tr,r
i
wl ug
*@,wDy#
awf,:
r:1
'
"' awry
P9
K
s,y(\,iltl)tlt)
i
*yr;n
,(r,.ltl)y# e.Ts)
awf' ;t
n:t
\ r'
e'
J/
awf
;
(4.78)
(4. 80)
( 4. 81)
(4.82)
Finalmente, el gradiente con respecto a los pesos que entran directamente
en l os bl oori es de memori a son:
donde se han utilizado los siguientes trminos recurrentes:
ry:_y
p
gzeoltl)sb(oo[])
*
u",!!l;tl
awf
' r ' J' v
aw:
1rlt)
{
sz4[t])g'6@[t])u[a *
uu!;!
*F
YZ\ zxi LLl l YC\ Yi LuJ) ukl Ll -
ur , ,
y#
X
sz(zttl)ei(orttl),ut
-
11 +
4a!;A
aw:i,
"r ' J/v
awf.
,vl tl ' x'
gy(vl tl )wi j ktl tl s' ^a@,,v| *Y
) Wf n
r r \ - ' t - J/
x J
- , ,
j k
Wr
"s'
sy(vltl)wi';'rtltlg'u @lt))W
Wil'"sn
gv (Yttl)wi"t
ltls'a @
iltD
##
donde se han utilizado los siguientes trminos recurrentes:
W
P
tftls,r1z,,Or*%ff
W
X
tltls,rqz,,[r])u[r] .Y##
##
P
o[t]g'zzu[t])ze[t-1] +9##
(4. 83)
(4. 84)
(4. 85)
(4. 86)
(4.87)
(4. 88)
Modelos predictivos basados en redes neuronales recurrentes de tiempo discreto. Juan Antonio Prez Ortiz
Tesis doctorales de la Universidad de Alicante. Tesi doctoral de la Universitat d'Alacant. 2002
Volver al ndice/Tornar a l'ndex
Modelos predictivos basados en redes neuronales recurrentes de tiempo discreto. Juan Antonio Prez Ortiz
Tesis doctorales de la Universidad de Alicante. Tesi doctoral de la Universitat d'Alacant. 2002
5. LAS SOLUCIONES PREVIAS
En el captulo 1 se presentaron los problemas que se estudian en esta
tesis. Una vez introducidos en los captulos anteriores los conceptos
fundanrentales de las redes recurrentes, mostramos altora Ias soluciones
previas tanto neuronales como no neuronales planteadas pa,ra resolver
dichos problemas.
Como este captul o compl ementa Io di scuti do en 7.2,1o di vi di remos en
los mismos apartados.
5.1. Compresi n de secuenci as si mbl i cas
5. 1. 1". Ent rop a
Supongamos una secuenci a si rnbl i ca s
:
s[1], tl 2l ,. ..
,
"[]
generada
bajo un determinado modelo estocstico M basad<s en estados (por ejemplo,
un modelo oculto de Markov de los discutidos en el apndice A) a partir de
un al fabeto X
:
{ot,... ,
ol rl }. Tras haber generado un determi nado prefi j o
de s, di gamos s[ 1] , s[ 2] , . . . , s[ t ] con 1 < < t r, el model o M seencont rar en
un estado q[t]

Q,
donde
Q
es el espacio de estados del modelo. Con ayuda
de p(o
lq[t])
podemos conocer la probabilidad de que el siguiente smbolo
de la secuencia sea o;:
p(s[ t
+ 1]
:
o
|
s[ 1] , s[ 2] , . . . ,
"[ ] )
: p(o
|
ql t l ) ( 5. 1)
obtiene La probabilidad de una secuencia s de longitud
lsl
:
.L se
fcilmente a
partir
de:
L L
p(s) :
l {n(strJ
I
s[1], s[2], . . .
,
s[t
-
1])
:
l l r("ttJl at
-
1l ) (5.2)
t : I t : L
con q[0]
-
q, donde
91
es el estado inicial del modelo.
Sea X el conjunto de secuencias de longitud -L que pueden ser generadas
a partir del alfabeto X. Podemos definir la entropa (Cover
v Thornas 1"991;
67
Modelos predictivos basados en redes neuronales recurrentes de tiempo discreto. Juan Antonio Prez Ortiz
Tesis doctorales de la Universidad de Alicante. Tesi doctoral de la Universitat d'Alacant. 2002
5. LAS SOLUCIONES PREVIAS
Charni ak 1993) de este conj unto como:
que se mide en bzs si el logaritmo es ell base 2. La entropa es una medida
del grado de incertidurnbre asociado a las secuencias de x y define una cota
inferior del nmero medio de bits necesarios para
transmitir las secuencias
del conjunto.
Ntese cmo la entropa crece con L. Ya que normalmente no se necesita
trabajar con una longitud determinada) urra medida ms aconsejable es la
entropa por smbolq que es:
\-
H7( t u1) : -
LpG) l ogp( s)
sr L
1 1
Hz( M)
: - :
) .
p( " ) l ogp( s)
l r I J u
sX
\ - / \ r / \
)
p\ s
)
i og p( sJ
s L "
( 5 3)
l 5 4)
( 5. 5)
(5 6)
( 5. 7)
De hecho, 1o realmente interesante es poder consiclerar secuencias de lon-
gi tud arbi trari a. Por el l o. 1o rns habi tual es habl ar de H(M),ra entropa
del modelo :'1,1, que es el lmite de la entropa por smbolo cuando crece Ia
Iongi ttrd de Ia secuenci a;
HI A/ f \ -
Ht(M) < HL(A[, ]t' t)
doride Ia igualclad se da sol.o cuando M
:
,t.
1
-
l r l l t
-
L+6 l J
Supongamos ahora que establecenros un mod.elo de probabiliclad altepra-
tivo M para la probabilidad q de cada secuencia s. Este modelo altemativo
perrri t e obt ener l as probabi l i dades q(sl t
+ 1]
:
ol s[ 1]
, sl 2] , . . . , "[ ] )
del si _
guiente smbolo de una secuencia s y, por tanto, la probabilidacl total de la
secuenci a, q(s), medi ante (5.2).
La entropa cruzada mide el parecido de ambos modelos de probabiliclad
(el alternativo y el real) y alcanza su valor mnimo (igual a la entropa
del modelo real) cuando coinciden. La entropa cruzad.a es) por f,an[o7 Llna
medida de la correccin clel predictor
alternativo y
se define collo:
Hr(M, M)
: -
t
p(s) l ogq(s)
st
Ntese que H(M,M) :
HL(AI). Se curnpl e, adems, para crral qui er
modelo M que:
Modelos predictivos basados en redes neuronales recurrentes de tiempo discreto. Juan Antonio Prez Ortiz
Tesis doctorales de la Universidad de Alicante. Tesi doctoral de la Universitat d'Alacant. 2002
s.1. coMpqEstl oE secueN:tAs stMBoLtcAs
De igual manera) podemos definir la entropa cruzada por smbolo como:
y la entropa cruzada entre M y
lurw,)
H( M, M) :
-
hm I - - \ - ' - 7- _/
[ _aL
1r -
:
-
i
)-
P(")
iog q(s)
i[ co o,
I
e(")l ogq(s)
sD
(5. 8)
l
q )
( 5. 10)
Una medida similar a la entropa cruzada es Ia entropa relat'iua, tarnbin
Ilamada d'iuergenc'ia de Kullback-Le'ibler, que viene definida por:
\-
/t
s
n l c )
p(s) log
aX :
H (M, M)
-
H (M)
-
ql s)
La divergencia de Kullback-Leibler es siempre positiva, aunque no simtrica,
y vale cero cuando ambas distribuciones de probabilidad coinciden.
Normalmente no es posible conocer las probabilidades reales de la se-
cuencia, porque se desconoce el modelo de estados M o, incluso, porque la
secuencia no ha sido generada a travs de uno. Deberemos, por tanto, nto-
delizar buenos predictores que estimen esas probabilidades y que minimicen
medidas como Ia entropa cruzada o la entropa relativa.
Como veremos a continuacin, un buen modelo de probabilidad es muy
rtil a la hora de comprimir una secuencia. En este contexto, la razn de
compres'n se define como Ia razn entre la longitud en bits der la secuencia
original usando un cdigo de longitud constante y la longitud en bits de la
comprimida.
5.L.2. Compresi n de Huffman
Como ya se ha indicado, la existencia de un modelo de las probabilidades
del siguiente smbolo de una secuencia puede utilizarse para comprimirla.
Si los smbolos del alfabeto I son equiprobables, eutonces cada smbolo
se codificar con
flog2 itll
bits,1 doude
fzl
indica el menor entero mayor o
igual que r.
Sin ernbargo, si los smbolos del alfabeto no son equiprobables, puede in-
teutarse asignar diferentes longitudes a sus codificaciones de manera que las
rEn
toda esta discusin consideraremos que el sistema de codificacin es binario. Exis-
ten tambin resultaclos para el caso de alfabetos de codifica.cin de ms de dos smbolos
(Ri f y [ I uguet 1991).
Modelos predictivos basados en redes neuronales recurrentes de tiempo discreto. Juan Antonio Prez Ortiz
Tesis doctorales de la Universidad de Alicante. Tesi doctoral de la Universitat d'Alacant. 2002
5. LAS SOLUCIONES PBEVIAS
longitudes ms cortas se asignen a los smbolos ms probables. No obstante,
debe tenerse cuida<lo en codificar los smbolos de manera que la concantena-
cin de sus codificaciones sea recliperable cle forrna unvoca y proporcione la
secuencia original. Una codificacin que cumpla esta propiedad se denomina
co difi, caci, n inst ant dn ea.
La asignacin de cdigos de difelente longitud es ei principio del clebre
algoritmo de compresion de Huffinan (Bell et al. 1990; Nelson
1,
Gailly 1995).
EI algoritmo de Huflman original recibe como entra<la un alfabeto D
:
{or, . . . , or}
y un conj unt o de probabi l i dades de apari ci n p(o) de cada
uno de los smbolos del alfabeto;2 como salida proporciona un cdigo para
cada smbolo. La codificacin resultrnte es. adems. irrstantnea.
Los pasos para construir una coclificacin de Huffrnan se pueden describir
(Ri f y Huguet 1991) como si gue:
1. Orderrar todos los smbolos de D por sus probabilidades asociadas.
Combinar reiteradamente los dos smbolos con lnenor plobabilidaci
para fortnar un smbolo cornpuesto cuya probabilidad ser la sutna de
las probabilidades de los dos smbolos; esia,s agrupaciorres detenninarr
un arbol bi nari o en el que cada nodo es l a probabi l i dad de todos sus
descendientes.
A1 descender por el rbol hacia cada hoia se forrra el ccligo corres-
pondiente al srnbolo de esa lioja, si se toma urr 0 cada vez que se
desci ende a un nodo derecho y un L en caso contrari o (o vi ceversa).
El aigoritmo de Huffman puede considerarse ptirno eri el -qentido de que
las secuencias codificadas segn el algoritrno tienen la rnenor longitud posi-
ble (siempre que las frecuencias de sus smbolos se ajusten a ias indicadas).
Sin embargo) veremos que esto es cierto solo si partimos de la base de que la
codificacin se ha cle realizar asignando cdigos smboio a srnbolo, Io cual
comporta iirnitaciones obvias aun ctiando se permita que las probabilidades
de aparicin cambien dinmicamente. Otras tcnicas, como la compresin
aritmtica, desarrollan una codificacin global de la secuencia
)
suelen con-
seguir mayores razones de cornpresin.
5. 1. 3. Compresi n ari t mt i ca
Aunque la codificacin de lluffrnan se presenta a veces corno Ia forma
perfecta de comprimir datos. Ia reaiidad es que los cdigos gerrerados por
ella solo proporcionan codifica,ciones ptimas (en ei sentido de un nrnero
2.
' Existen
ta.rnbin ac{apta.ciones pa.ra mzrnejar probabilidades clinmica-s contextuales
Modelos predictivos basados en redes neuronales recurrentes de tiempo discreto. Juan Antonio Prez Ortiz
Tesis doctorales de la Universidad de Alicante. Tesi doctoral de la Universitat d'Alacant. 2002
s.l. coMpREgN oe secutvctAs stMBLtcAs
medio de bits por smbolo igual a la entropa) cuando las probabilidades de
l os smbol os son potenci as enteras de 7f2,l o cual no es el caso habi tual , y
cuando el contexto previo de los smbolos no facilita su codificacili.
La compresin aritmtica (Bell et al. 1990; Nelson y Gailly i995) no
presenta ninguna de estas dos restricciones y obtiene el Imite terico de
la entropa para cualquier mensaje de entrada cuando se utiliza un modelo
correcto de probabilidad. Ademas, su uso en entornos en los que las pro-
babilidades de los smbolos cambian dinmicamente es directo, lo que no
ocurre con los cdigos de Huffman.
La compresin aritmtica funciona representando cada secuencia com-
pleta con un subintervalo Z del intervalo real
[0,1).
Cuanto ms largo es
el urensaje, el intervalo necesario para representarlo se hace ms pequecr
y el nmero de bits necesarios para especificar el intervalo aumenta. Los
sucesivos smbolos del mensaje van reduciendo este intervalo segn sus pro-
babilidades. Los smbolos ms probables lo reducen en menor medida y, por
lo tanto, aaden menos bits al mensaje codificado.
Para mostrar las ideas anteriores con un ejemplo, concentrmonos en urr
sistema sencillo en el que las probabilides son estac,ionarias y no canrbian
con el paso del t i empo. Supongamos que el al f abet o es I :
{A, E, I , O, U}
con l as probabi l i dades estti cas p(,4) :
0.12, p(E) :
0.42, p(I) :
0.09,
p( O) : 0. 3 y p( t / )
: 0. 07
( Pr ess et al . 1992, pp. 910ss. ) .
La figura 5.1 muestra crno se codifica la secuencia IOU. EI intervalo
[0,
1) se divide en 5 segmentos, uno por cada smbolo del alfabeto; la iongitud
de cada segmento es igual a la probabilidad del smbolo correspondiente. El
primer smbolo de la secuencia, .I, estrecha el rango de I a 0.37 < I. <
0.46. Este subintervalo se divide en 5 subintervalos a su vez, cada uno con
longitudes proporcionales a Ia de las probabilidades correspondientes. EI
siguiente smbolo, O, reduce el intervalo T a:n ms, de manera que ahora
0.3763 < I < 0.4033. Finalmente, el smbolo U proporciona el intervalo
final3 0.37630
<
I < 0.37819. Cualquier nmero de este intervalo puede
considerarse como la codifrcacin de la secuencia en cuestin; en particular,
podemos considerar Ia fraccin binaria 0.011000001 (el nmero binario que
menos bits necesita dentro del intervalo) que representa a Ia secuencia IOU
y puede enviarse con 9 bits (no es necesario enviar la parte entera, ya que
siempre es cero).
' tBste
intervalo no representa nicamente a la secuencia IOU
,
sino a cualquier secuencia
qrte c<rmience por IOU. . .
;
para poder distinguirlas, se suele aadir al alfabeto un smbolo
especial de terminacin de secuencia al que se asigna una probabilidad muy pequea y
que :solo aparece como ltimo smbolo de cada secuencia procesacla.
Modelos predictivos basados en redes neuronales recurrentes de tiempo discreto. Juan Antonio Prez Ortiz
Tesis doctorales de la Universidad de Alicante. Tesi doctoral de la Universitat d'Alacant. 2002
5. LAS SOLUCIONES PREVIAS
0. 3
1. 0
0. 9
0. 8
0. 6
o. 3
0. 3
0. 3
0.4
0. 3
.?
0.0
0. 46
0. 3781 I
0. 43
o.42
0. 41
0. 3
0. 3
I
t
U . J
l
I
0. 3'
o.3'1 0.3763 r1.3t30
Figura 5.1: Codificacin aritmtica de Ia secuencia 1OU segrn el alfabeto y las
probabilidades indicadas en el texto. Figura tomad,a d,el li,bro de Press et al. (1gg2).
Evidentemente, la descodificacin consiste en invertir el proceso de ma-
nera que el intervalo considerado se va ensanchando hasta llegar a
[0,1).
El ciescodificador, por lo tanto. ha de conocer el modelo de probabilidad
apiicado en cada instante de tiempo.
La implementacin prctica del algoritmo requiere algr-rnas consid.eracio-
nes adicionaies debido a la limitada precisin numrica de los ordenadores,
que impide de entrada la representacin de cantidades con un nmero arbi-
trario de cifras decimales. Estos detalles de implementacin
pueden
encorr-
trarse en el trabaj o de Nel son (1991).
El ejernplo anterior supona un modelo no adaptativo de las probabili-
dades del siguiente srnbolo. En el caso de utilizar tin modeio adaptativo
las probabilidades pueden reestimarse en cada paso, ajr-rstndolas despus
de procesar cada smbolo y considerando la historia previa de la secuencia.
Para ello hace falta un pred'ictor que determine las probabilidades clel si-
guiente srnbolo de la secuencia que se utilizan para estrechar el rango T. La
razn de compresin obtenida con Ia compresin aritmtica puede utilizarse
7S0
']]8
I
I
776
I
i

T N
I
''1'12
T7
768
766
7M
E
U
Modelos predictivos basados en redes neuronales recurrentes de tiempo discreto. Juan Antonio Prez Ortiz
Tesis doctorales de la Universidad de Alicante. Tesi doctoral de la Universitat d'Alacant. 2002
5.1. COMPRESIN DE SECUENCIAS SIMBLICAS
como medida de la calidad del predictor) en tanto que mejores predictores
proporcionarn mayores iazones de compresin.
5.L.4. Model os de probabi l i dad de n-gramas
Para poder utilizar adecuadamente Ia compresin aritmtica se necesita
construir un modelo estadstico de los datos. El mrs sencillo es un modelo
fijo; por ejemplo, una Iista con las frecuencias de aparicin de los distintos
smbolos. Sin embargo, un modelo que considere tnicamente las probabili-
dades estticas de los diferentes smbolos no suele proporcionar una buena
estimacin de la entropa real de los datos, como ya hetnos comentado. Esto
ocurre especialmente cuando el entorno en que se genera Ia secuencia es no
estac'ionario, es decir.las propiedades del modelo estocastico que la genera
varan con el tiempo.
Una posibilidad para mejorar el modelo anterior es utilizar un modelo
de probabilidad adaptativo que evolucione con la secuencia. Los rnoclelos de
n-gramas son uno de los ms conociclos dentro de esta ltima categora.
En un modelo de n-gramas se asurne que la identidad del siguiente
sinbolo de la secuencia est condicionada por las de los n
-
1 smbolos
anteri ores, esto es, l a ecuaci n (5.2) se transforma en:
p( s[ t + 1]
l s [ i ] , ' [ 2] , . . . , s [ ] )
:
p( s[ t + 1]
l s [ t
-
( n
- 2) j , . . . , s [ ] )
( 5. 11)
En el caso de l os bi gramas (donde n:2), i a ecuaci n anteri or se convi erte
en:
p( sf t
+ l l l s[ 1] , s[ 2) , . . .
, ' [ ] )
: p( sf t
+ t ] l s[ t ] ) ( 5. 12)
La estimacin de las probabilidades del smbolo siguiente es sencilla en este
caso y puede hacerse mediante:
p( s[
+ I ] : on
I s[ t ]
:
C (slt)o)
( 5. 13)
I|?,
c{"ttl"i)
donde C(.) representa el nmero de veces que el argumento ha aparecido en
la secuencia observada hasta el instante actual. La generalizacin al caso de
n-gramas es di recta.
Para evitar que las probabilidades calculadas con ia expresin anterior
sean cero, se suele reservar una pequea parte de la probabilidad para sub-
secuencias de n-gramas que no han aparecido todava en Ia secuencia.
Las razoles de compresin obtenidas son muy buenas (Nelson 1991)
cuando se utilizan modelos dinmicos y adaptativos de n-gramas y se man-
tienen sirnultneamente modelos de distintos rdenes. Por ejemplo, etl la
Modelos predictivos basados en redes neuronales recurrentes de tiempo discreto. Juan Antonio Prez Ortiz
Tesis doctorales de la Universidad de Alicante. Tesi doctoral de la Universitat d'Alacant. 2002
5. LAS SOLUC/ONES PBEVAS
tcnica conocida como pred'icc'in por concordancia parcial se busca una
concordanci a de l a subsecuenci a mrs reci ente en un modei o de orden n. Si
no se encuentra ni nguna concordanci a, se baj a a un model o de orden n
-
I,
y as sucesivamente hasta llegar a un modelo de orden 0.4
Las RNR permiten obteuer un modelo de las probabilidades del siguiente
smbolo mediante Io que en principio podra considerarse como un modelo
de co-sramas.5
Por otra parte, es de vi tal i mportanci a que tanto el compresor como el
descompresor desarrollen el mismo rnodelo aclaptativo de probabilidacl.6
5. 1. 5. Programas de compresi n
Ya que en el captulo 6 rnostraremos los resultados obteniclos con ellos,
se presentan aqu algunos programas conocidos de cornpresin y'las tcnicas
en las que se basan.T
El programa gzip utiliza el algoritrno de cornpresin cle Lempel y Ziv
(Zi v y Lernpel 1977;.Nel son y Gai l l y 1995), l i anrado as en honor a sus
creadores. Ambos propusi eron dos versi ones cl e su al gori tmo, una en 1977
(L277) y otra en 1978 (LZTB); gzl p uti l i za l a pri mera. Oto conoci cl o pro-
grama de entornos Uni x, compress, se basa enLZW (por Lempel , Zi v y
Wel ch), una vari aci n ci e 1984 de L278. Tanto LZ77 comoLZTS se consi -
deran corrlpresores sust'itucionaLes: la idea bsica es sustituir la presencia
cl e una determi nada subsecuenci a de Ia secuenci a a compri mi r por una re-
ferencia a una aparicin previa de esa misma subsecuencia. La compresin
obtenida con estos compresores sustitucionales suele ser mayor que la ob-
tenida con tcnicas basadas en la codificacin de Huffman
(aclaptati',as
o
no).
"Un modelo de mouogramas solo tiene en cuenta el nmero de veces que ha aparecido
el srnbolo en cuestin; un modelo de O-gramas considera que todos los smbolos son
equiprobables.
sEn
realidad, la memoria cte las RNR estndar es muy limitacla y se reduce a unos
cuantos smbolos debiclo a los problema.s que a.parecen al tener que tratar con clepenclencias
a la-rgo plazo (vase el apa,rtado 4.IL2).
oEn
el caso de las redes neuronales, esto implica partir de los lnismos va.lores para todos
los parmetros del sistema (los pesos pueden iniciarse aleatoriamente siempre que tanto
compresor como descompresor utilicen ei mismo generador de nrmeros aleatorios iniciado
con una semilla idntica).
tDebe
tenerse en cuenta que nuestra intencin es evaluar la cerpaciclad cle precliccin cle
las RNR sobre secuencias simblicas; por lo tanto, no tiene mucho senticlo comparar los
resultaclos de algunos programas como gzip obzip2 con,los de un compresor aritmtico
basado en un predictor neuronal. Las razones de compresin con este tipo cle compresores
se mc.strarn para hacernos una idea de cul puede ser un buen resultado.
Modelos predictivos basados en redes neuronales recurrentes de tiempo discreto. Juan Antonio Prez Ortiz
Tesis doctorales de la Universidad de Alicante. Tesi doctoral de la Universitat d'Alacant. 2002
5.1. COMPRESIN DE SECUENCIAS SIMBLICAS
EI programa bz:-p2 utiliza la transformada de Burrows y Wheeler seguida
de compresin de Huffman. Esta tansformada (Burrows y Wheeler 1994;
Nelson y Gailly 1995) es un algoritmo de reordenacin reversible; su salida
ordenada se comprime fcilmente con las tcnicas habituales de compresin.
La raz6n de compresin suele ser mayor que la obienida con compresores
basados en LZ77 como gzip. Sin embargo, bzip2 comprime las secuencias
en bloques por lo que no es muy adecuado para la compresin en lnea.
Ninguno de los compresores anteriores utilizan (al menos, no como parte
fundamental de su operacin) un rnodelo probabilstico.
Por otro lado, uno de los pocos compresores aritmticos existerrtes es el
desarrol l ado por Nel son (1991). Este compresor uti l i za una combi naci n de
tnodelos de n-gramas de distintos rdenes para estinrar las probabilidades,
corno se indic antes.
5.1.6. Di ferenci as con l a i nferenci a gramati cal cl :si ca
Como ya se coment en 7.2.I, en esta tesis el rnodelo de probabilidad
se obtiene en lnea: las RNR trabajan en tiempo real dando una salida tan
correcta como sea posible para cada elemento de la secuencia suministrado
en cada iteracin; esta salida se considera como una prediccin de las proba-
bilidades del siguiente smbolo de la secuencia. Esto supone una diferencia
fundamental con la forma clasica cle abordar la inferencia gramatical, una
tarea que corno ya se vi en 1.2.2 ha sido ampliamente estudiada con RNR.
Aunque una de las formas de realizar la inferencia gramatical es entrenar
la red para que aprenda a predecir el siguiente smbolo de la secuencia, el
modus operand' seguido tradicionalmente es bastante distinto al de nuestro
problema. Bajo ei enfoque tradicional, puede demostrarse fcihnente (escri-
biendo el error de prediccin total como una suma sobre todos los prefijos
de todas las secuencias de Ia muestra) que el modelo neuronal ideal. obte-
nido para un conjunto finito de secuencias finitas por medio de (vase el
apartado 4.3.1 para Ia demostracin de estas ides):
1. entrenarniento intensivo fuera de lnea.
2. uso de una familia de funciones de error global (como la funcin
error cuadrtico o la distancia de Kullback-Leibler), y
3. codificacin exclusiva de las salidas deseadas,
sEsto
implica que Ia propiedad de convergencia aqu sealada no puede aplicarse a
seales numricas, nicamente a smbolos discretos.
de
Modelos predictivos basados en redes neuronales recurrentes de tiempo discreto. Juan Antonio Prez Ortiz
Tesis doctorales de la Universidad de Alicante. Tesi doctoral de la Universitat d'Alacant. 2002
5. LAS SOLUCIONES PREVIAS
proporciona una salida que aproxima tanto como se posible las frecuencias
relativas del siguiente smbolo observadas en la muestra finita; estas sali-
das pueden utilizarse como probabilidades aproximadas al tratar secuencias
nuevas.
El problema considerado en este trabajo es diferente en tres aspectos
pri nci pal es: se procesa una ni ca secuenci a i l i mi tada, el
i rrocesami ento
es
en l nea y l a funci n de error uti l i zada es l ocal . Nuestro trabaj o se basa
en l a conj etura, si mi l ar a l a pl anteada por El man (1990, p. 197) de que,
i ncl uso baj o estas condi ci ones di sti ntas, l a sal i da de l a recl puede segui r
considerndose como una aproximacin a las probabilidades del siguiente
srnbolo.
5. L. 7. t abaj os neuronal es
Se analiza, por io tanto, el uso cte RNR para preclecir en lnea el siguiente
elemento de una secuencia. La compresin aritmtica se Lrsa para evaluar
la calidad del predictor. En los experirnentos se consideran diferentes gene-
radores de secuencias simblica.s que van desde rnquinas cle estaclos finitos
a textos en lenguaje humano. Al contrario clue arrteriores traba.jos (Clee-
rernarl s et al . 1989; Schmi dhuber y Stefan 1996; Ti o y Ktel es 1999), que
utilizaban prediccin fuera de lnea con estas secuencias, en este trabajo nos
concentrar:ernos en Ia prediccin en lnea.
Hay varios trabajos qr-re discuten el uso de recles neuronales como modelo
probabilstico para la codificacin aritmtica de textos en lengua.je humano.
Schmi dhuber y Stefan (1996) usan un perceptrn mul ti capa con una ventana
temporal cle entradas para obtener resultados prometedores mediante retro-
propagacin estnclar (Rumelhart et al. 1986). Un enfoque muy similar es el
segui do por Long et al . (i 999), pero i os smbol os de l a secuenci a a compri rni r
se recodifican previamente para acercar entre s las representaciones de los
smbolos con un contexto posteri.or similar. Ambas tcnicas, sin embargo,
trabajan bajo la suposicin de un entrenamiento fuera de lnea, lo que las
hace inadecuadas para entornos no estacionarios o aplicaciones en tiempo
real .
Mahoney (2000) uti l i za codi fi caci n ari tmti ca y url percreptrn si n capa
oculta para comprimir textos en lnea, aultque Ia tcnica no es compieta-
mente neuronal. Su perceptrn tiene miles o incluso millones de entradas, ya
que se usa una entrada distinta para cada contexto posible, desde el smbolo
anterior a los 5 anteriores. Esta elevada complejidad espacial se ve com-
pensada por una baja complejidad temporal, ya que nicamente hace falta
actualizar un nmero reducido de pesos tras cada smbolo. Ademrs, la pre-
di cci n se real i za bi t a bi t con l o
que
soi o se Dreci sa Ll na l l eurona de sai i da.
Modelos predictivos basados en redes neuronales recurrentes de tiempo discreto. Juan Antonio Prez Ortiz
Tesis doctorales de la Universidad de Alicante. Tesi doctoral de la Universitat d'Alacant. 2002
5.2. INFERENCIA DE LENGUAJES CON DEPENDENCIAS A LARGO PLAZA
La tcnica, sin ernbargo) no es completamente neuronal, ya que junto a cada
peso se almacenan dos contadores que se encargan de guardar el nmero
de apariciones del contexto asociado. Los resultados de sus experimentos
superan los de otras tcnicas de compresin.
En cuanto a las secuencias de estados finitos, es de esperar buenos resul-
tados con RNR, ya que se ha demostrado (Goudreau et al. 1994; Alquzar y
Sanfeliu 1"995; Horne y Hush 1996; Carrasco et al. 2000) la capacidad de dis-
tiutas RNR de primer y segundo orden para codificar mquinas de estados
finitos.
5.2. Inferenci a de l enguaj es con dependenci as a l argo pl azo
Como ya se coment en el apartado 1.2.2, una de las formas de reaiizar
Ia inferencia de lenguajes es mediante Ia prediccin del siguiente smbolo de
una secuencia. Tambin ali se coment cmo Ia red LSTVI permite superar
parcialmente el problema que surge al tratar las dependencias a largo plazo.
Todos los trabajos anteriores de inferencia de lenguajes con LSTM usa-
ban un algoritmo de entrenamiento de descenso por el gradiente para actua-
Iizar los pesos. En los trabajos desarrollados para esta tesis, se aplica por
primera vez ei FKED a la red LSTM y se comparan los resultados obtenidos
con los del algoritmo original y con los conseguidos con RNR tadicionales.
En primer lugar, se considera la prediccin en lnea sobre una secuencia
generada por el auttnata sirntrico de Reber (Smith y Zipser 1989) de la
figura 6.4. Se trata de la prirnera vez en que Ia red LSTNI se aplica a
una situacin de aprendizaje completamente en lnea: la red tiene que dar
en tiempo real una salida tau correcta como sea posible para la entrada
aplicada en cada instante de tiempo. Con los experimentos se estudiar qu
clase de moclelo interno desarrolla Ia red y si este es comparable.al obtenido
en trabaj os anteri ores (Hochrei ter y Schmi dhuber 1997; Gers et al . 2000),
en los que la inferencia se realizaba fuera de lnea o soio parcialmente en
lnea.
En segundo lugar, se ahonda en algunos resultados
previos en torno a
Ia capacidad de ias RNR para aprender un sencillo lenguaje sensible al con-
texto, anbncn, con fuertes dependencias a largo plazo conforme se aumenta
el valor de n.
Se ha demostrado que las RNR son capaces de reconocer lenguajes de-
rivados de mquinas de estados finiloss: la mayor parte de los trabajos
relacionados con la inferencia de lenguajes con RNR se ha centrado en ellos.
sVase
el libro indito de Forcada (2002) para un repaso del estado de la cuestin de
este aspecto,
Modelos predictivos basados en redes neuronales recurrentes de tiempo discreto. Juan Antonio Prez Ortiz
Tesis doctorales de la Universidad de Alicante. Tesi doctoral de la Universitat d'Alacant. 2002
5. LAS SOLUCIONES PREVIAS
Solo unos cuantos autores iran intentado ensear a las RNR a extraer las
reglas de aigunos lenguajes independientes del contexto o sensibles al con-
texto (Sun et al . 1993; Wi l es y El man 1995; Tonkes y Wi l es 1997; Rodri guez
y Wi l es 1998; Rocl ri guez et al . 1999; Bodn y Wi l es 2000), que requi eren el
equivalente funcional a una o dos pilas, respectivamente, de tamao ilimita-
do.
Al gunos de l os trabaj os anteri ores fracasaron al i ntentar aprender pe-
queos conjuntos de entrenamiento de lenguajes inclependientes del con-
texto. Aunque otros trabajos lo consiguieron e incluso algnnos llegaron
a aprender pequeos conjuntos de entrena,miento de lenguajes sensibles al
contexto (Chal up y Bl ai r 1999: Bodn y Wi l es 2000), l as redes obteni das
eran incapaces de generalizar adecuaclamente con conjuntos cle evaiuaci
ligeramente mayores.
En esta tesis nos colrcentraremos en uno de los pocos lengua.ies sen-
sibles al contexto a cuyo aprendizaje se han destinado ias RNR, a saber,
anb{. Las RNR tradi ci onal es no sor} capaces de general i zar acl ecuadal nen-
te con este senci l l o l enguaj e: Chal up y Bl ai r (1999) constataron c{ue una
RRS entrenada mediante un algoritrlo voraz poda aprender el conjrrnto cle
entrenami ento para n 1 12, pero no aportaron datos sobre l a capaci dad de
general i zaci n. Bci dn y Wi l es (2000), por otra parte, entrenaron una recl
secuenci al en cascada de segundo orden con BPTT; para un conj unto cl e
entrenami ento con n e
[1,10],
l as rnej ores redes general i zaban a n
[1,
1B],
pero el eutrenarniento solo finalizaba con xito un 2Vo de las veces lBodn v
Wi l es 2002).
En cual qui er caso) debe rnati zarse que en esta tarea l a RNR no se entrena
con un lenguaje no regular, ya que una parte finita de un lengtiaje como
enbn c'n es directamente regular. De 1o que se trata (Bodn y wiies 2002)
al estudiar Ia capacidad de generaiizacin de la red es de comprobar si esta
descubre una solucin distinta a ia de un autmata finito.
En esta tesi s extenderel nos l os resul tados obteni dos sobre a"bncn poy
Gers y schmi dhuber (2001) con LSTMI y descenso por el gradi ente para
comprobar si se manti enen) empeoran o rnej oran al usar el FKED.
5. 3. Desambi guaci n cat egori al
son varios los enfoques propuestos para la desambiguacin categorial
automtica. La mayora pueden asociarse a uno de los siguiente grupos:
1. Enfoques basados en regl as (Bri l l i 9g2), que se basan en el conoci -
miento lingiistico para determinar la categora lxica de una palabra
ambigua;
Modelos predictivos basados en redes neuronales recurrentes de tiempo discreto. Juan Antonio Prez Ortiz
Tesis doctorales de la Universidad de Alicante. Tesi doctoral de la Universitat d'Alacant. 2002
5.3- DES AM BI GIJAC I ON CAT EGO R I AL
2. Enfoques estadsti,cos, que usan las estadsticas recogidas de textos
completa o parcialm.ente etiquetados para estimar la verosimilitud de
cada posible interpretacin de una frase o fragmento de esta y esco-
ger la desambiguacin ms verosmil; los mrs representativos de estos
mtodos son los modelos ocultos de Markov (MOM) (Cutting et al.
1992; Rabiner 1989) entrenados mediante el clsico algoritmo de Baum
y Welch; este mtodo se discute con detalle en el apndice A.
3. Evidentemente, son tarnbin posibles los enfoques hbridos que com-
binan caractersticas de los dos anteriores.
Todas las tcnicas neuronales se engloban principalmente dentro del se-
gundo grupo. A continuacin las repasamos brevemente.
5.3.1. Tbabaj os neuronal es
Las RNR se han usado ampliamente desde su concepcin en taeas de
procesamiento del lenguaje humano. Elman (1990) fue de los primeros en
hacerlo: entren su red recurrente sirnple (RRS) para predecir Ia siguien-
te palabra de un corpus sinttico cle oraciones gramaticales sencilias (de
dos o tres palabras) generadas aleatoriamente a partir de un pequeo vo-
cabulario de palabras no ambiguas sin etiquetar. Elman encontr que, tras
el aprendizaje, el estado al que llegaba la red tras leer una palabra per-
mita agrupar Ias palabras en categoras que podan ser identificadas con
l as tradi ci onal es (nombre, verbo transi ti vo, verbo i ntransi ti vo, etc.). Para
poder realizar adecuadamente esta agrupacin la red tena que desarrollar
una forma de obtener ai vuelo una representacin de la sintaxis de la par-
te de oracin visa hasta ese momento. Los resultados de los trabajos de
Elman tienen importantes connotaciones desde el punto de vista cognitivo:
los humanos aprendemos sintaxis y morfologa simplemente por nuestra ex-
posicin continua a las co-apariciones internas en oraciones no etiquetadas.
Este aspecto del trabajo de Eiman queda atenuado por la poca verosimilitud
neurobiolgica (Forcada y Carrasco 200i) de los modelos de tiempo discreto
que son las RNR.
En esta tesis se estudia la aplicaciu de una RNR al problema de la
desambiguacin categorial de las palabras arnbiguas de una oracin a partir
de la inforrnacin almacenada en el estado de la red. Aunque el uso de una
RNR en esta tarea no es del todo nueva (Marques y Lopes 1996), s que es
la primera vez que el problema se formula como un problema de prediccin
y se utiiza un corpus solo parcialmente etiquetado.
Schmi d (1994) uti l i za un perceptrn si n capa ocul ta para eti quetar textos
en ingls. La^s entraclas a Ia red son rura codificacin de la palabra actual,
Modelos predictivos basados en redes neuronales recurrentes de tiempo discreto. Juan Antonio Prez Ortiz
Tesis doctorales de la Universidad de Alicante. Tesi doctoral de la Universitat d'Alacant. 2002
5. LAS SOLUCIONES PBEVIAS
i asp ant er i or es yl as
/ si gui ent es
( en t ot ai p+
f
+ l pal abr as) . Lar ed se
entrena para dar como salida la categora de Ia palabra actual. Cacla palabra
se representa mediante un vector en el que el componente j-simo
es la
probabilidad de la
j-sima
categora lxica dada la palabra en cuestin (estas
probabilidades se obtienen mediante maxirna verosimilitud, contando sobre
un texto completamente etiquetado). En el caso especial de las p palabras
precedentes, Ia codificacin es una combinacin lineal de ese vector y la
salicla dada por la red para la palabra corresponciiente. El etiquetador usa un
diccionario y un rbol de sufi.jos (un adivinador que determina la categora
de l as pal abras que no estn en el di cci onari c' ). EI entrenami ento consta,
en total , cl e 4000000 i teraci ones sobre un corpus de 1000000 pal abras. Los
resultados se muestran para el caso p :
3 y
f
: 2, aunclue el autor indicr
que los resr"rltados son muy sirnilares cuando p
:
2 y
f
:
I. El modelo
neurolral obtiene w 27o d.e mejola sobre urr IVION{ y restilltrclos siurilares a,
l os de un mocl el o cl e tri grarnas. Si se uti l i za urra capa ocul ta, Ios resul tados
sc)rl a. veces ligeramente rnejores v otras veccs iigerarnente peores, por io que
esta, circnnstancia no parece influir mucho.
N'Iarques y Lopes (1996) siguen un enfoque muy parecido al anterior para
el portugus, pero Llsall tln conjunto de entrerrarniento mucito ms pecpreo:
un corpus completamente etiquetado de unas 3 400 palabras y entre 5 000
y 1-0 000 i teraci ones de entrenami ento. Ademas de un perceptrn con y si n
capa ocul ta, uti l i zan una RRS. Como contexl o usan p :
0 y
f
:
L EI
nmero de categoras lxicas consideradas es 35 y los mejores resultados se
obti enen con el perceptrn si n capa ocul ta. EI artcul o, si n embargo) no
rnuestra una comparacin con otos mtodos.
Ma y Isahara (1997) utilizan tambin un enfoque sirnilar al de Schmid
(1994), en este caso para el tai l ands, pero arnpl an el model o neuronal
y utilizan una combinacin de perceptrones cou Lula capa oculta. Cada
perceptrn utiliza valores cliferentes para el tarnao clel conrexto (p y
/).
Los
resultados se combinan de dos maneras distintas: bien tomando la salida de
l a red con mayor tamao de contexto (p+/) que proporci ona una esti maci n
clara para una determinacla categora (neurona con activacin superior a url
urnbral), o bien decidiendo Ia categora de Ia palabra. solo cuando toda^s las
redes coinciden en una concreta. EI conjunto de entrenamiento consta de
3162 frases con 8242 palabras ambiguas y el conjunto cle categoras lxica^s
tiene tamairo 53.
En otro de sus artcul os, VIa et al . (1999) corrsi deran un modei o de un
nico perceptrn con una capa oculta, pero la salida de la red es corre-
gida mediattte un conjunto de reglas de transfonnacin como las utilizadas
por Bri l l (1992). De esta manera l a tasa de aci erto del eti quetador mej ora al -
rededor de ur 1% sobre el mocl el o neuronal ori ei nal . Se uti l i za un
perceptru
Modelos predictivos basados en redes neuronales recurrentes de tiempo discreto. Juan Antonio Prez Ortiz
Tesis doctorales de la Universidad de Alicante. Tesi doctoral de la Universitat d'Alacant. 2002
5.4. PREDICCION DE SENALES DE VOZ
con capa oculta entrenado mediante retropropagacin y la longitud del con-
texto previ o y posteri or (p y
/)
se sel ecci ona di nmi camente (pri ori dad del
contexto ms largo). El tamao del corpus completamente etiquetado usado
en el entrenami ento es mucho menor que el de Schmi d (199a): 8322 frases
con22311 palabras ambiguas (nmero de etiquetas, 47). Los resultados son
ligeramente mejores que los del clasificador multineuronal de N{a y Isahara
(1ee7).
Como ya se ha indicado, aqu se estudia un nuevo enfoque para el proble-
ma de la desambiguacin de categorias lxicas. Es el primer trabajo de este
tipo que utiliza una RNR y en el que la resolucin del problema se plantea
en terninos de precliccin.10 Nuestro enfoque guarda cieto parecido con el
enfoque estadstico (en concreto con el de tipo Baum y Welch), ya que solo
se requiere un texto parciaimente etiquetadott y, bajo ciertas condiciones,
las salidas de la red se pueden interpretar como probabilidades.
5. 4. Predi cci n de seal es de voz
Existe un abanico enorme de tcnicas de prediccin de seales de voz,
aunque, como se indic en el apartado 1.2.4, Ias lineaies son las ms usaclas
con diferencia por su equiiibrio entre senciilez y eficencia.
As, suele utilizarse un filtro FIR o un filtro IIR (vase el apartado 3.1.4)
entrenados mediante alguno de los mrltiples algoritrnos existentes (Oppen-
hei rn y Schafer 1989; Proaki s y Manol aki s 1996).
5.4.I. Trabaj os neuronal es
Las RNR aparentan ser una buena alternativa no lineal para la prediccin
de voz: la memoria resultante de la existencia de conexiones recurrentes y
la capacidad de adaptarse a cambios en ej entorno las hace, en principio,
apropiadas para seales no estacionarias como Ia voz.
Los nicos traba.jos sobre prediccin de seales de voz en tiempo real
con RNR siguen la lnea del trabajo de Haykin y Li (1995), que disearon
una RNRC (vase el captulo 3) para realizar Ia prediccin de seales de
voz. La RNRC se usa en una sucesin en cascada de
predictores
no lineales
y lineales.
l0Como
usamos corpus no etiquetados, la red se entrena para predecir la clase de am-
bigeda.l de la siguiente palabra y no para emitir la clase de ambigedad o Ia etiqueta
correcta cle la palabra actual (prediccin tersus desambiguacin).
l1Arlnque
los trabajos neuronaies citados anteriormente usaban corpus etiquetados a
mano relaltvamente pequeos, el nuestro los evita por completo.
Modelos predictivos basados en redes neuronales recurrentes de tiempo discreto. Juan Antonio Prez Ortiz
Tesis doctorales de la Universidad de Alicante. Tesi doctoral de la Universitat d'Alacant. 2002
5. LAS SOLUCIONES PREVIAS
Bal tersee. y Chambers (1998) comprobaron que el rendi mi ento de l a
RNRC es insuficiente (comparable al de un filtro lineal) cuancio se r-rtiliza
para su entrenamiento el descenso por el gracliente con RTRL y propusieron
en su lugar el uso del FKED. Con este ltimo, obtuvieron me.joras de unos
2 dB sobre un filtro lineal. Debe sealarse, sin embargo, que los resultados
presentados en ambos artculos pertenecen aI caso mejo,r: solo se realiza un
nico experimento con parmetros ad hoc.
Como ya se vio, la RNRC se corrrpone cle varias RPR de primer orden
que comparten los mismos valores de sus pesos y que estn conect-das de
tal manera que la salicla de una de ellas es la entrada de la siguiente. La
RNRC puecle consiclerarse como un modelo diseaclo ad hoc (cle hecho, no
existen otros trabaios que la,s usen). No hay, sin ernbargo, estudios sobre
el rendirniento de RNR clsicas de propsito general al aplicarlas a lir pre-
diccin en lnea de seales de voz. En esta tesis se compara los resr-rltaclos
de Bal tersee y charnbers (1998) con l os nuevos resul tacl os obteni dos para
alguuas RNR clsicas. La prediccin se realiza. directarnente sobre Ia seal
de voz si n preprocesar.
Modelos predictivos basados en redes neuronales recurrentes de tiempo discreto. Juan Antonio Prez Ortiz
Tesis doctorales de la Universidad de Alicante. Tesi doctoral de la Universitat d'Alacant. 2002
Volver al ndice/Tornar a l'ndex
6. COMPRESION DE SECUENCIAS SIMBOLICAS
Este captulo estudia el uso de las RNR como modelo de probabili-
dad para un compresor aritmtico de texto en lenguaje natural. Como
aperitivo se estudia la compresin de secuencias ms sencillas, princi-
palmente deiva,das de mquinas de estados finitos. Las ideas bsicas cle
este captulo se hn publicado en las actas de un congreso internacional
(Prez-Ortiz et al. 2001b) y
"n
una revista internacional (Prez-Ortiz
et al . 2001c) .
La intoduccin a ios conceptos de este captulo puede encontrarse en
l os aoart ados 1. 2. 1 v 5. 1.
6. 1. Mt odo
Se trata de estudiar la idoneidad de las RNR como modeio de proba-
bilidad dei siguiente smbolo de una secuencia procesada en lnea, es decir,
se ha de proporcionar una salida inrnediata ante cada nuevo smbolo pro-
cesado sin posibilidad de reconsiderar la subsecuencia ya contemplada. La
existencia cle un modelo correcto de este tipo se pr"rede utilizar para compri-
mir las secuencias por medio de, por ejemplo, un compresor aritmtico. De
hecho, puede considerarse de forma equivalente que los experimentos inten-
tan evaluar la capacidad predictiva en lnea de las RNR y que Ia compresin
aritmtica se usa nicamente para evaluar la calidad del predictor) ya que
cuanto me.jor es la prediccin, mejor es la razn de compresin obtenida.
Podra alegarse, por tanto, que el habitual error cuadrtico medio es una
medida ms sencilla e igualmente til para evaiuar la calidad del predictor.
Sin embargo, esta medida solo es aplicable en el caso de que conozcamos
las probabiiidades reales de los posibles siguientes smbolos de la secuen-
cia. En el caso de que estas probabilidades no sean conocidas (como ocurre,
por ejemplo) con las secuencias textuales), el error solo puede basarse en
la diferencia entre el smbolo predicho (normalmente aquel con mayor pro-
babilidad) y el observado en el siguiente instante de tiempo. Es necesaria,
por tanto, una forma de error alternativa que considere el vector completo
B3
Modelos predictivos basados en redes neuronales recurrentes de tiempo discreto. Juan Antonio Prez Ortiz
Tesis doctorales de la Universidad de Alicante. Tesi doctoral de la Universitat d'Alacant. 2002
6. COMPRESION DE SECUENCIAS SIMBOLICAS
de probabilidades estimadas: la compresin aritmtica es una solucin ade-
cuada. En deflnitiva, la codificacin aritmtica es una alternativa emprica
para medir la caiidad de un predictor (neuronal o no) cuando no se pueden
calcular los valores tericos.
Como modeio de probabilidad de referencia para un compresor aritmtico
usaremos el programa de Nel son (1991) con un model c., combi nado de
[0,4]-
gralnas.
6. 1. 1. Secuenci as de est ados f i ni t os
A modo de aperitivo, consideraremos ullas secuencias de estructura rns
sencilla que las cle texto. Estas secuencias se basan principahnente en
mqrrinas de estados finitos y es previsible obtener buenos resultados con
elias, ya que se h1, demostrado clue las RNR son capaces de aprender frie-
ra de lnea lenguajes regrilares (Cleerernaits et al. 1989) e incluso emular
mqui nas de estacl os fi ni tos (Carrasco et al . 2000).
Las secuencias de estaclos finitos se derivan de 1o que Ilarnarernos
/uen-
tes secuenci al es de estadcts
f,ni tos
(FSEF). que prreden cl efl ni rse como utl a
qt i nt upl a M: ( D, Q, qr , 6, P) , donde
. E
:
ort. . .
,
ol tl es el al fabeto de entrada.
Q
: qt,. . .
,Ql el
es un conj unto fi ni to uo vaco de estados.
.
91
es el estado i ni ci al , q
Q.
es la funcin de transicin de estado, 6 ,
Q
x X
--+
Q.
o P es un conjunto de probabilidades de transicin de estados de ia
forma p(U,o), que i ndi ca Ia probabi l i dacl de que el estado
a
e
Q
emi ta el smbol o o eD y se real i ce una transi ci n al estacl o 6(q,o).
Nt ese que para t odo q se t i ene
eue D
p(q, o): I .
Una fuente secuencial cle estaclos finitos (FSEF) puecle considerarse corrlo
un autmata fi ni to detenni ni sta (Hopcroft y Ul l man 1979) err el que cada
transicin tiene una probabilidad, no existen estados de aceptacin y la
Iongitud de las secuencias generadas puede ser arbitrariamente larga.l
La fi gura 6.1 muestra l a FSEF 1, una FSEF senci l l a que se usar en i os
experimentos. Un buen predictor para las secuencias generadas a partir de
rPara
ello debemos exigir que no existan en la fuente estados de absorci,n, pero esto
viene forzado por la propia definicin, cre obliga a que la suma de las probabilidades del
siguiente smbolo para un estado determinado sea uno.
Modelos predictivos basados en redes neuronales recurrentes de tiempo discreto. Juan Antonio Prez Ortiz
Tesis doctorales de la Universidad de Alicante. Tesi doctoral de la Universitat d'Alacant. 2002
6.1. MTODO
Figura 6.1: Diagrama cle transiciones de Ia FSEF 1. El smbolo inicial aparece
eticluetado como qI. Todas las transiciorles que parten de un mistno estado son
equi probabl es.
esta fuente debe tener una pequea memoria a corto plazo para predecir
correctamente el smbolo que sigue a X.
La fl gura 6.2 muestra Ia FSEF 2 basada en el autmata de Reber (Smi th
y Zipser 1989), al que se ha aadido una conexin recurrente que perrnita
generar secuenci as de l ongi tud i ndetermi nada.2
La FSEF 3, una versi n conti nua del autmata de Reber si rntri co (Smi th
y Zi pser 1989), se muestra en l a fi gura 6.4. Esta FSEF presenta dependenci as
a largo plazo (provocadas por los smbolos P oT), aunque estas apenas se
mani fi estan durante una secuenci a.
6. I . 2. Secuenci as cat i cas
Las fuentes secuenciales anteriores se basaban en Ia existencia de un esta-
do representado por el conjunto
Q.
Lu fuente se encuentra en cada instante
de tiempo en un determinado estado v a partir de l puede determinarse en
cierta medida su evolucin inminente. En esta seccin se discute una fuente
secuencial no basada, en estados
fi,ni,tos:
una fuente catica.
IJn sd;tema di,nrni,co (siempre no lineal) se considera cattco3 si presenta
un comportamiento aperidco (esto es, resultado de oscilaciones que no
se repiten nunca, de periodo infinito) resultado de un modelo totalmente
2En
adelante se usar en ocasiones el nombre del autmata finito subyacente para
referirse a la FSEF obtenida a partir de 1.
3Para
una buena introduccin a la teora del caos y para Ia definicin de los trminos
utilizados en los siguientes prrafos puede consultarse el libro de Martn et al. (1995) o el
de Hi l born
(2000).
Modelos predictivos basados en redes neuronales recurrentes de tiempo discreto. Juan Antonio Prez Ortiz
Tesis doctorales de la Universidad de Alicante. Tesi doctoral de la Universitat d'Alacant. 2002
6. COMPRESION DE SECUENCIAS SIMBOLICAS
B
Q I
V
.r
P
s
P
l.
V
T
L
----l
Fi gura 6.2: Di agl arna pal a i a FSEF 2 basada en el autmata de Reber. Toci as l as
transicioues que parten de i.rn mismo estado son equiprobables. Las transiciones no
mostradas en el diasrama tienen
probabilidacl
nula.
Fi gura 6.3: Di agrama de transi ci ones para el autma.ta de Reber estnda,r.
determinista y que presenta gran sensibiiidad a las condiciones iniciales.
La sensibilidad a Ias condiciones iniciales irnplica que existe una d,'iuergenc'i,a
erponenc'ial de trayectorias inicialmente muy prximas en el espacio de fases,
fenmeno que se colloce como est'iram'ento. Otra propiedad existente sobre
el espacio de fases y opuesta al estirarniento es eI plegami,ento, que conlleva
que dos lrayectoria-r,s muy lejanas pueden everrtualmente acercarse.
Modelos predictivos basados en redes neuronales recurrentes de tiempo discreto. Juan Antonio Prez Ortiz
Tesis doctorales de la Universidad de Alicante. Tesi doctoral de la Universitat d'Alacant. 2002
6.1. METODO
Autmata de Reber
B
' t '
T
qI
E
P P
Autmata de Reber
Figura 6.4: Diagramas cte transiciones para la FSEF 3, obtenida a partir del
autmata de Reber de la figura 6.3. Todas 1as transiciones que parten de un mismo
estado son equiprobabies. Las transiciones no mostradas en el diagrama tienen
probabilidad nula. La lnea inferior indica la vaiante continua; la discontinua se
conoce normalmente como autnrata de Reber simtrico.
Si representamos la trayectoria de un punto inicial bajo un sistema
dinrnico catico, veremos que las dos fuerzas anteriores entran en accin
de forma que se genera una estructura confinada en una regin del espacio
de fases que se conoce como atractor ertrao. Las trayectorias deI espaci,o
de
fases
nunca se cortan entre s) pues esto supondra un comportamiento
peridico. Antes del descubrimiento del caos, los ciclos lmite eran los atrac-
tores ms complejos que se conocan. Hoy da se puede decir que cada tipo
de sistema catico lleva asociado atractores de caractersticas peculiares.
Las particularidades del atractor extrao lo convierten en un posible
generador de secuencias caticas. Para que estas secuencias sean simblicas
debe realizarse una divisin en regiones dei espacio de fases, de forma que
se asocie un smbolo a cada una de ellas.
En los experimentos considerarernos una secuencia obtenida de la evolu-
cin de Ia actividad de un lser real en regirnen catico (Weigend y Gershen-
feld 1994), convertida en simbiica siguiendo el mismo procedimiento que
Tio et al. (2000), mostrado a continuacin.
El laser catico produce subsecuencias relativamente predecibles seguidas
por subsecuencias de alta impredicibilidad que requieren una memoria mayor
(Tio et al. 2000). La secuencia numrica de activaciones del lser g[] se
convi erte en una secuenci a si mbl i ca s[t] sobre el al fabeto !
:
{a,b,c,d}
Modelos predictivos basados en redes neuronales recurrentes de tiempo discreto. Juan Antonio Prez Ortiz
Tesis doctorales de la Universidad de Alicante. Tesi doctoral de la Universitat d'Alacant. 2002
6. COMPRESIN DE SECUENCIAS SIMBLICAS
mediante ia transformacin:
^ f +l -
D[ ! l
-
0<Lyl t l <p2
pz < Lyltl
p1<Lyl t ) <0
Lvltl < pt
( 6. 1)
donde Ag[t]
:
A[t]
-
Al t
-
11y l os parmetros p1 y pz se hacen correspon-
der con l os percenti l es del l 0% y del
g0%,
respecti vamente, obteni dos por
adelantado sobre la secuencia de activaciones dei lser.
6. 1. 3. Text os
La dinmica cle los textos en lenguaje huniano es complicacla. Puede
considerarse un lexto en lenguaje humano como una secuencia sol:le un
alfabeto firtito E formado, eu el crso de alfabetos occiclentales, por las letra,s
maysculas, las letras minsculas, los dgitos y los signos de puntuacin,
entre otros. Esto hace que el tamao del alfr,beto sea demasiaclo grancle
para algunos experimentos concretos) por lo que a veces los textos reales se
transforman en versiones simplificadas de los misrnos, prescindiendo de los
signos de puntuacin o convirtiendo todas las minrsculas a maysculas) por
ej empi o.
Nosotros corisideraremos algunos textos en ingls pertenecientes a un
conjunto de ensayos sobre la obra del director de cine polaco Krzysztof.
Kieslowski.4 Los textos reales se convirtieron en textos sintricos sobre un
alfabeto ms reducido de
lXl
:
27 smbolos ignorando los dgitos y signos de
puntuacin y convirtiendo todos los caracteres alfabticos a rnaysculas sin
acentuar. De esta manera los textos estn formados rnicamente por
letras
maysculas y espacios en blanco.
6. 2. . Parmet ros
Los resultados que se muestran ms adelante ilustran la razn cle com-
presin (RC) en funcin del nmero de neuronas de estaclo, n. se us
codificacin exclusiva para los srnbolos; Ios valores de nu y ny. clependen.
por tanto, del tamao del alfabeto correspondiente. Los modelos de RNR
son Ia RRS y la RPR, entrenados tanto con descenso por el gradiente como
con el FKED con las derivadas calculadas segn RTRL. Ntese que en los
experimentos nX :
0 significa que no hay neuronas de estado; en el caso de
Ia RRS esto implica, adems, que solo se ajustan los sesgos de las rleluonas
de salida.
I;
I;
"Estos textos se encuentran en ]rrttp://wr,r!r.petey. con/kk/
Modelos predictivos basados en redes neuronales recurrentes de tiempo discreto. Juan Antonio Prez Ortiz
Tesis doctorales de la Universidad de Alicante. Tesi doctoral de la Universitat d'Alacant. 2002
6.3. P.ESULTADOS
La tasa de aprendizaje del descenso por el gradente es a
:
0.9 y el
momento es
?
-
0.4, r'alores que fueron escogidos tras experimentos pre-
Iiminares. En el caso del FKED se tomaron los siguentes valores de los
parmetros del algoritmo:
Qltl
: L0-2 "-$o
13-o
R[] : 100
r=$o
3
P[0]
:
19s
Los esuitados neuronales mostrados son Ia media aritmtica cle 7 experi-
mentos distintos sobre cada secuencia; la varianza es muy pecluea en todos
los casos y no se Inostrar. Los valores iniciales de los pesos se tomaron de
una di stri buci n uni forrne en
[-0.2,0.2].
Consi deraremos Ios tres ti pos de
secuencias comentados anteriormente: secuencias generadas por mquinas
de estadcs fi:ritos, secuencias caticas y textos en lenguaje humano.
Tambin se realizaron experimentos con Ia RTR y la red NARX; como
las RC obtenidas son simlares, bien a las de la RRS, bien a las de ia RPR.
(depencl i endo de l a secuenci a y de Ios parmetros concretos consi derados),
omitir los resultados de aquellas.
6. 3. Resul t ados
6.3.1-. Secuenci as de estados fi ni tos
EI cuadro 6.1 muestra l os resul tados obteui dos con gzi p, bzi p2 y el
compresor ari tmi i co de Nel son (1991) con
[0,4]-gramas
para secuenci as de
longitud 20 000 derivadas de las FSEF comentadas anteriormente. Ya que
tenemos las mquinas generadoras de estas secuencias, podemos tambin
utilizar el compresor aritrntico con el modelo exacto de probabilidad. De-
bido a ias propiedades de la codificacin aritrntica, esto dar Ia mejor RC
posible. Los resultados de este rnodelo se muestran en el cuadro 6.L en la
fila etiqr-retada como "aritmtico exacto".
Las figuras 6.5 a 6.7 muestran los resultados obtenidos por la RRS y
la RPR. Como se puede ver, el nmero de neuronas de estado afecta a la
RC obtenida, aunque para valores de n
2
1-0 esta influencia no es muy
significativa. Ambos modelos, RRS y RPR, dan resultados comparables. El
FKED proporciona RC cercanas a las del modelo de
[0,4]-gramas
(que, a su
vez, sorl cercanas a las del compresor exacto), mientras que las del descenso
por el gradiente son inferiores.
Modelos predictivos basados en redes neuronales recurrentes de tiempo discreto. Juan Antonio Prez Ortiz
Tesis doctorales de la Universidad de Alicante. Tesi doctoral de la Universitat d'Alacant. 2002
6. COMPRESION DF. SECUENCIAS SIMBOLICAS
FSEF 1
Aritrntico exacto
[0,4]-gramas
gzj.P
bzp2
3. 99
3. 83
2. 27
. ) . ) ^
Cuadro 6.1: Razones de compresin c-'bteniclas pala las FSEF con cornpresores no
neuronales.
y
Fi gura 6.5: Razones de compresi n para l a secuenci a deri vrda ci e l a FSEF 1. Se
muestran los resultaclos con RPR y descenso por el gradiente (n), RRS y descenso
por el gradi ente (o), RPR y FKED (), y RRS v FKED (0). La i nea constante
es la razn de cornpresin del rnodelo de
[0,4]-gramas,
indicada timbin en el
cuad o 6. 1.
Aunque no se mostrar aqu, es posible encollbrar para cada secuencia y
modelo particular un conjunto de valores de los parmetros ajustables que
acercan an ms las RC neuronales a ias del modelo exacto.
6. 3. 2. Secuenci as cat i cas
Los resultados para la secuencia del laser catico de longitud 10 000 con
l as RNR se rnuestran en Ia fi gura 6.8. EI model o de
[0,4]-gramas
da una RC
de 2.73 para esta secuenci a. Evi dentemente, en este caso no cabe habl ar de
un modelo de probabilidad exacto.
Al usar clescenso por el gradiente, ias diferencias entre ia RRS y Ia RPR
son mayores que antes. De nuevo, el FKED supera con creces los resuitados
del descenso por el gradiente. En cualquier caso) Ia RPR entrenada con este
Modelos predictivos basados en redes neuronales recurrentes de tiempo discreto. Juan Antonio Prez Ortiz
Tesis doctorales de la Universidad de Alicante. Tesi doctoral de la Universitat d'Alacant. 2002
6.3. BESULTADOS
O
Figura 6.6: Razones de conpresin para la secuencia derivada de la FSEF 2. Se
muestran los resuitados con RPR y descenso por el gradiente (tr), RRS y descenso
por el gradi ente (o), RPR y FKED (), y RRS y FKED (0). La l nea constante
es la razn de compresin del modelo de
10,4]-gramas,
indicada tambin en el
cuadr o 6. 1.
nx
Figura 6.7: Razones de compresin para Ia secuencia derivada de la FSEF 3. Se
muestran los resultados con RPR y descenso por el gradiente (!), RRS y descenso
por el gradi ente (o), RPR y FKED (a), y RRS y FKED (0). La Inea constante
es la razn de compresin del modelo de
[0,4]-gramas,
indicada tambin en el
cuadr o 6. 1.
algoritmo da RC (con n > 4) similares a las del modelo de
[0,4]-grarrffi,
y
el FKED (independientemente del modelo neuronal) consigue razones mucho
mayores
(r:ercanas
a 4).
(r
Modelos predictivos basados en redes neuronales recurrentes de tiempo discreto. Juan Antonio Prez Ortiz
Tesis doctorales de la Universidad de Alicante. Tesi doctoral de la Universitat d'Alacant. 2002
6. COMPRESION DE SECUENCIAS SIMBLICAS
nx
Figura 6.8: Razones de compresin para la secuencia del lser c-tico. Se nrues-
tran los resuitados con RPR y descenso pot' el gradiente (!), RRS y descenso por
el gradi ente (o), RPR y FKED (), y RRS y FKED (0). La l ner, constanre es i a
razn de compresin del rnodelo de
[0,4]-gramas.
Cuadro 6.2: Razones de compresin pala las secuencias de texto con compresoles
no neuronaies.
6.3.3. Textos en l enguaj e humano
Ahora aplicaremos la misma estrategia que er] los apartados anteriores
para estudiar la influencia del algoritmo cie aprendizaje y del nrnero de
estados en ias razones de compresin obtenicias para tres textos en ingls.
El ctradro 6.2 rnuestra las RC con gzip, bz:-p2 y el rnodelo de
[0,4]-grarras.
obviamente, tarnpoco existe ningn rnodelo de probabilidad exacto en es-
te caso. El nrmero de smbol os de cada secuenci a es: decal ogl , 1g385;
ki esdi s3, 18 666; y vi dwchdg, 62648.
Las fi guras 6.9 a 6.11 (prcti camente i dnti cas) muestran l as RC obte-
nidas por las RNR para las tres secuencias de texto consideradas. Pr.iede
obselvatse fcihnente que ambos modelos tieneri problentas para aprencler
las estadsticas de las secuencias: el valor de n no tiene una influencia
clara en la RC obtenida con la RPR. En el casc de una RPR, esto implica
que Ia red est desarrollando una especie de moclelo de bigrarnas: solo el
decal ogl ki esdi s3 vi dwchdg
Modelos predictivos basados en redes neuronales recurrentes de tiempo discreto. Juan Antonio Prez Ortiz
Tesis doctorales de la Universidad de Alicante. Tesi doctoral de la Universitat d'Alacant. 2002
6.4. DtSCUStON
O { E
d
1 0
nx
Figura 6.9: Razones de compresin para la secuencia en ingls decalog1. Se
muestran los resultados con RPR y descenso por el gradiente (D), RRS y descenso
por el gradi ente (o), RPR y FKED (), y RRS y FKED (0). Lu l nea constante
es ia razn de compresin del modelo de
[0,4]-gramas,
indicada tambin en el
cuadro 6.2.
smbolo actual se considera al predecir el siguiente. La RRS, por otro lacio,
usa sus neuronas de estado, ya que a valores mayores de n las RC son
tambirr mayores) pero los resultados sorl peores que ios de la RPR. Debe
destacarse, no obstante, que los resultados obtenidos con las otras tcnicas
son solo ligerarnente mejores.
EI FKED, por otra parte, explota positivamente (al menos parcialmente)
el nmero de neuronas de estado. A pesar de estos resultados ligeramente
mejores (en consonancia con Io comprobado hasta ahora para este algorit-
mo), las RC son todava mucho menores que las obteniclas con el modelo de
r-gramas.
6. 4. Di scusi n
El algoritmo de entrenamiento del FKED supera al de descenso por el
gradiente cuando se trata de predecir en lnea los smbolos de una secuencia
simblica. En el caso de las secuencias de estados finitos, los resultados
del FKED son comparables a los obtenidos con ?z-gramas y estn cerca del
ptimo. Al procesar la secuencia catica, incluso los resultados del descenso
por el gradiente son similares a los del modelo de
[0,4]-gramas
y el FKED los
supera notablemente. Sin embargo, al trabajar con secuencias en lenguaje
humano, Ios resultados del FKED son mucho peores que los de un modelo
Modelos predictivos basados en redes neuronales recurrentes de tiempo discreto. Juan Antonio Prez Ortiz
Tesis doctorales de la Universidad de Alicante. Tesi doctoral de la Universitat d'Alacant. 2002
6. COMPBESION DE SECUENCIAS SIMBLICAS
( )
l F
t f
, . u
l o 1 0
nx
Fi gura 6.10: Il azones de compresi n para 1a secuenci a en i ngl s ki esdi s3. Se
muestran los resultados con RPR y descenso por el gradent,e (), RRS y descenso
por el gradi ente (o), RPR y FKED (), y RRS y FKED (0). Lu l nea constante
es Ia razn de compresin del modelo cle
[0,4]-gramas,
indicada tarnbin en eI
cuadro 6.2.
O r r

, . "
nx
Fi gura 6.11: Raz<-nes cl e compresi n para l a secuenci a en i ngl s vi dwchdg. Se
muestran los result,.clos con RPR y descenso por el gradiente (), RRS y descerrso
por el gradi ente (o), RPR y FI(ED (), y RRS y FKED (0). La l nea consrante
es l a razn de compl esi n del rnodel o de
[0,4]-gramas,
i ndi cada tambi n en el
cuadro 6.2.
de
[0,4]-gramas.
La predi cci n sobre textos en ).enguaj e humano parece ser
una tarea difcil para ambos algoritmos.
Modelos predictivos basados en redes neuronales recurrentes de tiempo discreto. Juan Antonio Prez Ortiz
Tesis doctorales de la Universidad de Alicante. Tesi doctoral de la Universitat d'Alacant. 2002
6.4. DtSCUStN
Debe tenerse en cuenta, sin ernbatgo, que el nmero de parmetros de
un modelo cornbinado de rz-gramas como el utilizado en el compresor de
Nel son (donde n: 4,3,2,I,0) es muy superi or al de l as RNR uti l i zadas en
este trabajo. El nmero terico mximo de parmetros de un modelo de n-
gramas es
lDl'
donde X es el alfabeto de las secuencias sobre las que trabaja
el predictor.5 La RRS utilizada en los experimentos, por ejemplo, tiene un
nmero de pesos i gual a (l El ' "x)2 + n2* + nx +
l El ;
a este nmero de para-
metros habra que aadirie los utilizados por el algoritmo de entrenamiento
correspondiente.
Puede afirmarse, en definitiva, que el FKED supera al descenso por
el gradiente cuando se trata de predecir los smboios de una secuencia
simblica. El FKED, sin embargo, tiene una complejidad temporal supe-
rior a la del descenso por el gradiente. La dinmica de los textos reales, en
cualquiel caso) parece ser demasiado cornpleja para ser aprendida en lnea
correctamente por una RNR.
Finrlmente, debe tenerse en cuenta que los experimentos realizados con
las mcluinas de estados finitos no permiten detectar si la RNR ha aprendido
completamente las mquinas correspondientes. Por ejemplo, Ia FSEF 3
presenta,
dependencias a Iargo plazo, corno veremos en el captulo siguiente,
que se manifiesan relativamente de tarde en tarde. Estas dependencias
no suelen ser aprendidas adecuadamente por las RNR consideradas en este
captulo, pero debido a su aparicin ocasional, este hecho apenas aparecer
reflejado en las RC obtenidas.
Al ternati vas de predi cci n de textos. En todos l os experi mentos con
textos en lenguaje natural lealizados con RNR en este captulo, el valor 1.5
parece ser una cota superior de las RC obtenibles (vase las figuras 6.9
a 6.11). Aunque es necesario un estudio ms profundo de los motivos de
este comportamiento, los resuitados apuntan a que Ia RNR no es capaz
de desarroilar un modelo aclecuado de los contextos de la secuencia similar
al que clesarrolla un modelo de
[0,4]-gramas.
Sin ernbargo, el rendimiento
de las RNR no es tan malo si se compara con otros modelos como el que
veremos a continuacin.
Forcada (2001) ha estudiado la construccin de autmatas estocsticos
de estados finitos para implementar un sistema de prediccin textual similar
al que incorporan Ios telfonos mviles actuales a la hora de escribir un
mensaje. Aunque sus resultados son para el cataln, lo cierto es que Iarazn
5A
la hora de una implementacin real, el espacio requerido es inferior .
lll",
ya que
muchos de los parmetros nunca se alteran y conservan su valor inicial. Es posil>le, por
tanto, encontrar fomas eficienfes de almacenar estos parmetlos, por ejemplo, utilizando
rboles (Nelson 1991). An as el nmero de parmetros utilizaclos es con diferencia
superior al de ias RNR utilizadas en los experimentos.
Modelos predictivos basados en redes neuronales recurrentes de tiempo discreto. Juan Antonio Prez Ortiz
Tesis doctorales de la Universidad de Alicante. Tesi doctoral de la Universitat d'Alacant. 2002
6. COMPRESION DE SECUENCIAS SIMBOLICAS
de compresin obtenida por estos sistemas es muy similar a la obtenida en
este captulo para RNR.
En efecto, Forcada (2001) considera un alfabeto de aproximadamente 40
smbolos y un teclado de 10 teclas. Si no se utiliza prediccin de ningrn
tipo, el nmero de bits por smbolo al codifrcar un nrensaje ser log2 40
:
5.32. Si se considera un predictol, en lugar de enviar los distintos snrbolos
codificados, se puede considerar enviar ia secuencia de teclas pulsadas por
el usuario para escribir el mensaje.
Pues bi en, Forcada (2001, cuadro 3) asegura que el nmero medi o de
puisaciones por smbolo reaiizadas al utilizar una estrategia predictiva es
1.11. Corno l a cocl i fi caci u de cada una de l as 10 tecl a^s requi ere 1og210
:
3.32, el nmero medi o de bi ts por smbol o al codi fi car un mensaj e ser
1. 11 x 3. 32
:
3. 67. Lueeo I a RC ser de:
5. 32
3. 67
:
r ' 4D
Este resultado se aproxima bastante a los obtenidos por las RNR en los
experirnentos de este captulo.
Modelos predictivos basados en redes neuronales recurrentes de tiempo discreto. Juan Antonio Prez Ortiz
Tesis doctorales de la Universidad de Alicante. Tesi doctoral de la Universitat d'Alacant. 2002
Volver al ndice/Tornar a l'ndex
7. INFERENCIA DE LENGUAJES CON
DEPENDENCIAS A LARGO PLAZO
En este captulo se estudia Ia inferencia en inea de un lenguaje regular
y la inferencia fuera de Lnea de uu lenguaje sensible al contexto, ambas
planteadas como un problema de prediccin. Los dos lenguajes presen-
tan marcaclas dependencias a largo plazo por Io que no suel.en ser bien
aprendidos por las RNR tradicionales. Los esultados de estas se com-
paran con los de Ia red LSTM, tericamente adecuada para manejar
este tipo de dependencias. Los contenidos de este captulo, publica-
dos en varios congresos internacionales (Gers et al. 2002b; Prez-Ortiz
et al. 2002b; Gers eL aI. 20A2a) y aceptados con modifi.caciones en una
revista internacional (Prez-Ortiz et ai. 2002a), muestran el pritner uso
de LSTM en tareas de prediccin en lnea, as como la prirnera ocasin.
en que el FKED se aplica a este modelo.
Los experimentos de inferencia desarroilados en este captulo pueden
dividirse en dos grupos: relativos a la inferencia en lnea de un lerguaje
regular derivado del autmata de Reber simtrico (Smith y Zipser 1989)
y relativos a la inferencia fuera de lnea del lenguaje sensible al contexto
anbncn. Por ello, cada uno de los siguientes apartados aparece dividido en
estos dos bloques.
Como introduccin a los contenidos de este captulo.
puede
consultarse
l as secci ones 7.2.2 y 5.2.
7. 1. Mt odo
Aprendi zaj e cl el l enguaj e de Reber
En este experimentol se usa principalmente LSTM con compuertas de
olvido, pero sin conexiones de mirilla (vase el captulo 3), para predecir el
siguiente smbolo sobre una secuencia simblica continua con dependencias
a largo plazo. Tambin se muestran los resultados obtenidos con RNR ta-
dicionales, Elnfasis se pone en el procesamiento en lnea pur-oj es decir, los
97
Modelos predictivos basados en redes neuronales recurrentes de tiempo discreto. Juan Antonio Prez Ortiz
Tesis doctorales de la Universidad de Alicante. Tesi doctoral de la Universitat d'Alacant. 2002
7. INFERENCIA DE LENGUAJES CON DEPENDENCIAS A LARGO PLAZA
pesos se actualizan smbolo a smbolo y la secuencia de entrada es nica y
no est dividida en subsecuencias claramente demarcadas,
Gers et al . (2000) estudi an un probl ema si mi i ar, pero abordado desde un
punto de vista prximo a lo que hemos llamado en ei apartado 4.1.1 apren-
di,zaje en lnea por secuencias. En sus experinrentos, Ios pesos se actualizan
tras ia presentacin de cada srnbolo: una, estrategia propia del aprendizaje
en lnea puro. Sin embargo, la secuencia actual de entrada se rechaza, tan
pronto como Ia red comete un error sobre ella; a continuacin, la red se
inicializa y el procesamiento contina con una nueva secuencia: esta forma
de presentar la informacin a la red es ms propia del aprendiza.je fuera cle
lnea. Adems, la red se evala con los pesos corrgelados. El enfoque adopta-
do en su trabajo puede consiclerarse, por tanto, a medio camino entre ambos
ti pos de aprendi zaj e.
Aclu aplicaremos la red LSTM y la RRS al rnismo tipo de secuencias.
pero con un enfoque en lnea puro: existe lrn nico flujo de entrada. el
aprendizaje contina aunque ia red corneta errores, y el entrenamiento y
Ia
evaluacin no estn divididos en fases separadas. En el aprendizaje err lnea
puro, es importante que Ia recl sea capaz de desarrollar un modelo sin poder
apoyarse en ias ilticializaciones que permiten
"arrancar" Ias redes desde un
determinado punto fijo. Podemos decir que este tipo de entrenarniento es
en "cada libre", ya que carece siquiera. de este mrrilno punto de apoyo.
Por otro l adr:, en el trabaj o de Gers et al . (2000) sol o se uti l i zaba el al go-
ri tmo de descenso por el gradi ente. Aqu se apl i car el FKED por pri mera
vez aI model o LSTM.
La secuencia de entrada se genera a partir de la variante continua del
autmata de Reber si mtri co (FSEF 3), que se muestra en l a fi gura 6.4.
Como se aprecia en Ia figura, las dependencias a largo plazo aparecen porque,
en ocasi ones, determi nar si el si gui ente smbol o de l a secuen6i
oe P n 7 owi .' o
consi derar l a hi stori a anti gua cl e l a secuenci a.
Contaremos el nmero de smbolos clue necesita la red LSTM para ge-
nerar predicciones sin error durante r,l menos 1000 smbolos, nrnero que
representaremos mediante
B1636;
aqu "sin error" quiere decir que ei smbolo
correspondiente a ia neurona ganadora sea uno de los smbolos para los que
existe una transicin desde el estado actual del autmata de Reber sirntrico.
Por otro lado, al aprender en lnea, la presencia recurrente de cletermi-
nadas subsecuencias hace que la red olvide la historia pasada y confe en
las observaciones ms recientes.l Por ello, tras un
periodo
de entrenamiento
' De
hecho, esto es lo que uno esperara de un modelo que es capaz de actuar comecta-
mente bajo entornos no estacionarios.
Modelos predictivos basados en redes neuronales recurrentes de tiempo discreto. Juan Antonio Prez Ortiz
Tesis doctorales de la Universidad de Alicante. Tesi doctoral de la Universitat d'Alacant. 2002
7.1. METODO
inicial es habitual que las RNR (LSTM en especial) cometan algunos errores
aislados, tras lo que siguen ealizarrdo predicciones correctas. Para tener una
medida mis tolerante de la calidad predictiva del sistema, medimos tambin
el momento en el que se produce el error n-simo tras las 1000 primeras pre-
dicciones sucesivas sia eo: consideraremos dos valores para n) a saber, 1
y 10, que representaremos mediante
Blooo
y
i8oo,
respectivamente.
Aprendizaj e d.e anbn{
En este experimento utiiizaremos la red LSTM con compuertas de olvido
y conexiones de mirilla2 para aprender y generalizar el lenguaje sensible al
contexto anbncn. Como se comentar ms adelante, el modo de entrena-
miento ser en lnea por secuencias o fuera de lnea por secuencias, segn el
algoritmo de entrenamiento concreto utiiizado.
La red observar secuencialmente, smbolo a smbolo, muestras positivas
del lenguaje. El objetivoen cad ii*racin es predecir los posibles smbolos
siguientes, incluido ei *jrnbclo de fin de cadena $, que es tambin un smbolo
especial de arranque con el que comienzan todas las secuencias.3 Cuando
es posible ms de un smbolo en el siguiente paso, todos ellos deben ser
predichos adecuadamcnte y ninguno de los otros. Por ejemplo, en el caso de
n:3, l as entradas y sal i das deseadas seran:
Ent ada: S' +aa
Salida deseada: alg alb alb ^lb
Una secuencia es aceptada si todas las predicciones realizadas sobre ella
son correctas y rechazada en caso contrario. Diremos que el sistema ha
aprendido el lenguaje hasta las s.:uencias de longitud -t, si es capaz de
predecir todas las secuencias con tamao rnenor o igual que .L.
En cuanto al entrenaueni-
""
1o. evaluacin, ambos se turnan: cada 1000
secuencias de entrenamiento, los pesos de Ia red se congelan y se procede a
la evaiuacin. Los conjuntos de aprendizaje y evaluacin incorporan todas
las secuencias vlidas (solo muestras positivas) con longitud menor o igual
a 3n. EI entrenamiento termina cuando en un turno o poca se aceptan
todas las cadenas del conjunto de entrenamiento. Los resultados mostrados
son la media aritmtica de los obtenidos con 10 redes entrenadas indepen-
dientemente con diferentes inicializaciones de los pesos (las mismas para
cada experimento). Llamaremos conjunto de generali,zaci,n al conjunto de
evaluacin ms grande que es aceptado por la red.
2Ertr
t.rer no puede aprenderse sin las conexiones de mirilla.
3Nt"""
que $ no es un separador, s-lrv un
finalizador
de secuencias, ya que los modos
de entrenamiento empleados reinician Ia red tras cada secuencia.
bbbc c c
bbc c c $
Modelos predictivos basados en redes neuronales recurrentes de tiempo discreto. Juan Antonio Prez Ortiz
Tesis doctorales de la Universidad de Alicante. Tesi doctoral de la Universitat d'Alacant. 2002
7. INFERENCIA DE LENGUAJES CON DEPENDENCIAS A LARGO PLAZO
Estudiaremos el comportamiento de la red LSTM con dos tipos de con-
juntos
de entrenamiento para a'bncn'.
cor] n
[ 1, / ] ,
c or ' n[ N- 1, N] .
Para valores grandes de l\y', el segunclo caso es ms difcil, ya que no existe
el apoyo de las secuencias ms cortas) que son ms fciles cle aprender al
atenuar las dependencias a iargo plazo. Aclu nos centraremos en n e
[1,
10]
y n e
120,271.
7. 2. Parmet ros
Aprendi zaj e del l enguaj e de Reber
Si gui endo l o propuesto por Gers et al . (2000), l a recl LSTM ti ene ny
:
Q
bioqtres de memoria con nc
:
2 celdrs cada uno. Como usarrios coclificacin
exclusiva para lcls smbolcs y como el tarnao del alfabeto del autrrratr cle
Reber es
l El
: 7, consi cl el amos una red LSTVI con nu
-' tty -
7. Los
sesgos de las cornpuertas de enti:ada W y de salida lVt se inicializan por
bl oques:
-0. 5
para el pri rner bl oque,
-1
para el segundo,
-1. 5
pt rra el
tercero, etc.4 Lcis sesgos de las compuertas de olvido WA se iniciaiizan con
val ores si mtri cos: 0.5 para el pri rner bl oque, 1 para el segui rdo, etc. El resto
de los pesos de la red se inicializan de forma aleatoria segn una distribucin
uni f br me en
[ - 0. 2, 0. 2] .
Como existen conexiones directas entre ias entradas y la.s unidacles cle
salicla, la red LSTVI se puede considerar una mquina neuronal de estaclos
cle N{ealy.
La funci n de acti vaci n gz se toma como gz(r)
: gT(r)
-
tanh(r);
gM(r) es Ia funcin identidad; y la firncin cle activacin de las compuertix
es l a funci n l ogsti ca gc(r) : gL(r).
Los algoritmos de entrenamiento considerados son el descenso por el
gradiente y el FKED. Las derivadas se caiculan segrn RTRL eu el caso de la
RRS y segrn l o i ndi cado en 4.12.1 para Ia red LSTIVI. En el caso del descenso
por el gradiente, Ia tasa de aprendizaje es a
:
0.5 y el momento es
7
:
Q.
En el caso del FKED, los valores para los parmetros libres del algoritmo
son:
.
Q[ t ):
10-2
"-$o
1g-a
1.
2.
avase
e1 apartado 3.2 para una cliscusin sobre esta inicializacin.
Modelos predictivos basados en redes neuronales recurrentes de tiempo discreto. Juan Antonio Prez Ortiz
Tesis doctorales de la Universidad de Alicante. Tesi doctoral de la Universitat d'Alacant. 2002
7.2. PARAMETROS
R[] : 100 "=$o
3
P[0]
:
1
Los valores anteriores proporcionaron buenos resultados en experimentos
preliminares.
Para comparar los resultados de LSTM con los de una RNR trarlicional
se considera una RRS con un nmero de parmetros muy similar a los del
model o LSTM: 364 parmetros aj ustabl es tomando ny: 13. Las funci ones
de activaciL gy y gx son la ftincin logstica gL(r) y los parrnetros de
entrenamiento los misrnos
que
Ios indicados arriba
para
ia red LSTM.
Aprendi zaj e de anbncn
Siguiendo a Gers y Schmidhuber (2001), considerarnos una red LSTM
configurada como una mquina neuronal de estados de lVlealy con n4
:
2 bloques de memoria con nc
:
1 celda cada uno.5 Los sesgos de las
compuertas de entrada, olvido y salida (W, W^ y W1
,
respectivamente) se
i ni ci al i zan a
-1.0,
*2.0
y
-2.0,
respecti vamente (aunque l os val ores exactos
de esta inicializacin no son muy crticos). El resto de pesos se inicializan
al eatori amente segn una di stri buci n uni forme en
[-0.1,0.1].
Las fttnci ones
de activacin gz y gtur son la funcin identidad. La funcin de activacin
de Ias neuronas de sal i da es una funci n l ogsti ca con rarl go (-2,2), esto es,
sY@) : 4gr ( r ) - 2.
Los smbolos se codifican mediante codificacin exclusiva, con la salvedad
de que en lugar de vectores unitarios se consideran vectores cuyos compo-
nentes son *1 o
-l
para ampliar el rango. Como tenemos los tres smbolos
a, b, c y el marcador especial, queda nU
:
ny
:
4. Con *1 se indica que
un determinado smbolo est activado y con
-1
que no lo est; la frontera
de decisin para la saiida de Ia red es 0.
En el caso del algoritmo de descenso por el gradiente, los pesos se actuaii-
zan fuera de lnea tras cada secuencia. Se consideran dos formas de descenso
por el gradi ente: con un momento (Pl aut et al . 1986) de val or
7
:
0.99 o
sin 1. Los resultados se muestran para diversos valores de la tasa de apren-
dizaje a. Como mximo se presentan 107 secuencias de entrenamiento y se
evalra con secuencias de longitud mxima menor que 1500 (n < 500).
En el caso del FKED se utiliza un entrenamiento tambin por secuencias,
pero esta vez en lnea. Los parmetros utilizados en el FKED son para el
caso ?z
[ 1, 10] :
5
Esto hace que el nmero total de pesos a ajustar sea 84 (72 conexiones entre unidades
y 12 sesgos).
Modelos predictivos basados en redes neuronales recurrentes de tiempo discreto. Juan Antonio Prez Ortiz
Tesis doctorales de la Universidad de Alicante. Tesi doctoral de la Universitat d'Alacant. 2002
7. INFERENCIA DE LENGUAJES CON DEPENDENCIAS A LARGO PLAZO
Ql t l
: 5. 10- 3
R[] : 100 "=-$o 1
y para el caso n e
l20,2ll:
Q[ t )
: s. 10-3
r-$o
1g-o
R[] : 100 "--$o
1
Los valores anteriores proporciona,ron buenos resultaclos en experimentos
prelirninares, pero l1o son crticos en el senticlo de qne hay un arnplio rango
de valores clue resultan en un redimiento similar. I-a influencia del otro
parmetro, l a matri z de covari anza del el ror i ni ci al P[0], se estucl i ar ms
adelante. El mximo nmero de sectLencias presentaclas en el caso del FI(EI)
es 105 y Ia evaluacin se realiza con secuencias cJe longitud mxima menor
o i gr.ral a 30000 (n, < 10000).
7. 3. Resul t ados
Aprendi zaj e del l enguaj e de Reber
Resul tados con l a red LSTM con descenso por el gradi ente. El
cuadro 7.1 muestra l os resul tados para 9 secuenci as di ferentes sobre
g
redes
LSTM inicia,lizadas independientemente y entrenadas con el algoritrno origi-
nal de descenso por el gradi ente. En uno de l os casos (fi l a 5), no se hal l aron
subsecuencia-s de prediccin correctas (para 1000 smbolos seguidos) tras ios
pri meros 1 000 000 smbol os; esto se i ndi ca en el cuadro medi ante 1 000 000+.
Es de clestacar que el nmeo medio de smbolos rtecesarios para aprencler
a predecir sostenidamente con el mtodo en lnea puro (miles de smbolos) es
mucho rns pequeo que l os necesi tach;s por Gers et al . i 1999; 2000) (mi l l ones
de smbolos). Esto reafirma ia rapiclez de aprendizaje del entrenamiento en
lnea.
Resul tados de LSTM con el FKED. El rendi rni ento es mucho mej or con
el FKED. El ti ernpo necesari o para obtener 1000 predi cci ones segui das si n
error,
,6rooo,
es generalmente inferior que el usado por el algoritmo original
de entrenamiento basado en el descenso por ei gradiente, 1o clue indica una
convergenci a ms rpi da (comprese con el cuadro 7.2). Si n embargo, el
nmero de srnbolos procesados antes del dcimo error,
Bf$oo,
es tarnbin
i nferi or, i ndi cando una degradaci n del rendi mi ento rnrs rpi da. El FKED
parece i ncrementar l a capaci dad de aprendi zaj e en 1nea al avez que reduce
Modelos predictivos basados en redes neuronales recurrentes de tiempo discreto. Juan Antonio Prez Ortiz
Tesis doctorales de la Universidad de Alicante. Tesi doctoral de la Universitat d'Alacant. 2002
7.3. RESULTADOS
Red
rooo
RL
vl nnn
aL0
^/1 000
1
2
c
A
(
o
7
8
I
39229
702812
c / u
C+DOD
1000000+
111483
797748
54629
85707
143563
rr1442
104163
58936
113715
799445
123565
86742
L78229
744846
141801
I COOO
136038
235387
123595
923L2
Cuadro 7.L: Iteraciones necesarias para que la red LSTM (entrenada en lnea con
el algoritmo original de descenso por el gradiente) consiga 1000 predicciones correc-
tas seguidas (prediccin sostenible). Tambin se muestra el nmero de iteraciones
antes de que aparezca un error y antes de que aparezcan 10 errores. La red nmero
5 no mostr ninguna prediccin sostenibie antes dei smbolo 1 000 000.
Red
o
,u1000
RI
^/ 1onn
RTU
^/1000
1
2
J
A
h
o
7
B
I
29304
19758
20487
26175
18015
L6667
23277
1000000+
29742
30347
25488
22235
O' 78, A'
19365
29826
24796
31535
30953
322980
24L06
33253
nr r Al
1000000+
26664
594717
Cuadro 7.2: Iteraciones necesarias para que LSTM (entrenada en lnea con
el FKED) consiga 1000 preclicciones seguidas correctas. Tambin se muestra el
nmero de iteraciones antes del siguiente error y de los siguientes 10 errores. La
red 8 no obtuvo una prediccin sostenible antes de 1 000 000 de smbolos. La fila
6 muestra un resultado especialmente bueno: solo se Droducen 3 errores antes del
smbolo 1 000 000.
las capacidad de memoria a largo plazo de
casos destacabies (filas 2, 6 y 9 del cuadro
subsecuencia muy larga (cientos de miles de
el dcimo error.
LSTM. Existen, no obstante, 3
7.2), en los que hace falta una
smbolos) para que se produzca
Resultados con la RRS. La RRS entrenada con descenso por el gradiente
con H|RL no puede obtener predicciones sostenibles (,6rooo), al menos des-
pus cle probar con distintas inicializaciones de Ios pesos y tras secuencias
Modelos predictivos basados en redes neuronales recurrentes de tiempo discreto. Juan Antonio Prez Ortiz
Tesis doctorales de la Universidad de Alicante. Tesi doctoral de la Universitat d'Alacant. 2002
7. INFERENCIA DE LENGUAJES CON DEPENDENCIAS A LARGO PLAZO
Red
a
ru1000
RL
gt
onn
QLU
H1000
I

.)
+
o
7
8
0
132827
rr5462
57363
265088
148496
l).a7 A .
177768
58077
154269
134035
1171 18
58989
266227
149894
359807
173997
59222
155443
136155
720274
61403
289391
153442
363163
193946
65463
158609
Cuadro 7.3: Iteraciones necesarias para que la RRS con rLx :
13 entrenacla
en lnea con el FKED consiga 1000 predicciones seguidas conectas. Tarnbin se
muestra el nmero de iteraciones antes del siguiente en'or y cle los siguientes 10
errores.
extremadamente largas de 106 smbolos.o Las dependencias a largo plazo
son las culpables de este comportamiento, ya que descle muy pronto (a partir
del smbolo 3000 o 4000, aproximadarnente) la RRS preciice correctamente
en todos los casos excepto cuando aparecen los smbolos P y T clel extrerno
derecho del autrnata.7
Incluso 100 predicciones correctas seguidas ocurran rnuy de tarde en
tarde, aunque) por otro lado, no es muy ilustrativo cousiderar vl.lores conro
el de /Jroo,
ya que hay una probabilidad no despreciable de que la prediccin
a largo plazo corresponda al mismo smbolo durante este intervalo y Ia RNR
acte correctamente aun ignoranclo esa dependencia.
El FKED aplicado a Ia RRS, sin enrbargo, s que perrnita predicciones
sosteni bl es si n error del ti po
B166
col no puede observarse en el cuadro 7.3.
En cualquier caso) hay un detalle importante que diferencia el aprendi-
zaje realizado por la RRS del realizaclo por LSTN{. Cuando la RRS realiza,
correctatnente la prediccin de uno de los dos smbolos, P o ?, afectarlo
por dependencias a largo plazo, las probabiliclades emitidas por la red pa.ra
ambos estn en torno a I/2 y el smboio escogido es el correspondiente ai
de probabilidad mayor.8 EI cornportarniento de LSTM es distinto, como
6El
mismo comportamiento se observ con la RPR.
TEste
aprendizaje r,piclo de las dependencias a corto plazo se puede observar tarnbin
en el caso de la red LSTM.
sEsto
significa que de haber impuesto una poltica rns conservadora para el smbolo
predicho por la RNR, la RRS con el FKED no habra podido realizar predicciones soste-
ni bl es,
Modelos predictivos basados en redes neuronales recurrentes de tiempo discreto. Juan Antonio Prez Ortiz
Tesis doctorales de la Universidad de Alicante. Tesi doctoral de la Universitat d'Alacant. 2002
7.3. RESULTADOS
^ , - n ^ , - o o 0
a. Secuenci as
I x 1031
% aprendi do Secuencias
I x
1031
Zo aprendido
10- '
10- 2
10- 3
10- 4
10- 5
10- 6
l 0- 7
;
351
356t
0
0
100
100
100
0
0
9n
45
329
3036
0
0
0
90
90
100
100
Cuadro 7.4: Resultados con LSTM y descenso por el gradiettte para anbncn con
conjuntos de entrenamiento con n
11,10]
y con distintas tasas de aprendizaje o
v valores del momento'v.
veremos) ya que la red "sabe" lo que viene despus y la probabilidad del
smbolo predicho es muy superior a la del resto.
Finalmente, analizando ia subsecuencia correspondiente a una predic-
cin sostenible con Ia RRS, puede observarse que la red falla en cuanto la
separacin entre el cve.nto que causa la dependencia a largo plazo y su ma-
nifestacin en la secuencia es ligeramente mayor que 10 (por ejernplo, 20);
en este caso las probabilidades ni siquiera estn en torno a 1/2.
Aprendi zaj e de anbn{
Resul tados de LSTM con descenso por el gradi ente. Cuando se usa
el descenso por el gradiente, la red LSTM aprencle las clos clases de conjuntos
de entrenamiento y generaliza bien. Los datos relativos al aprendizaje del
conj unto de enrrenami en[o se muestran en l os cuadros 7.4y 7.5 para di sti ntos
valores de Ia tasa de aprendizaje a. En ellos se muestra el nmero medio
de secuencias necesarias hasta conseguir una fase de entrenamiento (1000
secuencias) sin errores y el porcentaje de experimentos en los que se logr.
En cuanto a la generalizacn, para el caso ??
[]-,
10]
,
la mejor generalizacin
es n
[1,52]
y l a gerreral i zaci n medi a es n e
[1,28];
por otro l ado, para el
caso n
[20,21],
l a mej or general i zaci n es ??
[10,271
y Ia general i zaci n
medi aesn1I 7, 231.
La red LSTM funciona adecuadamente para un amplio rango de tasas
de aprendizaje (unos tres rdenes de magnitud) como puede verse en los
cuadros 7.4y 7.5. La uti l i zaci n del momento ayuda cl aramente a mej orar
la velocidad de aprendizaje, ademis de tolerar el mismo rango para a.
Modelos predictivos basados en redes neuronales recurrentes de tiempo discreto. Juan Antonio Prez Ortiz
Tesis doctorales de la Universidad de Alicante. Tesi doctoral de la Universitat d'Alacant. 2002
7. INFERENCIA DE LENGUAJES CON DEPENDENCIAS A LARGO PLAZO
- - n
7
:
0. 99
()
Secuenci as
I x
103]
% aprendido t' il;;{' *
|
% anrendido
10- '
10- 2
10- 3
1 o- 4
1 0- 5
10
- 6
10- 7
1 170
7450
r205
0
0
30
30
20
0
0
1 t ) , 7
15106
1366
0
0
0
0
20
20
10
Cuadro 7.5: Resul tados con LSTNI y descenso por el gradi ente para a' "bc, con
conj uncos de entrenami ento con n e
[20,21]
y corr di sti ntas tasas de aprendi zaj e o
y valores clel nrornento
7.
uencl as
x 103]
10- l , 43 1, 68
10- 2
l 0-
1
1
[ 1,
48j
[ 1, 2Boj
[ 1,
29i ]
lt,4z4l
[ 1, 1o82j
l i o
I 102
lr.77l
[ 1, 1162]
[ 1, 1385]
.r,27
43)
[ 1, 10000+]
103 i , 865 1, 37961
Cuadro 7.6: Resul tados de LST\' I con el FKED con n
[1,10]
para di sti ntos
valores inici.les cle la matriz cle covarianza dr:l error Pi0l
:
df.
Resrrl tados de LSTM con el FKED. Como puede comprobarse en l os
cuacl ros 7.6 y 7.7, l os resul tados de} FKED mej oran notabl emente l os cl el
algoritmo de descenso por el gradiente. Conjuntos de errtrenalniento muy
pequeos con valores de n
[1,10]
llegan a ser suficientes para Llna genera-
l i zaci n perfecta hasta val ores de n
[1,2000]
y superi ores: en concreto, en
uno de los experirnentos con P[0]
:
102-I se obtuvo un conjunto de genera-
l i zaci n con r
[1,10000],
el mxi mo evaLua<l o.
N[s an, en el caso de n
[1,
10], el entrenamiento finaliza normalmente
tras solo 2000 secuencias de eutenamiento (un par de pocas), urienrras clue
el algoritmo original rrecesita un nrmero mucho mayor de secuencias; algo
sirnilar ocLrrre en el caso de rz
120,21).
{Jn problema menor del FKED es su inestabiiidad ocasional: el aprendi-
zaje ocurre al comienzo de la fase de errtrenamiento o nullca. Todos los fallos
en l os cuadros 7.6 y 7.7 son debi dos a esto. En general , si n ernbargo, cuando
n e
[1,10],
ei aprendi zaj e se produce extremadarnente rpi do y dej an de
2 t 20
2 180
2 1100
2 t 50
2 1100
2 170
2 ! 80
Modelos predictivos basados en redes neuronales recurrentes de tiempo discreto. Juan Antonio Prez Ortiz
Tesis doctorales de la Universidad de Alicante. Tesi doctoral de la Universitat d'Alacant. 2002
7.4. DtSCUS|ON
I
0 Secuencias
I x
103]
7o aprendido Generalizacin
media
Mejor
generalizacin
10-"
I U-
10-
I
1
10
r02
103
4
A
tr
0
80
70
40
$U
40
50
[17,23]
[ 14,
25]
[74,26]
112,29)
.r2,28)
113,271
lI,24l
9, 271
72,281
8, 34]
9, 32)
8, 321
Cuadro 7.7: Resultados de LSTM con el FKED con n e
l20,2Il
para distintos
valores inicales de la matriz de covarianza del error Pl01
:
6I .
producirse fallos sobre el entrenamiento tras un nmero de secuencias entre
200 y 400.
7.4. Di scusi n
Aprendi zaj e del l enguaj e de Reber
Como ya hemos cornentado, en ei caso del aprendizaje simblico en lnea,
el FKED reduce significativarnente el nmero de iteraciones necesarias para
obtener predicciones sin error. Sin embargo, tiende a olvidar ms fcilmente.
Anlisis de la solucin. El estudio de la evolucin de las activaciones de
las celdas y las compuertas de la red LSTM durante el aprendizaje en lnea
de Ia secuencia de Reber, revela que el comportamiento de la red es muy
simila al observado en anteriores experimentos que no eran completamente
en l nea (Gers et al . 2000, apartado 4.4), esto es, un bl oque de memori a se
especializa en la informacin a largo plazo, mientras que los otros se centran
en las variaciones a corto plazo. Independientemente de Io anterior, todos
los bloques aprenden a reinicializarse mediante la anulacin de la activacin
de Ia compuerta de,n:,' ;-.l o correspondi ente. Este comportami ento es comn
a ambos algoritmos de entrenamiento.
Obsrvense Ias figuras 7.I y 7.2. En ellas se muestran las activaciones
tpicas simultneas de dos de los bloques de memoria de Ia red durante 170
smbolos sucesivos tomados de una subsecuencia sin errores de prediccin.
La informacin de largo plazo aparece etiquetada con los smbolos (P o ?)
que deben almacenarse hasta que la secuencia alcance eI lado derecho de la
mquina de estados finitos.
La figura 7.1 muestra las activaciones de los CEC y de Ia compuerta de
olvido del tercer bloque de memoria, encargado de conservar Ia informacin
Modelos predictivos basados en redes neuronales recurrentes de tiempo discreto. Juan Antonio Prez Ortiz
Tesis doctorales de la Universidad de Alicante. Tesi doctoral de la Universitat d'Alacant. 2002
7. INFERENCIA DE LENGUAJES CON DEPENDENCIAS A URGO PLAZO
(a) Estado del CEC de l a pri mer" (D) y segunda cel cl a (o)
/ h\ f ' ^- . ^" ^ i ; -
ol vi do ( n) .
Figura 7.1: Activaciones del tercer bloque de memoria de una red LSTM en el
tramo en que realiza una prediccin sostenible del lenguaje de Reber. Este bloque
memoriza la informacin de largo plazo de ia secuencia.
de largo plazo de la secuencia. El estado de los CEC se atena por accin de
la compuerta de olvido sincronizada con ia aparicin de los smbolos
p
o T
a memorizar. En collcreto, el CEC de ia segunda celda permanece positivo
mientras se ha de recodar una 7 y negativo cuando se ha de recordar
una P. La compuerta de ol vi do del tercer bi oque de memori a est abi erta l a
mayor parte del tiempo, permitiendo que los CEC retengan la informacin
correspondiente; cuando esta informacin ya ha sido utilizada, la compuerta
de olvido se cierra casi completamente y
anula el estado de las celdas.
Modelos predictivos basados en redes neuronales recurrentes de tiempo discreto. Juan Antonio Prez Ortiz
Tesis doctorales de la Universidad de Alicante. Tesi doctoral de la Universitat d'Alacant. 2002
7.4. DtscusaN
- , c
(a) Estado del CEC de l a pri mera (n)
v
segunda cel da (o).
(b) Compuerta de ol vi do (n).
Figura 7.2: Activaciones dcl primer bloque de memoria de una red LSTM en el
tramo en que realiza una prediccin scstenible dei lenguaje de Reber. Este bloque
procesa la informacin de corto plazo de la secuencia.
La figura 7.2, por otra parte, muestra las activaciones del primer bloque
de memoria, encargado (al igual que los otros dos bloques, no mostrados) de
capturar el comportamiento de corto plazo de la secuencia, necesario para
predecir el resto de smbolos. En este caso, Ia compuerta de olvido se abre
o se cierra en funcin de otros eventos, no asociados a la aparicin de los
smbol os P oT correspondi entes al as dependenci as al argo pl azo.
Modelos predictivos basados en redes neuronales recurrentes de tiempo discreto. Juan Antonio Prez Ortiz
Tesis doctorales de la Universidad de Alicante. Tesi doctoral de la Universitat d'Alacant. 2002
7. INFERENCIA DE LENGUAJES CON DEPENDENCIAS A LARGO PLAZO
Aprendi zaj e de anb"*
Cr.rando la red LSTM se combina con el FKED se mejoran notablemente
los resultados del algoritmo de descenso por el gradiente utilizado original-
mente y se obtiene una convergencia ms rpida y un rendimiento mejorado.
Anl i si s de l a sol uci n. En general , Ia recl LSTM resuel ve el probl erna cl e
la inferencia de anbncn usando una combinacin de dos contadores, irtstan-
ciados por separado en los dos bloques de menroria.
La figura 7.3 muestra las activaciones qlie se producen en una red LSTIV
entrenada con el FKED. Las activaciones son las obtenidas al ir aplicando
Ios sucesivos slnbolos de la secuencia a6b6c6 a }as e[tracias de rrna red
que
ya ha aprenclido las secuencias cle enbnctt con r,
(
10.
Corno pr.recle verse en la grfica superior. el CEC del primer bloque de
memoria se va incrementando con cada aparicin del smbolo a y comienza
a clecrementarse a partir de la primera b. La aparicin de una c en la
entrada desencadena l a cl ausura de l a compuerta de entrada y de Ia de ol vi do
(vase Ia grfica intermedia), Io que provoca Ia desactivacin del contador
i rnpl ernentado por este pri mer bl oque.
De forma similar, el CEC del segundo blocue est clesactivado hasta c-re
aparece la primera b, instante en que la, compuerta cle entracla, se at're y la
compuerta cle olviclo se cierra momentnearnente para reiniciar convenien-
temente el estado de Ia cel da (vase l a grafrca i nferi or de l a fi gura 7.3). A
continuacin, e1 contador implementado por el CEC clel segundo bloque co-
mienza a decrernentarse hasta que Ia aparicin cle la primera c invielie la
tenclencia del contador y desencadena un incrernerrtc. progresivo.
Err resurnen, uno de los bloques de memoria resuelve a'b', mientras que
el otro resuelve b'c". Todo el sisterna funciona de rn-rnera extremadamente
precisa y robusLa en arnbos algoritrnos de entrenamiento.
Compl ej i dad. Aunque el nrnero de i teraci ones que necesi ta el FKED es
mucho menor qr.re las usadas por el descenso por el gradiente, Io cierto es
que aquel tiene un coste computaciona.l, especialmente el temporal. mucho
mayor. Si calculamos el tiempo necesario para realizar el entrenarniento
sobre 1000 secuencias con el FKED, este resulta ser aproximadamente unas
15 veces superior al invertido por el descenso por el gradiente.
La comparacin del descenso por el gradiente y el FKED al usar esta
rnedida relativa permite constatar que la courplejidad adicional de la red
LSTM entrenada con el FKED se ve ampiiamente compensada con el me1lor
nitmero de secuencias uecesarias para aprender el conjunto de entrenanliento.
Modelos predictivos basados en redes neuronales recurrentes de tiempo discreto. Juan Antonio Prez Ortiz
Tesis doctorales de la Universidad de Alicante. Tesi doctoral de la Universitat d'Alacant. 2002
7.4. DtscusloN
20
' 10
0
- 1 0
-25
(a) Activacin del CEC y de la salida del prirner
bloque de mernoria (n y o,
respectivamente) y del
segundo (y
0, respecti vamente).
(b) Compuerta de entrada (!), sal i da (o) y ol vi do (A)
del primer bloque de memora, encargado de anbn.
(c) Compuerta de entrada (!), sal i da (o) y oi vi do (a)
del segundo bloque de memoria, encargado de bncn-
Figura 7.3: Activaciones de los bloques de rnemoria de una red LSTM que ha
aprendi do el l enguaj e anbncn.
Modelos predictivos basados en redes neuronales recurrentes de tiempo discreto. Juan Antonio Prez Ortiz
Tesis doctorales de la Universidad de Alicante. Tesi doctoral de la Universitat d'Alacant. 2002
7. INFERENCIA DE LENGUAJES CON DEPENDENCIAS A LARGO PLAZO
Por ej ernpl o, en el caso de n. 120, 21] , el FKED con P[ 0] : 70-21obt i ene
un B0% de solucioues correctas con 4 000 secuencias de entrerramiento, lo
que equivale en tiempo a 4 000 x 15
:
60 000 secuencias con clescenso por
ei gradi ente; pero, como puede verse en el cuacl ro 7.5, el descenso por el
gradiente requiere una media de 727 000 secuencias y solo obtiene un 2070
de soluciones correctas en ei clso mejor.
LSTN'I es la primera RNR que gelteraliza el lenguaje anbncr con valores
de n muy superiores a los utilizados dr-rrante el entrenamiento. AI usar el
FKED se obtiene un sistema que necesita un nrnero de secuencias varios
rdenes de rnagnitud por debajo clel algoritmo cle entrenamiento estnclar y
que generaliza arn mejor. El nroclelo LSTM combinado con el FI{ED nece-
si ta ver rni camente cadenas cl e l ongi tucl menor que a1rb11cl l para extrr,er
las regias generales del lenguaje sensibie al coniexto anbtlcn
1.
gener.alizar
correclarnerrte con secuencias como o100')b1000c10{J0 y arn nayores.
Modelos predictivos basados en redes neuronales recurrentes de tiempo discreto. Juan Antonio Prez Ortiz
Tesis doctorales de la Universidad de Alicante. Tesi doctoral de la Universitat d'Alacant. 2002
Volver al ndice/Tornar a l'ndex
8. DESAMBIGUACIN CATEGORIAL
Este captuLo muestra cmo utilizar una RRS para desambiguar las
categoras lxicas de las palabras homgrafas de un texto. Se trata de
uno de los primeros ejemplos de uso de RNR en esta tarea. Adems, el
enfoque seguido no necesita textos completamente etiquetados y es or-
ginal en el hecho de qtre Ia clesambiguacin se enfoca como un problema
de prediccin. Los contenidos de este captulo han sido publicados en
las actas de un congreso internacional (Prez-Ortiz y Forcada 2001).
Para la introduccin referente a los conceptos de este captulo puede
consultarse los apartados 1.2.3 y 5.3. All se vi que un etiquetador mor-
folgico es un programa que asigna a cada palabra de un texto una categora
lxica; esta tarea es especialmente importante cuando ulto se encuentra con
palabras ambiguas, a las que puede corresponder) en principio, ms de una
etiqueta clependiendo del contexto. La mayora de los etiquetadores se basan
en ia suposicin de que las palabras vecinas son tiles a la hora de desam-
biguar estas palabras. Aqu haremos uso de esa informacin contextual con
una RNR.
8. 1. Mt odo
En estos experimentos se explora el uso de una RRS para el eticluetado
de las categoras lxicas de las palabras de una oracin. En primer lugar, el
texto de entrenamiento se etiqueta parcialmente mediante un diccionario o
lxico (un analizador morfolgico) que asigna a cada palabra una clase de
ambi.gedad, esto es, un conjunto de posibles categoras lxicas (este conjun-
to tiene un nico elemento en el caso de las palabras no ambiguas). En este
trabajo se usan clases de ambigedad y no palabras: los primeros estudios
de Elman (1990) se realizaron sobre pequeos vocabularios, pero los voca-
bularios reales tienen miles de entradas, mientras que el nmero de clases
de ambigedad es nonnalmente de unos cientos; esto reduce drsticamente
el tamao de la tarea de prediccin.
Todos los trabajos neuronales anteriores (vase el apartado 5.3) se basan
en entrenar la ed a partir de corpus completamente etiquetados, adems de
113
Modelos predictivos basados en redes neuronales recurrentes de tiempo discreto. Juan Antonio Prez Ortiz
Tesis doctorales de la Universidad de Alicante. Tesi doctoral de la Universitat d'Alacant. 2002
8. D ESA M BI GU AC ION CAT EGO R I AL
usar para las palabras representaciones basadas tambin en textos comple-
tamente etiquetaclos. Este trabajo es tambin un ejemplo de acercamiento
al tema desde un punto de vista neuronal, pero la gran diferencia es que la
RNR se entrena a partir de un corpus parcialmente etiquetado.
Como se ver con ms detalle a continuacin, se entrena una RRS para
que aprenda a predecir la clase de ambigedad de la siguiente palabra dei
texto; a continuacin, se usa un perceptrtt sin cap:r oculta para extraer
la categora lxica a partir de la informacin de estado desarrollada por ia
RNR para el texto considerado durante Ia primera fase clel entrenamiento.
Los experimentos mostrarn las tass de error al etiquetar alguuos textos
del corpus del Penn teebank (Nfarcus et al. 1993). Tambin se iuclican los
resultados con un modelo oculto de lvlarkov (MO\,I, va,se el apndice A)
con l os mi smos datos.
8. 1. 1-. Fases de ent renami ent o
En nuestro enfoque, ia RRS se entrena en clos fases: en primer lugar.
el texto de entrenamiento se etiqueta parcialrnente mediante un lxico o
anal i zador morfol gi co, de nranera que se asi gua a cada pai abra un conj unl o
de categoras lxicas. As, el texto de entrenamiento pasa a ser un conjtrnlo
de secuencias (una por cada oracin) de clases de ambigedad cle la forrna
o[ 1] , . . . , a1t 1, . . .
Tras esto, comienza un proceso cle entrenamiento fuera de lnea por se-
cuencias en dos fases:
Primera fase. La RRS es entrenada para predecir la clase de arnbigeclad
de l a si gui ente pal abra
al t\
= al t+l l a parti r de l a cl ase de ani bi gedad
de l a pai abra actual a[t], e, i ndi rectamente, a parti r de l as cl ases de
l as pal abras anteri ores de l a frase, o[1],..
.
,a[t
-
1], cl ue i deal mente
estarn representadas en el estacl o de Ia red, z[t]. Es de esperar que
de esta manera la RRS aprender a desarrollar en su estaclo z[] una
representacin sintctica del prefijo visto cle la oracin, Io que permi-
tir realizar una prediccin acertada cie Ia clase de aurbigedad de ia
siguiente palabra.
Como ya se ha hecho en otros lugares de esta tesis, se utiliza la codifica-
cin exciusiva tanto para las entradas como para las salidas deseaclas;
as, al utilizar una funcin cle error cuaclrtica, Ias salidas pueden
i nterpretarse como probabi l i dades (vase el apartado 4.3.1). Como
algoritmo de entrenamiento se utiliza descenso por el gradiente con
Modelos predictivos basados en redes neuronales recurrentes de tiempo discreto. Juan Antonio Prez Ortiz
Tesis doctorales de la Universidad de Alicante. Tesi doctoral de la Universitat d'Alacant. 2002
8.1. METODO
RTRL.I Adems, tambin se aprende durante el entrenamiento el es-
tado inicial (Bulsari y Saxn 1995; Forcada y Carrasco 1995) de forma
que la RRS se reinicia al estado aprendido al principio de cada frase
para evitar las interferencias entre frases, ya que, a fin de cuentas, solo
el contexto oracional influye en la categora lxica.
Segunda fase. Despus del entrenamiento, cada palabra del texto se eti-
queta con el vector de estado z[] calcuiado para ella por la red;
entonces, para cada palabra del texto se euttena un perceptrn para
que aprenda su categora lxica a partir del vector de estado asignado
a la palabra que esr
f
posiciones a su derecha, rlt + f).
El valor
de./ representa la cantidad de contexto posterior (a la derecha) que
se necesita
para desambiguar una palabra; la cantidad de contexto
anterior (a ia izquierda) necesaria es determinada por el propio algo-
ritmo de entrenamiento. Ntese cmo para que esto funcione, hay que
aadir
/
rnarcadores artificiales de final de frase (una palabra no am-
bigua) y aprender a predecirlos durante Ia primera fase como el resto
cle palabras.2
En esta segunda fase se asigna Llna ]renrona de saiida a cada categora
lxica. A ia hora de representar Ia salida deseada d[t] para una palabra
ambigua, se han utilizado tres esquemas disintos:
1. Los componenes correspondientes a categoras de la clase de am-
bigedad se ponen a 1 y el resto de componentes a 0.
2. Como el punLo anteri or, pero usando 7f0 en l ugar de 1, donde
d ) 1 es el tamao de la clase de ambigedad.
3. Solo se impone una salida deseada con valor 0 a las categoras no
incluidas en la clase de arnbigedad; el resto no contribuyen a la
funcin de error.
Aunque ei tercer enfoque es el nico que garantiza Ia convergencia a Ias
probabilidades de las etiquetas (con una funcin de error cuadrtica,
por ejemplo) en el caso de las palabras ambiguas, los experimentos
demuestran que el primer enfoque es el que proporciona los mejores
resultados.
La combinacin de Ia parte del estado de la RR.S y el perceptrn se utiliza
para determinar la categora lxica de las palabras de oraciones nuevas.
Las figuras 8.1 y 8.2 ilustran el esquema de entrenamiento de Ia primera y
segunda fases, respectivamente.
t
E1 rlg*f r*" .1"
""t*".*""*
no tiene un papel vital en un trabajo como este, que
pretende ser una demostracin de r-rna idea; por eso usamos RITRL y no formas ms
idneas, pero mis costosas, como BPTT.
2Tambin
habra sido posible utilizar el mismo marcaclor artificial
/
veces seguidas al
final de cada frase.
Modelos predictivos basados en redes neuronales recurrentes de tiempo discreto. Juan Antonio Prez Ortiz
Tesis doctorales de la Universidad de Alicante. Tesi doctoral de la Universitat d'Alacant. 2002
8. D ES AM B I G UAC I ON CAT EGORIAL
! : :
. o -
b o h
.:^r
G
63
on
o ( J
a
++\
* { -
.
{ - - {
,:+L ts
*tS
' h J
R
tl
N - f
, +- . . { - +
tt
1
I
r Rd
T
I
F =
rei ts Ll
- J J
r d
t

E* - F\ - * -
I F t d
t
I
c \ , t s
r dt t
t
I
-i ..
4
r v @
n r 9
^
J A

. : " . Y
h ^ - i
' = . ! l
a . u ;
' I r 9 E
t r ' n ' : .
O - i
4 , q
* 2. -
. . c 6
\ " , 4
; l -
- .
o l
- Y ' . k
o 3 d
: i ^ :
q : : a )
. i ! : :
4 =
- o d
@ . \
' { + c E
, : -
h ^ - =
, t )
Modelos predictivos basados en redes neuronales recurrentes de tiempo discreto. Juan Antonio Prez Ortiz
Tesis doctorales de la Universidad de Alicante. Tesi doctoral de la Universitat d'Alacant. 2002
8-1. MTODO
d
'o
q)
'o
Cd
F]
ci

U)
\o
d
!

a)
a
rr

p
.o
x i
X
a( 0
- '
64.
A A
_. ( )
i -
o 0 )
- h
v a
b 0 ( )
a -
6 r i
c
h -
T
I
I i . \ . \
J -
,
- : H _
\ J f r
sl
T
I
q
l a l - l
s. Er
13
t
I
I TF
\ . I I
| . \
t \
' - l ud
H
t
I
ri r-t
=. +. +
1 3 . \ \
F t d
+

$
1
Modelos predictivos basados en redes neuronales recurrentes de tiempo discreto. Juan Antonio Prez Ortiz
Tesis doctorales de la Universidad de Alicante. Tesi doctoral de la Universitat d'Alacant. 2002
8. D ESAM B I G UAC IO N C ATEGORI AL
8. 1. 2. Model os al t ernat i vos
Para evaluar los resultados de nuestro
los obtenidos con otros tres modelos:
enfoque, los compararemos con
Modelo de Markou. Un rnodelo oculto de Markov (MOM) estndar
entrenado mediante el algoritmo de Baum y Welcir, como se rnuestra
en el apndice A.
Al,eatori,o. Un moclelo que escoge aleatoriamente una etiqueta Ixica en
cada clase de ambigedad con probabilidad Il0, cionde 0 es el nrmero
de etiquetas de Ia clase.
Etiqueter predomi.na'nfe. Un modelo cle etictrueta preclominante global-
mente en el qrre se selecciona siempre la categora lxica rns probable
de cada cLase de ambigedad segn el muestreo realizado en un corpus
compl etamente eti quetado; el Penn Treebank, en este caso.
Los resultados del etiquetado sobre los textos de eva,luacin se comparan
con una versi n eti quetadar "a mano" de l os mi smos textos. El pri mero de
los rnodelos anteriores es la solucin estndar :,.1 problema, mientras que
los otros dos se usan corno punto base de referencia. Et ltimo nrodelo es,
ci e hecho, i nj usto porque uti l i za i nformaci n que no est di sponi bl e en el
coni unto de entrenami cnto.
8. 2. Parmet ros
Los experinrentos determinaron las tasas de error obteniclas al etiquetar
textos cl el corpus Penn Treebank versi n 3 (Marcus et al . 1993). Se construy
un lxico de 14276 entradas a partir de las prirneras 20 secciones de Ios 24
conjrrntos cle datos correspondientes aI Wall Street Journal; se eliminaron
todas las palabras que aparecan menos de 4 veces (con lo qlle se cubre el
95%)
V
las etiquetas que se asociaban a una palabra menos de un 5% de las
veces. No se uti l i z ni nsn adi vi nador.
El corpus de entrenami ento ti ene 46 461 pal abras; el corpus i ndepen-
diente de evaluacin tiene 47 397 palabras, de las cuales 6 574 son ambiguas
segn el lxico y 2 290 son desconocidas. Las 45 etiquetas originaies del Penn
Treebank se redujeron a 19 etiqtretas ms gruesas (a las que debe sumarse
los marcadores artificiales de fin de frase) eliminando alguna.s distinciones
lxicas; con ello el nrnero de clases cle ambigedad obsevadas ea de 82.
EI nuevo conj unto de eti quetas se muestra en el cuadro 8.1 y una breve
descri pci n de su si gni fi cado en el cuadro 8.2.
Modelos predictivos basados en redes neuronales recurrentes de tiempo discreto. Juan Antonio Prez Ortiz
Tesis doctorales de la Universidad de Alicante. Tesi doctoral de la Universitat d'Alacant. 2002
8.2. PARMETROS 1 1 9
Nueva eti queta Etiquetas que agrupa
XSYiVI
XCC
XCD
XDT
XEX
XFW
XIN
XJJ
XVB
XNN
-XPOS
,"XPRP
XRB
XRP
XTO
XUH
XWH
\ o
, )
LS SYM
( (
:
CC
CD
DT PDT PRP$
EX
FW
IN
JJ JJR JJS
MD VB VBD VBG VBN VBP VBZ
NN NNS NNP NNPS
POS
PRP
RB RBR RBS
RP
TO
UH
WDT WP WP$ WRB
Cuadro 8.1-: Reduccin del etiquetario del Penn Tleebank (Marcus et al. 1993).
Por ejenplo, Ia categora XNN agrupa 1o que originalmente estaba separado como
nombre propio o comn y singular o plural.
Para entrenar Ia RRS, se usa entrenamiento fuera de lnea por secuencias
y descenso por el gradiente con RTRL. La tasa de aprendizaje es a
:
0.05
(sin mornento). La influencia del nmero de neuronas de estado nx se
muestra en los experirnentos. Los pesos iniciales se tomaron aleatoriamente
en el rango
[-0.2,0.2].
Todos l os resul tados neuronal es son l a medi a de tres
experimentos distintos.
Los resultados se expresan como el porcentaje de etiquetas incorrectas
asignadas a palabras ambiguas (inciuyendo las desconocidas), no como ei
porcentaje general de etiquetas correctas, una medida habitual, pero con-
fusa, ya que muchas palabras no son ambiguas y, adems, el hecho de que
en algunos idiomas la ambigedad sea mayor que en otros impide la com-
paracin de etiquetadores cuyos experimentos se muestren sobre distintos
i di omas.
Modelos predictivos basados en redes neuronales recurrentes de tiempo discreto. Juan Antonio Prez Ortiz
Tesis doctorales de la Universidad de Alicante. Tesi doctoral de la Universitat d'Alacant. 2002
8. D E S AM B I G UAC I ON C AT EGO B I AL
Etiqueta Descri pci n
XSYM
t
XCC
XCD
XDT
XEX
XFW
XIN
XJJ
XVB
XNN
XPOS
XPRP
XRB
XRP
XTO
XUH
XWH
Smbo1o
Punto
Dns nr l r r f nq
Conj unci n coordi nati va
Nmero cardinal
Determinante o pronombre
There existencial
Palabra que no est en ingls
Preposi ci n o conj unci n subordi nati va
Adjetivo
Verbo
Nombre
Ternri naci n del posesi vo
Pronombre personal
Adverbio
Partcul a
Tct
Tnt cr i pcci n
Determinante, pronornbre o adverbio con u-
Cuadro 8.2: Descripcin de las etiquetas categoriales empleadas en Ios experi-
mentos.
8. 3. Resul t ados
Una serie de experimentos permiti constatar que los mejores resultados
se obtienen con
/
:
0, es decir, nsado directamente en la segunda fase del
entrenamiento el estado de Ia RRS obteniclo para una palabra como refe-
rencia para deterrninar su categora lxica. Corno ejemplo, en el cuadro 8.3
se tnuestran l os resul tados con nX
:
12 y
f
:0,
1. El val or n, :
12 es un
buen compromiso entre el tamao de Ia red y las tasas de error obtc,:nidas
couro puecle observarse en el cuaclro 8.4, donde pueden verse los resulbados
segn el nmero de iteraciones en cada fase con distinbos nmeros de neu-
ronas de estado y con
f
:
0. Adems, este valor hace que el nmero de
parmetros de la RRS a ajustar sea muy similar a los del NfoNl empleado.
Model o ocul to de Markov. Los resul tados dei MoM se muestran en el
cuadro 8.5 en funcin del nmero de iteraciones del algoritmo de Bar_rm y
Welch.
Aleatorio. El etiquetaclo aleatorio proporciona una tasa de etiquetas in-
correctas entre el 6r.B% y e\62.9% (5479 y 5572 errores) respecti vamente),
Modelos predictivos basados en redes neuronales recurrentes de tiempo discreto. Juan Antonio Prez Ortiz
Tesis doctorales de la Universidad de Alicante. Tesi doctoral de la Universitat d'Alacant. 2002
8.3- RESULTADOS
d
a
'o

q
.
k
p
'd
h
-
\-
bo
a
il
d
h
1J
I
x
o 6
p - .
4
v d
. ^ ,
2 4
, : :
P
q
L ; J
e a
.^ c)
@ Y
H
. . P
0 0 J
Y N
t
I
O
a "
R
. : a
a
d
' l l

:: c\

sr
;
cc; trj .d,trj l rj
( o S < = J < i V
o ? q q n 0 9 \
c\ o
.lt
\!f rfJ ro
(o cf) ro ro !" ro
(O
f-- tO <r rO \
c o < t s l < t . $ < l
i c\ l.- f.- io
q?n:
nn-
c o - r l ) < 1 r o t l )
q 6 ' j c l \ o q " ?
C \ O V ) I r J T O I O
\ c ?=qeqq
( o t . * m$ s l r )
< v < r v < ,
- : . r n
i " c 4
co (o r Ll) ro r.l)
c qnq?q=qn
l-
(o ro <4 <r ro
c 9 < l < l s v {
o q q q o c 0 9 u ?
co ro u" ro L? rf)
f-- f- cO - r Or
a
!
c'r
9< c:
c)

r c < r r o
Modelos predictivos basados en redes neuronales recurrentes de tiempo discreto. Juan Antonio Prez Ortiz
Tesis doctorales de la Universidad de Alicante. Tesi doctoral de la Universitat d'Alacant. 2002
8. D ES A MBIGUAC IN CAT EGO RI AL

o
N
A
..Tl
" i
63

d
a)
F
!
'd
A
F

b!
a
t
d
H
'o
:
X
a
. ! !
^i ct
<, 8
i l o
X d
8- r
- L
o . -
' +
u? c)
r-:
r r d
n
i ^
T1
' tl
t l p
s
+ ^
0)
v)
. : Y
a

o q q ? e . 1 e c l
@ O) l.- tl) cA <r
r o . < l 1 s s < r < l
s f r o o c \ o r o
<; i <. \.i ,ri
c O $ < i < r . + <
( o r o ( o - c o i l
,: ; ..t ..{ -: -:
oo o) f-- L!) co rs
r r ) d : s < . = $ . < f
*<t
st1 c\ c.1 o
(o
. d L r i < , L r i r r i
c + ! A r -
d d tri rj .r,
c'i
tr- ro (o co (o (o
q q ? q ? \ 0 9 \
f.- O) f-- L.J ca
.$
tl] <i{ <J -$ .+ .<t
qn
n n
. l q
(o
f.- ro $ ro ro
io
.s
sf :f
=<fi :i'l
.j oj tri $ c"i ci
f-- rrJ co (o co (o
oO O) f.-
(O
$ uf
r r f , $ < r $ < . < f
m + r r ^
d r r i < . + t r j
c o < , . i < ' + \ J
n?Yq?\
tr- c, co (o co (o
s r r r a
oi oi <i
.d,
rj
L o < r < r $ . l s r
" qn" ?ei ' . l a r ^ d + r ^
c o ' + ' $ < l
- + = $
\ . 19- ?n" t
C O O O O O
Q? - c . r c \ c o
- d " '
- - _-t
",i ",i ".{
- f
o
- .
Y ' : ' :
- -
-i ^ ."i -.:
O i C \ Y
t o o c o o o c o
u)
! ar
{
]J
c \ c o < f r o
Modelos predictivos basados en redes neuronales recurrentes de tiempo discreto. Juan Antonio Prez Ortiz
Tesis doctorales de la Universidad de Alicante. Tesi doctoral de la Universitat d'Alacant. 2002
8.4. DtSCUStON
Iteraci ones 0
1
z
A
-
o 7 B
Error 62. 8 48. 8
^ 7
. )
46. 0 45. 5
^ , Q
4 C.
Cuadro 8.5: Tasas de eror con un MOM en funcin del nmero de iteraciones
del algoritmo Baum y Welch.
segn se observ en 14 experimentos con distintas semillas para el generador
de nmeros aleatorios.
Eti queta predomi nante. Esta estrategi a da tasas de error de 20.570, un
resultado razonablemenLe bueno, aunque debe tenerse en cuenta que se basa
en Ia disponibilidad de un corpus etiquetado "a mano" y que este mtodo no
puede hacer nada con las palabras desconocidas (no existentes en este caso),
las cuales suelen representar un porcentaje considerable de las palabras de
los textos de evaluacin.
Etiquetador neuronal. Consicleraremos los resultados de un modelo neu-
ronal con aproximadamente el mismo numero de parrnetros que los 1VIOM
correspondientes; por ello nos centraremos en los resultados con 12 neuro-
nas de estad.o, aunqlre los resultados con 24 eran ligeramente mejores. Los
resultados para
/
-
0 y
f
:
I se muestran el cuadro 8.3 en funcin del
nmero de iteraciones en ca,da fase. Como puede verse) aadir una pala-
bra de contexto posterior confunde a Ia RRS, que hace mejores predicciones
basndose nicamente en el contexto pasado. Tambin se observa cmo un
entrenamiento inLenso en Ia fase 2 es tns irnportante que en la fase 1.
La ta,sa de etiquetado correcto global sobre palabras ambiguas y no am-
biguas de la RRS y del MOM est en torno al 92To: los mejores resultados
son un 97.5% (4011 errores) para el MOM y un 91.9% (3852 errores) para
la RNR.
8. 4. Di scusi n
Un etiquetador neuronal sencillo con aproximadamente el mismo nmero
de parmetros ajustables obtiene basicamente los rnismos resultados (en tor-
no a un 45% de etiquetas incorrectas) que un MOM estndar entrenado con
el algoritmo de Baum y Welch. El etiquetador neuronal, sin embargo, to-
ma las decisiones relativas a las palabras ambiguas sin tener en cuenta las
paiabras posteriores, mientras que el MOM tiene que posponer esta deci-
sin hasta encontrar una palabra no ambigua (vase el apndice A). Esta
capacidad no parece dar ventaja alguna al MOM sobre la RRS.
Modelos predictivos basados en redes neuronales recurrentes de tiempo discreto. Juan Antonio Prez Ortiz
Tesis doctorales de la Universidad de Alicante. Tesi doctoral de la Universitat d'Alacant. 2002
8. D ES AM B I G UAC I O N C AT EGOR I AL
Como se ha podi do constatar, l a i nformaci n al macenada en el estado de
una RNR entrenada para predecir ia categora lxica cle la siguiente palabra
puede ser til en el problema del etiquetado categorial. Los resultados indi-
can que ei rendimiento de ambos enfoques, el basado en MOM y el neuronal,
son comparables, aunque este ltimo ignora el contexto posterior.
Una diferencia significativa entre nuestrc mtodo
,
los NIONI es que estos
desambi guan gl obal menl e (el al gori tmo de Vi terbi real i za una opti mi zaci n
global sobre toda ia frase o, como mnimo, sobre segrnentos delimitaclos
por las palabras no ambiguas), mientras que el nuestro 1o hace localmente.
En cualquier caso) el coste temporal de entrenamiento es significativaniente
rnayor para el caso nelrronal (horas) que para el N,IOM (rninutos).
Modelos predictivos basados en redes neuronales recurrentes de tiempo discreto. Juan Antonio Prez Ortiz
Tesis doctorales de la Universidad de Alicante. Tesi doctoral de la Universitat d'Alacant. 2002
Volver al ndice/Tornar a l'ndex
9. PREDICCION DE SENALES DE VOZ
Los nicos trabajos previos que usan RNR para la prediccion de seales
de voz se basan en la RNRC, un modelo formado por una sucesin de
redes sencillas en cascada. En este captulo estudiaremos cmo se
comportan en esta tarea las RNR clsicas. Los siguientes resultados
han sido presentados en un congreso internacional (Prez-Ortiz et al.
2001a) .
La introduccin a los conterridos de este captulo puede encontrarse en
l os apartados 1.2.4 y 5.4.
9. 1. Mt odo
Si gui endo l a l nea cl e l os trabaj os de Hayki n y Li (1995) y Bal tersee
y Chambers (1998), el model o de pl edi ctor que usaremos est compuesto
por uu predictor no lineal (una RNR) que debera proporcionar una salida
localmente ms lineal que Ia seal de entrada, seguido de un predictor lineal
(un filtro) que sacara partido de esta linealizacin. Cada mdulo se entrena
de forma separada. Es de esperar que
"esta
combinacin de un flltro no lineal
con un filtro lineal debera poder extraer tanto Ia informacin no lineal como
Ia lineal contenida en la seal de entrada con vistas a
producir
Ia
prediccin"
(Hayki n y Li 1995).
La figura 9.1 muestra un diagrama para el rnodelo en cascada comple|o.
EI primer mdulo se entrena para predecir la muestra u[] a partir de las
p rnuestras anberioresl
y
de la informacin almacenada en el estado de la
red. La seal predicha [t] se introduce, entonces, en el mduio lineal, que
es entrenado para predecir la muestra del instante * 1. Esta ltima se
considera la saiida giobal del sistema. Como se muestra en el diagrama
(siguiendo los artculos citados antes), el mdulo no lineal tiene orden de
entrada p, y pL es el orden correspondiente del predictor lineal. Adems
r
La .introduccin explcita. en la red de la-s muestras recientes le da una ventaja adicional
sobre las redes de una rnica. entracla que soio pueden acceder a esta historia a travs de
su estado. Los experimentos determinarn la imoortancia de este aadido.
L D
Modelos predictivos basados en redes neuronales recurrentes de tiempo discreto. Juan Antonio Prez Ortiz
Tesis doctorales de la Universidad de Alicante. Tesi doctoral de la Universitat d'Alacant. 2002
g.
PREDICCION DE SEALES DE VOZ
ul t
-
Filtlc' lincal
Fi l tro ncutonal recurrel te
Figura 9.1: Nlodeio cle predictor que colnbina filtros linerles y no lineiies (Hnykirr
y Li 1995) .
de los resultados de este modelo hbrido, se mostrarn tambin en algunos
casos los resultados de ambos tipos cle predictores por separaclo.
A continuacin se describen los modelos usados el] las
partes
lineal v no
l i neai cl el predi ctor.
9. 1. 1. Predi ct ores no l i neal es
Cotnpararemos el rendimiento cle las siguientes RNR (vase el captulo 3)
cuando actan corno predictores no lineales: la RNRC, la RRS y la RPR.
Tambin se experirnent con otros modelos, como la RTR o la red NARX,
para obtener resultados similares a los de Ia RRS o Ia RPR, que no se
mostrarn aqu. Como algoritmos de entrenamiento en lnea se consicleran
el descenso por el gradiente (que representaremos por DG en las figura,s y
cuadros de este captulo) y el FKED, ambos con derivacias caiculadas segrn
RTRL.
Modelos predictivos basados en redes neuronales recurrentes de tiempo discreto. Juan Antonio Prez Ortiz
Tesis doctorales de la Universidad de Alicante. Tesi doctoral de la Universitat d'Alacant. 2002
9.2. PARAMETROS
9.L.2. Predi ctores l i neal es
El predictor lineal es un filtro FIR (vase el captulo 3) con los pesos
adaptados por medio del algoritmo de mni,mos cuadrados (LMS, por el
ingls least-rnean-square) (Oppenheim y Schafer 1989; Proakis y Manolakis
1996) o por rnedio del algoritmo de mnimos cuadrados recurs,iuo (RLS,
por el ingls recurs'ue least-squares) (Oppenheim y Schafer 1989; Proakis y
Manolakis 1996); el primero guarda relacin con el descenso por el gradiente
y el segundo con el filtro de Kalman.
Para determinar un rendimiento base, tambin evaluaremos la calidad
de prediccin con el predictor Iineal sin parmetros ms sencillo posible: el
qtre calcula tl[t + 11: u[t].
9. 2. Parmet ros
Estudiaremos Ia calidad de los predictores con las tres seales (todas
de i 0000 muestras) uti l i zadas por Bal tersee y Chambers (1998).2 El rendi -
miento se mide con la ganancia de predi.ccin (GP), expresada en decibelios,
que se define como:
G
:
l 0l ogr o ( e. 1)
donde Sl es la varianza estimada de Ia seal de voz ultl y ^91 es Ia varianza
esti mada de l a seal de error el tl : u1-tt[t]. La GP puede verse como una
relacin seal-ruido para el ruido introducido por ia prediccin errnea.
Las ampl i tudes de l as tres seal es pertencen al rango
10,1],
por l o que
utilizaremos Ia funcin sigmoidea logstica gL para las activaciones de las
neuronas de salida cle las RNR

en general, para todas las funciones de
activacin.
Basndonos de nuevo en los trabajos previamente citados, llevarernos a
cabo con los modelos neuronales un aprendizaje inicial por pocas sobre 200
muestras de la seal de entrada.3 El nmero de pocas utiiizado es de 200
para el descenso por el gradiente y de 5 para el FKED. Estos valores son
Ios que dieron mejores resultados en distintos experimentos preliminares:
valores mayores para el caso del FKED o menores para el descenso por el
gradiente reducan la GP en unos cuantos decibelios.
2las
seales s1, s2 y s3 estn disponibles en Ia pgina de J. Baltersee en la direccin
ht t p: / / www. ert . rr, t h- aachen. de/ Personen/ bal t ersee . ht nl .
3Esto
atena parcialmente la naturaleza en lnea cie la prediccin, pero podra ser
aceptable si su complejidad es baja. Los experimentos demostraron que esta inicializacin
tena gran influencia en las ganancias de prediccin conseguidas.
/ c 2\
| ----: I
\ . q2l
\ - e , /
Modelos predictivos basados en redes neuronales recurrentes de tiempo discreto. Juan Antonio Prez Ortiz
Tesis doctorales de la Universidad de Alicante. Tesi doctoral de la Universitat d'Alacant. 2002
9. PREDICCION DE SEALES DE VOZ
Entrenami ento Seal 1 Seal 2 Seal 3
LMS
RLS
8. 99
1 ? 1 l t
7. 98
11. 60
5. 82
9. 66
Cuadro 9.1: Ganancias de prediccin en decibelios para un fi.ltro FIR. de orden
Pt
: 12.
Entrenami ento Seal 1 Seal 2 Seal 3
RNRC (DG) + LN,IS
RNRC (DG) + RLS
RNRC (FI(ED) + RLS
10. 25
13. 01
14.73
9. 49
11. 80
13. 59
7. 30
o ) A
i 0. 90
Cuadro 9.2: Ganancias de prediccin en ctecibelios con una RNRC. Valores to,
rnados del trabaj o de Bal tersee y Chambers (1998).
A menos que se diga lo contrario, todas las GP mostrada^s son 1a media
de 7 inicializaciones distintas de los pesos; Ia varianza de todos los resultados
estaba por debaj o de 0.3. Los pesos i ni ci al es se tornaron al eatori amente de
una di st ri buci n en
[ -0. 2, 0. 2] .
Cuando se usa el descenso por el gradiente con la RRS
v Ia RPR, los
parmetros sorl a
:
0.3 y
?
:
0. Por otro i ado, Ios parmetros {el FKED
sobre estos model os son:
Q[ t )
: 70-2 "=-90 1g-o
R[] : 100 "--$o 3
P[0]
:
1000/
9. 3. Resul t ados
Las GP obteniclas con un filtro lineal de orden pL :
12 al usar los
al gori tmos LMS o R.LS se muestran en el cuadro 9.1. En este caso, el factor
de oi vi do para RLS es 0.998, l os el ementos de l a di agonal de l a matri z de
correl aci n i nversa de RLS se i ni ci al i zan a 100, y LMS usa una consranre
de adaptaci n cl e 0.2. Estos val ores son l os que proporci onaron
mej ores
resultados en experimentos preliminares.
Los resultados con la RNRC estn tomados de los experimentos de Bal-
tersee y Chambers (1998) y se muestran eu el cuadro 9.2. En su artcul o se
pueden encontrar detalles sobre los parmetros de entrenamiento utiiizados.
Debe destacarse que en ei citado artculo no aparece indicacin aiguna sobre
Modelos predictivos basados en redes neuronales recurrentes de tiempo discreto. Juan Antonio Prez Ortiz
Tesis doctorales de la Universidad de Alicante. Tesi doctoral de la Universitat d'Alacant. 2002
9.3. RESULTADOS
1 l
o

( t B
Fi gura 9.2: Gananci as de predi cci n para l a seal 1 con Ia RRS y DG (),
FKED (o), DG+LMS (l ), FKED+LMS (0)yFKED+RLS (r). Lal neaconst ant e
representa el rendimiento base, [ + 1]
: ultl.
P = 2
Fi gura 9.3: Gananci as de predi cci n para l a seal 1 con RPR y DG (D), FKED
(o), DG+LMS (), FKED+LMS (0)
v
FKED+RLS (r). La l nea constante re-
presenta el rendi mi ento base, l t + Ll
:
u[t].
resultados medios, ya que solo se muestran los resultados de un experimento
con parmetros d hoc (elegidos de forma diferente para cada seai). En
cuaiquier caso, incluso los mejores resultados obtenidos aqu con el resto
de modelos recurrentes son) como se vet, peores que los obtenidos con la
RNRC.
Los cuadros y las grficas indican el algoritmo de entrenamiento en lnea
utilizado para las RNR y, de haberios, el utilizado para los fiitros lineales,
#
t
Modelos predictivos basados en redes neuronales recurrentes de tiempo discreto. Juan Antonio Prez Ortiz
Tesis doctorales de la Universidad de Alicante. Tesi doctoral de la Universitat d'Alacant. 2002
9. PREDICCION DE SEALES DE VOZ
=-
P - v
Fi gura 9.4: Gananci as de precl i cci n para l a seal 2 con RRS y DCl (tl ), FKED
(o), DG+LMS (), FKED+LI\4S (0)
v
FKED-RLS (r). La l nea constante l e-
presenta el rendi mi ento base, [ + 1]
:
ul tl .
separados por ulr signo de suma. EI orclen del filtro lineal es en todos los
casos p :
l l .
Los resultados al usar los predictores basados en RRS y RPR con n,
:
g
se muestran en lrs figuras de ia 9.2 a la 9.7 para cliferentes valores del
orclen de entrada
3r.
En estos casos los parmetros son 0.2 para lr constante
cle aclaptacin cle LNIS, 1 para el factor de olvicio de RLS (es clecir, no
se consiclera el factor de olvido: los valores por deba.jo de 1 hacan que
ei sistema se volviera inestable) y 1000 para los eieinentos iliiciaies de las
matri ces de correl aci n de RLS.
EI val or nX: 5 y l os rdees de eut radap: 1, 2, 3 se el i gi eron cl e rnodo
que e1 nimero de parmetros a aprender fuera comparable con los usados
por Bal tersee y Charnbers (1998), que consi deraron RNRC con unos 35 pesos
ajustables.a En cnalquier caso. las RRS y RPR colt un nmero cliferente de
llellronas de estaclo dieron resultados que no variaban significativarnente
con respecto a los presentaclos para
'nX
:
5; por ejerplo, rloil n
:
l
los resultaclos con descenso por ei gracliente son prcticarnente los mismos.
mientras que ios del FKED estn 1 dB por debajo; con 7x
:
10, ei descenscr
por el gradiente vuelve a dar GP similares, mientras que el I'KED las rnejora
muy poco (entre 0 y 0.5 dB, segn el model o de red y l a seal concreta).
*El
nrnero de pesos, incluiclos los sesgos. de una RRS de orden p con una nica
sal i da es (p] -nx
*2)ny * 1; en el caso de una RPR de orden p con una ni ca sal i da es
( p * n x + 2 ) n + p + l .
1
1 0
( n R
E '
7
Modelos predictivos basados en redes neuronales recurrentes de tiempo discreto. Juan Antonio Prez Ortiz
Tesis doctorales de la Universidad de Alicante. Tesi doctoral de la Universitat d'Alacant. 2002
9.3. RESULTADOS
l 1
P = 2
Fi gura 9.5: Gananci as de predi cci n para l a seal 2 con RPR y DG (n), FKED
(o), DG+LMS (), FKED+LMS (0) y FKED+RLS (r). La l nea constante re-
presenta el rendirniento base, [ + 1]
:
ultl.
o o o
P = 2
Fi gura 9.6: Gananci as de predi cci n para l a seal 3 con RRS y DG (D), FKED
(o), DG+LMS (^), FKED+LMS (0)
v
FKED+RLS (r). La Inea constante re-
presenta el rendi mi ento base, [ + 1]
:
u[].
Finalmente, las GP de un filtro simple de la forma [ + 1]
:
u[] se
muestran como lneas constantes en las figuras 9.2 a9.7. Este es el modo ms
sencillo de predecir la siguiente secuencia y se muestra aqu como referencia
base.
a
o -
7
(n
9 6
Modelos predictivos basados en redes neuronales recurrentes de tiempo discreto. Juan Antonio Prez Ortiz
Tesis doctorales de la Universidad de Alicante. Tesi doctoral de la Universitat d'Alacant. 2002
9. PREDICCION DE SEAIES DE VOZ
o
5
tr-*
9 = ?
Fi gura 9.7: Gananci as de predi cci n para l a, sel i al 3
(o), DG+LMS (), FKED+LN S (0)
v
FKED+RLS
presenta el reridimiento llase, l + 1l
:
ultl
^ - e
P - v
con RPR y DG (n). FKED
(l ). La l nea coustanre re-
9. 4. Di scusi n
De entre ios tres modelos recurrentes estr-rdiados, solo la RNRC entrenada
con el FKED y seguicla por un filtro lineal entrenado con RLS supera, clrrr.-
mente (entre 1 dB y 2 dB por enciura) la GP cle un filtro iineal cle orclen 12
entrenado con RLS. El resto de configuraciones neuronales (en cascada o no)
se comportan mucho peor que un sencillo filtro FIR con lnenos parrnetros
entrenado con RLS.
Al usar aisladamente ia RRS o Ia RPR, el FKED procluce resr-iltados
mucho mejores que los del algoritmo de descenso por el gradiente: ei FKED
permi te obtener GP superi ores entre 1 dB y 3 dB. Los resul tacl os con
ambos modelos y el FI{ED confiruran de forma consistente anteriores estu-
di os (Bi rgmei er 1996) cl ue si tuaban en unos 3 dB l a rnej ora cl e l os predi ctores
no l i neal es sobre l os l i neal es entrenados con LMS. Si n ernbargo, ni nguno cl e
los algoritrnos cle entrenamiento permite arcanzar las GP de un filtro FiR
enl renado con RLS.
Curiosamente, al situar en cascada predictores basados en RRS r: RpR
y predi ctores i i neal es. l os resul tados son peores que cuando se ui i l i zan l os
predictores no lineales (RRS y RPR) aisladanrenle. Los resultados cle estas
confi.guraciones en cascada son rnuy negativos al cornpararlos con ia refe-
renci a base (un predi ctor que se l i rni ta a reproduci r Ia muestra actual ); cl e
hecho, para las seales 2 y 3 incluso son peores.
Modelos predictivos basados en redes neuronales recurrentes de tiempo discreto. Juan Antonio Prez Ortiz
Tesis doctorales de la Universidad de Alicante. Tesi doctoral de la Universitat d'Alacant. 2002
9.4. DISCUSION
En resumen, se est produciendo la siguiente situacin: podemos con-
sidera que tenemos dos tipos de predictores no lineales, P (una RNRC) y
,S (una RRS o una RPR, ambas con comportamientos similares), y que, de
manera opcional, alimentamos un predictor lineal -L con sus saiidas. Sea
Gp, Gs las GP de los predictores no lineaies por separado, GT la GP del
predictor }ineal, y Gpr, Gs Ias GP del modelo hbrido en cascada- A partir
de Ios resultados anteriores
podemos concluir:s
Gpt
Gpr
Gst
Gpt
Gst
Gg
Gp
n^
v J
G
l i
(e.2)
(e.3)
( q
L \
( e. 5)
( e. 6)
De (9.5) y (9.6), podemos concl ui r que P fi l tra adecuadamente l a seal
para su posterior tratamiento lineal cancelando al menos localmente las no
linealidacies, mientras que, por el contrario, S parece amplificar estas no
linealidades y clegradar el rendimiento dei filtro lineal. Este aspecto parece
i mportante y merece un estudi o ms detal l ado.
De (9.3) y (9.4) deducimos que ninguna de Ias configuraciones en cascada
es adecuada para la RRS o la RPR, mientras que es ms que recomendable
para l a RNRC. Las ecuaci ones (9.2) y (9 4) afi rman l a superi ori dad de l a
RNRC en cascada sobre los otros modelos recurrentes.
Al comparar l a RPR y l a RRS, esta da GP l i geramente superi ores. Una
explicacin posible es que ai usar la RRS se necesita usar correctamente
la informacin del estado, mientras que con Ia RPR podemos ignorar esta
informacin y concentrarnos exclusivarnente en las conexiones directas entre
las capas de entrada y salida. La dependencia positiva del orden de entrada p
es evidente al usar el FKED, pero es rnenos obvia en el caso del descenso
por el gradiente (de hecho, en aigunos casos) al incrementar p se reduce Ia
correspondi ente GP).
Finalmente, en experimentos adicionales, los predictores basados en Ia
RRS y la RPR fueron introclucidos en ul1 sistema de codificacin de voz real
que segua el estndar G721 relativo a la modulacin adaptativa diferencial
de prrlsos (ADPCM, adaptiue di,fferenti,al pulse code modulation) (Benvenuto
et al. 1987). Reemplazatnos el predictor iiR del estndar G721- (dos polos
y seis ceros) con RNR y RPR, sin cambiar el cuantizador adaptativo del
estndar. Los nuevos resultados confirman los anteriores: en este caso, solo
sla
ecuacin (9.3) debe de ser cierta, ya que Baltersee y Chambers no muestran resul-
tados individrtales para 1a RNRC.
Modelos predictivos basados en redes neuronales recurrentes de tiempo discreto. Juan Antonio Prez Ortiz
Tesis doctorales de la Universidad de Alicante. Tesi doctoral de la Universitat d'Alacant. 2002
9. PREDICCION DE SENALES DE VOZ
el FKED obtiene tasas de compresin similares a las del filtro iIR original
y el descenso por el gradiente da ganancias mucho rns bajas.
Este trabajo constata, de nuevo, la notable superioridad del algoritmo
de entrenamiento basado en el FKED sobre el descenso por el gradiente.
Adems, la seal predicha por RRS y RPR presenta un carcter no lineal
ms marcado que el de la propia seal original, Io que hace inviable un
predictor lineal posterior en lrna configuracin en cascacla. El renclimientcr
de la RNRC, sin embargo) es me.jorado por el predictor lineal.
Algunos trabajos anteriores detectaron severas lirnilaciones (Gers et al.
2001; Hailas y Dorffner 1998) de las RNR al ser aplic:adas a Lareas cle predic-
cin nurnrica no lineales. Los hallazgos de este captulo sugieren similaes
concl usi ones.
Modelos predictivos basados en redes neuronales recurrentes de tiempo discreto. Juan Antonio Prez Ortiz
Tesis doctorales de la Universidad de Alicante. Tesi doctoral de la Universitat d'Alacant. 2002
Volver al ndice/Tornar a l'ndex
10. CONCLUSIONES Y PERSPECTIVA
A modo de clausura,
Ias contribuciones de
investigaciones.
se presentan ahora las principales conclusiones,
Ia tesis, y algunas ideas para clesarroliar futuras
10. 1. Concl usi ones
En esta tesis se han estudiado diversas aplicaciones de las redes neu-
ronaies recurrentes (RNR, captulo 2) de tiempo discreto usadas en modo
predictivo. Como se vio al plantear inicialmente los problemas a esolver
(captulo 1), una estimacin adecuad.a del siguiente elemento de una secuel]-
cia temporal puede ser irtil para comprimir secuencias simblicas, inferir
)enguajes, desambiguar palabras homgrafas o comprirnir seales de voz di-
gitalizada, tareas cuyo estudio se ha abordado en los captulos 6, 7, B y 9,
respectivamente.
Se ha podido comprobar que RNR como la red recurrente simple (RRS) o
la red parcialmente recurrente (RPR) no tienen tanta memoria como podra
presumirse en primera instancia (captulo 3). Aunque trabajan adecua-
damente con lenguajes sencillos y altamente estructurados (especialmente
Ienguajes regulares), surgen diversos problemas a la hora de considerar
fuentes secuenciales ms elaboradas. As, las RNR estudiadas no logran
capturar acertadamente la dinmica de los textos en lenguaje natural y son
claramente superadas por modelos ms sencillos como los basados en n-
gramas (captulo 6). Por otro lado, Ios resultados obtenidos con secuencias
numricas correspondientes a seales de voz digitalizada son poco alentado-
res (captulo 9): las ganancias de prediccin de Ias redes recurrentes clasicas
no superan las obtenidas con senciilos filtros Iineales entrenados mediante el
algoritrno de mnirnos cuadrados recursivo (RLS).
Estos experimentos se llevaron a cabo considerando dos algoritmos de
entrenamiento: el sencillo descenso por el gradiente y el ms complejo filtro
de Kalman extendido desacoplado (FKED). Aunque los problemas consta-
tados se siguen produciendo al utilizar el FKED, este saca mayor provecho
de la capacidad mernorstica terica de Ias RNR y supera ampliamente en
todos ios casos estudiados los resultados del descenso por el gradiente.
135
Modelos predictivos basados en redes neuronales recurrentes de tiempo discreto. Juan Antonio Prez Ortiz
Tesis doctorales de la Universidad de Alicante. Tesi doctoral de la Universitat d'Alacant. 2002
10. CONCLUSIONES Y PE|TSPECTIVA
En cualquier caso, debe tenerse en cuenta que los experimentos clesarro-
lla,dos en los captulos 6 y 9 consideran Lln modo de operacir5n completamente
en lnea (captulo 4), es decir, las salidas de la, RNR son utilizadas inme-
cliatamente y la red no tiene opcin de reconsiderar ninguna de eilas. La
prediccin en lner es' por ta,nto, ms exigente que Ia realizada fuera de
lnea, pero este es el escenario preclictivo a estudio.
Por otro lado, un problema aclicional surge cllanclo la estimacin del
siguiente elemento de ia secuencia depende del valor de un elemento relativa-
rnente le.jano en el tiempo. Estas depenclecias a largo plazo (captulo 4) sue-
len ser un obstculo insalvable para la rnayora de las RNR. Este problema
ruede
estudi arse cl escl e l a perspecti va cl el gradi ente evanescente (captul o 4),
fenmeno que afecta en mayor o rrlenor medida a todos los algoritrnos de
errtrenanriento ba.saclos en el clculo de la derivacla de Ia, firncin cle errol
)'
que les irnpide r.nzrnejar con. correccirr este tipo <ic; dependencias. Para
superar este problema, recienternente se ha propr"testo el modelo nenrona.l cle
memorias a corio
1r
largo plazo (captulo 3), conociclo como red LSTIVI.
En esta tesis se ha aplicado la red LSTM a Ia inferencia mediante pre-r
cliccin de clos tipos c1e lenguajes, ambos con dependencias a iargo plazo: un
ienguaje reglrlar y un lenguaje sensible al contexbo. Las RNII converrcionales
no puedr:n manejer.r'las depenclencias a largo plazo presentes en estas seclren-
cirs. Sin ernbargo, en algunos trabajos prei'ios, varios autores comprobaron
que la red LSTN{ s poda hac;erlo. En estr, tesis he llevado an mrs lejos
(captul o 7) esta capaci dad al combi nar l a recl LSTM con el !-KED. Con
este algoritrno de entrenamiento se pueden superar dependen.cias separadas
por varios tniles cle smbolos, valoi"es nlrnca alcanzados anteriormr:nte ccn
LSTN'I. Estos resultados corroboran las afirmaciones hechas rns arriba: el
FKED combate eficazmente el efer.;to cle amnesia de las RNR; el mayor coste
temporal del FI(ED con respecto al liabitual algoritmo de desceriso por el
gracliente se cornpensa muchas veces con una velocidacl cle aprendizaje su-
peri or. Adems, l a sol uci n desarrol l ada por l a red LSTM con el FKED es
i gual a l a que se obti ene con el al gori tmo de descenso por el gradi ente, pese a
Ias diferencias notables existentes entre ambos algoritmos de entrenamiento.
Finalmente, se ha usado de una fbrrna original la informacin secuen-
cial alntacenacla en el estado cle una RRS para desambigrrar las paiabras
homgrafas cle una oracin (captulo B). Los resultados son similares a los
proporcionados por un modelo oculio de N{arkov (N{ONI), ei nrodelo de refe-
renci a habi tual en estos casos (apndi ce A), con i gual ni rmero cl e parmetros.
Los resultados son tambin si.milares a los de otros enfoques nellrona,les que.
sin embargo, necesitan textos completamente etiquetados para el eirtrena-
nriento, necesida,cl superada con el plauteamietto aqu plopuesto.
Modelos predictivos basados en redes neuronales recurrentes de tiempo discreto. Juan Antonio Prez Ortiz
Tesis doctorales de la Universidad de Alicante. Tesi doctoral de la Universitat d'Alacant. 2002
10.2. CONTRIBUCIONES DE ESTA TESIS
IO.2. Contribuciones de esta tesis
Las principales aportaciones de esta tesis son las siguientes:
1. Los esultados obtenidos con el FKED en las distintas tareas predic-
tivas abordadas en la tesis confirman los de otros trabajos: el FKED
supera en muchos aspectos al descenso por el gradiente como algo-
ritmo de entrenamiento en lnea de RNR. Todo trabajo con RNR,
especialmente aquellos que estudian procesos que se desarrollan en
Inea, debera considerar el FKED como algoritmo de entrenamiento
en los experimentos.
2. En particular, el FKED ha llevado un poco ms all la capacidad de
la red LSTM para manejar adecuadamente Ias dependencias a lar-
go plazo. Si bien los resultados previos sobre ei lenguaje sensible al
contexto o,nbncn obtenidos mediante el descenso por el gracliente supe-
raban ampliamente los de otras RNR, el FKED supera a ambas tanto
en velocidad de aprendizaje como en capacidad de generalizacin:
so-
l o con observar secuenci as del l enguaj e con ??
[1,10],
se consi guen
generalizaciones para valores de n por encima de 1000.
3. Se ha apl i cado l a red LSTM por pri mera vez a una tarea de predi cci n
completamente en lnea. Los trabajos anteriores haban utilizado, co-
mo mucho, un entlenamiento en lnea por secuencias (captulo 4) . La
red LSTM es adecuada para el entrenamiento en lnea puro: la aciicin
de la compuerta cle olvido permite que el estado de las celdas de Ia red
no aurnente sin control, por muy larga que sea la secuencia procesada
de forma continua,
4. Aunque no es la primera vez que una RNR se aplica a la desambi-
guacin categorial, s que es la primeravez que el problema se plantea
desde un punto de vista predictivo. Es ms, se trata del primr enfoque
neuronal (recurrente o no) que no necesita un corpus completamente
etiquetado para el entrenamiento, aspecto este que Io acerca ms a
modelos como los MOM.
5. Las alternativas recurrentes usadas con anterioridad para realizar la
prediccin sobre secuencias de voz se basaban en Ia red neuronal recu-
rrente en cascada (RNRC), un modelo especializado para este tipo de
tarea (captulo 3). En esta tesis se ha estudiado si modelos de RNR
ms sencillos son capaces de mantener el rendimiento de la RNRC. Los
resultados, sin embargo, son poco alentadores y remarcan las conclu-
siones de otros trabajos que han constatado la superioridad de modelos
simples basados en una ventana temporal de entradas sobre las RNR
a la hora de procesar algunas secuencias numricas.
Modelos predictivos basados en redes neuronales recurrentes de tiempo discreto. Juan Antonio Prez Ortiz
Tesis doctorales de la Universidad de Alicante. Tesi doctoral de la Universitat d'Alacant. 2002
10. CONCLUSIONES Y PERSPECTIVA
10. 3. Sugerenci as para prxi mos t rabaj os
Algunos aspectos que merecen un estudio m.s detallaclo en prximos
trabajos son los siguientes:
1. Los valores de los parmetros del FKED usados en los experimentos
se determinaron a partir de una serie de experimentos preliminares.
Para paliar esta bsqueda emprica de los valores ms adecuados, debe
realizarse un estudio sistemtico sobre ia influencia cle los distintos
parrnetros del FKED en el rendimiento del algoritmo.
En el captul o 6 se ha estudi ado Ia predi cci u en l nea sobre secuenci as
generadas por mqui nas de estados fi ni tos. Adems, en el aparta-
do 5.1.6 se ha vi sto Ias pri nci pal es di ferenci as del enfoque al l segui cl o
con la inferencia gramaticai clsica con RNR.
Hay varios mtodos propuestos (Giles et al. 1992) para extraei mo-
delos de estados finitos a partir del conocimiento simblico adquirido
por una RNR cuando ha sido entrenada para inferir lenguajes regu-
iares mediante ese enfoque clsico. Debera estudiarse si todava es
posible extraer algn modelo de estaclos finitos cuando el aprendizaje
se reaiiza en inea y si es comparable al extraclo fuera de lnea. Aunque
Ia convergencia de la RNR a las probabilidades reales parece difcil cle
demostrar en este caso, puede estudia,rse empricamente si Ia presen-
cia reiterada de una subsecuencia hace que el estaclo de la red alcance
un punto fijo tras procesar dicha subsecuencia o) al merlos) urra re-
gin del espacio de estados desde la que se obtengan salidas similares.
La separacin en regiones del espacio de estados puede realizarse, por
ejemplo, mediante cuantizacin vectorial sobre la secuencia cle activa-
ciones del estado (eransky y Berlu5kov 2001). Un estudio terico
debera determinar si la salida de Ia red puede todava considerarse en
el caso de la prediccin en lnea como una buena aproximacin a las
probabiliclades reales.
El proceso de extraci n de un model o de estados fi ni tos di scuti do en
el punto anterior tambin debera aplicarse al modelo aprendido en el
caso de Ia desambiguacin categorial (captulo B) con vistas a formular
el conj uuto de regl as de eti quetado aprendi das por el si stema.
Tambin debe evaluarse la influencia del tamao clel corpus de entre-
namiento en el rendirniento del desambiguador categorial, as como la
adecuacin de Ia segunda, tercera, etc. neurona de salicla con mayor
activacin:
corresponde
a una categora vlida para la palabra'/
En cuanto a Ia prediccin de secuencias textuales, se puede estudiar
el rendimiento de la red LSTM aplicada a esta tarea para cornprobar
2.
J .
A
Modelos predictivos basados en redes neuronales recurrentes de tiempo discreto. Juan Antonio Prez Ortiz
Tesis doctorales de la Universidad de Alicante. Tesi doctoral de la Universitat d'Alacant. 2002
10.3. SUGERENCIAS PARA PROXIMOS TRABAJOS
si supera los resultados de las RNR tradicionales, as como analizar Ia
solucin alcanzada por el modelo.
En cuanto a la inferencia del lenguaje a'bncn con Ia red LSTM, debera
considerarse otros lenguajes sensibles al contexto, adems de tener en
cuenta tambin muestras negativas.
No hay trabajos que intenten extraer el modelo (un autmata finito o
un autmata de pila, por ejemplo) aprendido por la red LSTM cuan-
do se aplica a la infeencia de lenguajes. Esta labor debe llevarse a
cabo, adems de realizar un estudio profundo sobre las clases de len-
guajes aprendibles con LSTM, una caracterizacin general mucho ms
importante que el hecho de que pueda aprender uno u otro lenguaje
determi nado.
El rendimiento de las redes LSTM a la hora de manejar dependencias
a Iargo plazo puecle compararse con otras alternativas como los MOM
j errqui cos (Fi ne et al . 1998).
EI modelo LSTM intenta conseguir un flujo de error constante a travs
de los carruseles de error constante (CEC) para superar el problema
del gradiente evanescente y gestionar adecuadamente las dependencias
a largo plazo (captulo 4). A ello contribuyen tanto la configuracin
topolgica del modelo como la forma de calcular las derivadas parciales
de la funcin de error.
Un estudio interesante es determinar la importancia de estas derivadas
a la hora de considerar las dependelcias a largo pIazo. Para ello se
puede aplicar un algoritmo como Alopex (vase el apartado 4.10), que
no se basa en el gradiente, y evaluar los resultados obtenidos.
Tambin puecle ser interesante estudiar si el hecho de que un bloque de
memoria de Ia red LSTM pueda tener ms de una celda aporta alguna
ventaja al modelo. Aparentemente, al compartir todas las celdas de
un bloque de memoria las mismas compuertas, las celdas deberan
terminar adoptando un rol similar y resultar incluso redundantes.
Recientemente se han propuesto otras alternativas distintas al filtro
de Kalman extendido (FKE) para realizar el filtrado de sistemas no
lineales (Julier y Uhhnann 1997; Merwe et al. 2000) que parecen mejo-
rar los resultados del FKE. Puede considerarse su aplicacin a alsunas
de las tareas consideradas en esta tesis.
6.
7.
B.
9.
10.
i 1.
Modelos predictivos basados en redes neuronales recurrentes de tiempo discreto. Juan Antonio Prez Ortiz
Tesis doctorales de la Universidad de Alicante. Tesi doctoral de la Universitat d'Alacant. 2002
Volver al ndice/Tornar a l'ndex
Modelos predictivos basados en redes neuronales recurrentes de tiempo discreto. Juan Antonio Prez Ortiz
Tesis doctorales de la Universidad de Alicante. Tesi doctoral de la Universitat d'Alacant. 2002
A. MODELOS DE MARKOV PARA EL ETIQUETADO
CATEGORIAL
En este apndice se muestra Ia forma de ajustar los parametros de un
modelo oculto de Markov de forma que se pueda realizar la desambi-
guacin categorial cle las palabras de una oracin. Los modelos ocultos
de Markov se usan en los experimentos del captulo 8.
Un modelo oculto de Markov (MOM) (Rabiner 1989) es un sistema
dinmico de tiempo discreto capaz de emitir una secuencia de salidas ob-
servables. Un IVIOM se define colno un modelo de estados de la forma
. \ : (S, V, A, B, r), donde S es el conj unt o de est ados, V es el conj unt o de
salidas observables, A son las probabilidades de transicin entre estados,
B son ias probabilidades de que cada estado emita los posibles elementos
observables y r define las probabilidades de que el sistema cc-mience desde
cada uno de los estados de ,S. El sistema emite una salida cada vez que llega
a un estado tras realizar una transicin.
Las aplicaciones de los NIOM son mltiples. Si logramos descubrir el
MOM ms verosmil para una determinada secuencia de observaciones, ten-
dremos un modelo del proceso subyacente; de esto se encargan algoritrnos
como el de Baum y Welch, que discutiremos a continuacin. Por otro la-
do, es posible obtener la probabilidad bajo un ViOM determinado de una
secuencia de observaciones y, 1o que muchas veces es an ms importante,
encontrar la secuencia de estados que produce el camino de mxima verosi-
militud para una secuencia de observaciones dada. La secuencia de estados
puede interpretarse corno una explicacin de Ia observacin si cada estado
tiene un significado diferenciado; para encontrarla existen algoritmos como
el de Vi terbi .
En este apndice se presenta en detalle,l para paliar Ia ausencia de des-
cripciones adecuadas en Ia bibliografa, una adaptacin del algoritmo de
lLos
contenidos de este apndice estn basados en una comunicacin personal de los
Drs. Rafael C. Carrasco v Nlikel L. Forcada.
1 4 1
Modelos predictivos basados en redes neuronales recurrentes de tiempo discreto. Juan Antonio Prez Ortiz
Tesis doctorales de la Universidad de Alicante. Tesi doctoral de la Universitat d'Alacant. 2002
A. MODELOS DE MARKOV PARA EL ETIOUETADO CATEGORIAL
Baum y Welch que facilita la desambiguacin categorial y se cla una bre-
ve
justificacin
matemtica de la misma siguiendo la notacin de Rabiner
( 1e8e).
4.1. Aplicacin al etiquetado categorial
4. 1. 1. Si mpl i f i caci ones
Sea el model o ocul to de Markov I
: (S, V, A, B,n.) con estados S
:
{"r,
"2, . .
.
,
sN}, sal i cl as V
:
{rt , 1)2t . . . , ' uNI },
probabi l i dades de t ransi ci n
A
:
{a}
(i , i
: 1. . .
, / ),
probabi l i dades de erni si n 3
:
{b(' u)}
(: :
1, . . . , N, k
:
1, . . . AI ) y pr obabi l i dacl es i ni ci al es n
:
{ n }
( i , :
1, . . . , / ) .
Cuando este tipo de modelos se usan para etiquetar un texto poclernos slr-
poner que cada palabra ha sido substituicla (usando un cliccionario o lxico)
por Ia clase cle arnbigedad o conjunto cle eticluetas que aclmite esa pala-
bra. En esle caso, cada estado del NON,I se corlesponde con una eticlneta
lxica, y el conjr-rnto de salidas est formado pol todas las posibles clases
de ambi gedad (l os el ementos de I/ son subconj untos de,9). P<-i r el l o, usa-
ielnos indistintamente las nociones de pulabra y clase de ambgedad para
referirnos a las salidas del modelo oculto.
Adems, poclemos hacer las siguientes suposiciones:
Que
la secuencia de texto O1 . . . 07 que qlteremos analiza,r sienrpre vie-
ne precedida cle urra palabra no ambigua Oo
:
{I}.
Parece razonable
que -I sea Ia eti queta que representa el fi nal de oraci n.2
Que
el texto acaba en una palabra no ambigua Or
:
{tr}.
Aqu es
si cabe ms razonable tomar F como el punto final de ias oraciones,
dado que normalmente tanto los textos de entrenaniento como los de
prueba contienen frases completas.
Que
toda clase de ambigedad contiene, al menos, la etiqueta correcta.
Por ejemplo, desde el estado asociado a XVB no se puecle generar una
cl ase
{XJ-l ,
X//}. Consi gui entemente, una cl ase no ambi gua
{X}
sol o puede ser generacl a por el estado correspondi ente X.
4.1.2. Probabi l i dades haci a adel ante
El hecho de aadir Ia clase no ambigua Oo
:
{I}
evita que zi- sB simple-
mente 1 para l a categora de Ia pri mera pal abra del corpus de entrenami ento
' Adems,
as el etiquetado de las palabras de una oracin determinada no depende de
si la oracin se encuentra al principio del texto o en cuaiquier otra parte del nrismo.
2.
. t .
Modelos predictivos basados en redes neuronales recurrentes de tiempo discreto. Juan Antonio Prez Ortiz
Tesis doctorales de la Universidad de Alicante. Tesi doctoral de la Universitat d'Alacant. 2002
A.1. APLICACION AL ETIQUETADO CATEGORIAL
y cero para las dems. Esto no parece adecuado: primero, porque otro texto
tambin correcto podra empezar por otra categora; y segundo, porque no
tendra mucho sentido realizar un entrenamiento, ya que se puede fijar el
valor de zr directamente.
Teni endo en cuenta que n-r: 1,"u
V
A({1})
:
d1,"0, donde es Ia del ta
de Kronecker definida en (4.3), podemos rescribir las ecuaciones (19) y (20)
de Rabiner (1989) empezando en :
0 como sigue:
a(z)
:
, ", (A. 1)
y , par a t : L, . . . , T,
/
\-\ /
a( i ) :
" \ " ' - t ( i )
" ob( Ot )
( A. 2)
De esta manera podemos prescindir de las probabilidades iniciales. Esta
forma es, aderns, ms semejante a la de las probabilidades hacia atrs del
apartado siguiente.
4.1.3. Probabi l i dades haci a atrs
De forma anloga, las variables hacia atrs, correspondientes a las ecua-
ci ones
Q V
(25) de Rabi ner (1989), son:
?r ( i )
: 1
( A. 3)
y? par a t : I , . . .
, 7,
N
/ . \ S-
/r-t(i )
:
>_a
b(O)
B(j )
(A.4)
j =I
4. 1. 4. Ot ras probabi l i dades
La probabi l i dad cl e una secuenci a O
-
Oy.. . 07 se puede cal cul ar a
a partir de las probabiliclades hacia adelante y hacia atrs de la siguiente
forma:
N
P(ol ))
:t
a(i )B(i .) (A.5)
' i =I
donde puede el egi rse l i brement e en
{0, 1, . . . , 7}.
En part i cul ar,
P(ol A)
: po(I) :
ar(F) (4..6)
Modelos predictivos basados en redes neuronales recurrentes de tiempo discreto. Juan Antonio Prez Ortiz
Tesis doctorales de la Universidad de Alicante. Tesi doctoral de la Universitat d'Alacant. 2002
A. MODELOS DE MARKOV PARA EL ETIOUETADO CATEGORIAL
La segunda igualdad es consecuencia de la hiptesis 2 y de que podamos
escri bi r di rect ament e ay(i ): 0 si i + F si empre que 07
:
{F}.
Ei nmero esperado cle veces que se pasa por ei estado i al generar la
secuencia O se clefine como:
4 1
r ' :
I ?( t )
( A. 7)
: 0
donde (Rabi ner 1989, ec. 27):
^ /^\ -
"' (i )!-O
/^ R\
1t\z
:7oi i t
\r.oi
Por tanto,
.
T- l
n . _
t
\ -
/ . \ , 1 / - \
r ,
-
p( ol ) 1 z- at l i ) t 3t l i )
( A 9)
\ | /
f - a l
Para un texto completo (que empieza y acaba por final cle frase. esto
es r: F) se curnpl e que a(; )po(z)
:
ar1. )7r(i . ): P(ol A) por 1o qr: e,
trivialmente, poclernos desplazar Ia suma temporal como sigue:
T_. T T
Y, "' (n)B' (i )
: t
c(i )BQ) (A. 10)
: 0 t : l
Este resultado (que nos resultar ti1 ms aclelante) puede entenderse de
forma intuitiva: el estado final de frase se visita una vez al principio dei texto
y otra al final; como solo tenemos que contar una, da igual cul contemos.
Esto hace que podamos cambiar algunas de las sumas temporales de 1 a ?
que aparecen en Rabi ner (1989) por sumas de 0 a T
-
I.
A continuacin definimos, por un lado, el nmero esperado de veces que
el modelo pasa clel estado i al estado
j,
T- 1
Eo,
:
I
r(i ,,
j )
(A.11)
: 0
donde (Rabi ner 1989, ec. 37):
F, ( i i \ - at ( i ) a b ( Ot +t ) At +t ( i ) i A 1e\
\ \ , ' J l
-
P ( Ol ^ )
\ 1 \ . r 4 l
As,
4 1
1 :--
?. . -
^
\ ' ^ , ( z) a, b ( Or +t ) l 3r +j )
( A. 13) - Lr
P( ol ^)
, : t - o* '
Modelos predictivos basados en redes neuronales recurrentes de tiempo discreto. Juan Antonio Prez Ortiz
Tesis doctorales de la Universidad de Alicante. Tesi doctoral de la Universitat d'Alacant. 2002
A.1. APLICACION AL ETIQIJETADO CATEGORIAL
Por otro l ado,
por ei estado
j
definimos el nmero esperado de veces que
mientras se observa el smbolo uk como:
el modelo pasa
donde:
Es deci r,
Para Ia depuracin
T 1
- \ -
Q; r : ) t o l l . k l
f - n
pi , k) :
ot(j )0t(j )5"
, ot
P( ol ^)
f . -
\ - ,
-
\ - c
, -
/ _ . y i l r : _ - i j
k: l j - _r
wz 1
-
-
L i
T 1
; : =- j - \ - * r ( r ) Br ( j ) 6ur , o, ( A. 16) -
r f r
P( Ol ^\
/ _
-
\ r / + _ n
del progretma puede ser iil tener en cuenta que:
(4. 14)
( 4. 15)
(A. . 17)
(4. 18)
El cl cul o de f,
Vt y n requi ere real i zar dos pasadas sobre el texto:
una hacia adelante y otra hacia atrs. En la primera se calculan todos los
at(i ) y l a verosi mi l i tud del texto P(Ol .\) y en l a segunda se cal cul an l , Ej
y bp i ncremental mente, por l o que basta con ai macenar
B1(j )
en cada
iteracin.
A.1.5. Nuevos parmetros
Con las suposiciones anteriores, obtenernos las siguientes frmulas de
Baum y Welch para la actualizacin de los parrnetros:
J
, 5. '
( k) :
#
( A 1e)
donde se ha hecho uso de Ia adicin de la clase de ambigedad inicial para
clue los denominadores sean iguales, en contraste con las ecuaciones ( 0b) y
(40c) de Rabiner (1989), en las que estos denominadores son diferentes.
Modelos predictivos basados en redes neuronales recurrentes de tiempo discreto. Juan Antonio Prez Ortiz
Tesis doctorales de la Universidad de Alicante. Tesi doctoral de la Universitat d'Alacant. 2002
A. MODELOS DE MARKOV PARA EL ETIQUETADO CATEGORIAL
A. l -. 6. Segment aci n
Cada vez que en el texto que se est etiquetando aparece lrna palabra no
ambigua, el modelo de Markov oculto solo puede estar en el estado corres-
pondi ente a su eti queta (hi ptesi s 3). Esto permi te reorgani zar el cl cul o
de manera muy eficiente como ya se sugiere en el trabajo de Cutting et al.
(1992), ya que no es preci so mantener en memori a l odo el texto si no sol o
la porcin de texto entre dos categoras no arnbiguas (ambas irrclusive) y
tratarla como si fuese un texto completo.
Supongamos que el texto est segmentado en G segmentos o grllpos.
Caci a segrnento g empi eza en
:
i , y terrni na en
:
fs,
con
fs
:
i s+t y
Ts
:
f g
-
is, y tiene una palabrt-r, inicial que pertenece a la clase no ambigua
{1n},
r-rna pal erbra fi nal que pel tenece a l a cl ase no ambi guu
{Fn},
y cerc)
o ms palabras, toclas ambigues, situadas entre ellas. Esbos segtnentos son
normal mente bastante cortos.
Cada uno de l os val ores esperados ,' -, @n y f se pueden cal cul ar como
una suma para todos i os segurentos:
"xt1
C
-
\- r(s)
- /
* i j
9: 1
G
- t - * l n l
( D . r
: \
( D Y '
^
J N
/ J
' J k
^ - 1
( 4. 20)
( 4. 21)
(/^22)
y el c,lculo para cada segmento se puede realizar corno si se tratase de un
texto i ndependi ente, usando soi o i nformaci n Iocrl al mi srno.
Descri bi rernos con al gn ci etai l e el cl cul c Ae el f).3 Bs senci l l o courpro-
bar aue:
an( i )
:
P( Ot . . On) 6, t n ( 4. 23)
L;

.-
| (s)
L 1 ,
- -
/
r ;
y que:
P( Ot . . . Or )
:
P(Ot O,)0,@) ( 4. 24)
3El
clculo d" ji) y fln)
"s
completamente anlogo.
Modelos predictivos basados en redes neuronales recurrentes de tiempo discreto. Juan Antonio Prez Ortiz
Tesis doctorales de la Universidad de Alicante. Tesi doctoral de la Universitat d'Alacant. 2002
A.1. APLICACION AL ETIQIJETADO CATEGORIAL
ecuacin completamente anloga a la A.13 excepto por el detalle de que P0
no es P(O
o
.. .On), porque en general Is
/
Ft, si no:
Si def i ni mos, par a i , i
: 7.
. . y' ,
se sigue que:
ol-n,Q):ffi
of-n,U):
#];
T" - l
El )
:
: t a2i .\a;b(o4+,+)0l aU) -xJ
Pg
l :
--r
r- t
PG)
:;##:osrn(Fs)
a::)
:
*E
o' g"(i)
P1
(i) 6,,",,.g
+".
(A. 25)
(A.26)
(4. 27)
t A r q)
(A. 30)
( A. 31)
(4. 34)
(A. 28)
Las nuevas probabilidades hacia adelante ae y Ias variables hacia atrrs
Be
de cada grupo se definen recursivarnente de manera similar a las del texto
completo:
,'s,(i,)
:
it
-*-,,,
o,o]
rnpo,*"
Lj:r I
aeoQ)
:
6'n
Pn
(i)
:
L
"n
gn
*r(j)b
(oo,+,+)
, i : 1
B' r " ( q: 7
vj e
[ 1, N]
( A. 32)
Las ecuaci ones (A.9) y (A.16) se convi erten ani ogamente en:
' r
_1
--lo)
1
i.-
f ) " : * ) as" ( i . ) Bs" ( i . )
( 4. 33)
- r v u
Lo dicho al final del epgrafe A.1.4 sobre la implementacin del clculo
de l, v y Qnse puede adaptar fcilmente para el clculo ae lje), =11'
t
ol?
Modelos predictivos basados en redes neuronales recurrentes de tiempo discreto. Juan Antonio Prez Ortiz
Tesis doctorales de la Universidad de Alicante. Tesi doctoral de la Universitat d'Alacant. 2002
A. MODELOS DE MARKOV PAHA EL ETIQUETADO CATEGORIAL
A.1,.7. Ini ci al i zaci n
El algoritmo de Baum y Welch se puede inicializar, en
conocimiento, con los siguierrtes valores:
ausencia cle todo
(4. 35)
( r
b, ( k\ : l
N
sr sj ?' ' &
J \ )
| .
0 s i no
( A' 36)
donde N es el nrnero de clases de ambigiiedad en las que puede manifes-
tarse Ia eti queta s, es deci r, card{' u : s u}.
Esta inicializacn es la utilizada en los experimentos dei captr.rlo B.
1
w L 1
-

- l v
Modelos predictivos basados en redes neuronales recurrentes de tiempo discreto. Juan Antonio Prez Ortiz
Tesis doctorales de la Universidad de Alicante. Tesi doctoral de la Universitat d'Alacant. 2002
Volver al ndice/Tornar a l'ndex
a
dltl
U; ;
b^
U
trl+1
" L" J
^l
1
gC
gL
gM
9r
9X
9v
q 7
t < t +t
) ;
nc
NNI
nM
nu
nx
Norcp DE sMBoLos TMpoHTANTES
Tasa de aprendizaje
Salida deseada de la RNR en el instante t .
Funcn delta de Kronecker
Seal de error retropropagada de BPTT
Seal de error de BPTT
Error cle Ia RNR
Momento
Activacin de la compuerta cle salida del z-simo blo-
que de memori a de l a red LSTM
Funcin de activacin de las compuertas de la red
4L
o
J
40
40
o
4I
28
LSTM
28
Funcin logstica
i1
Funcin de activacin a la salicla de una celda de la
red LSTM
28
Funcin tangente hiperblica 12
Funcin de siguiente estado de una RNR . 15
Funcin de salida de una RNR . 1b
Funcin de activacin a Ia entrada de una celda de la
red LSTM
28
Matriz de ganancia del FK 49
Activacin de la compuerta de olvido del i-simo blo-
que de memoria de la red LSTM 30
Nrmero de cel das de memori a de Ia red LSTM .... 26
Nmero de bl oques de memori a de l a red LSTM ... 26
Nmero de mdulos de la RNRC 30
Nmero de entradas de la RNR 15
Nmero de neuronas de estado de la RNR 15
149
Modelos predictivos basados en redes neuronales recurrentes de tiempo discreto. Juan Antonio Prez Ortiz
Tesis doctorales de la Universidad de Alicante. Tesi doctoral de la Universitat d'Alacant. 2002
INDICE DE SIMBOLOS IMPORTANTES
nY
p t + l
,
t"l
Q
qI
a
altl
Rltl
ult)
rnltl
*ltl
+
sl tl
- l
z ^
Nrnero de neuronas de salida de la RNR
Matriz de covarianza del error a posteriori clel FK
Activacin de la, compuerta de entrada del -simo
bloque de mernoria de la recl LSTM
Estado inicial de una FSEF
Coni unto de estados cl e una FSEF
Matriz de covarianza del error de la ecuacin del
pro-
ceso dei FK . .
Matriz de covirianza d.el erlor de medicin ctel FK .
Entrada de la RNR en el instante . .
Estado del sistema en el FI(
Estaclo de la RNR en el instante
Estado i nterno dei CEC de l a z-si rna cel da del z-
simo bloque ile memoria cle la red LSTN'I
Sal i cl a de l a RNR en el i nstante
15
49
27
84
B4
48
4B
15
4B
15
28
Clula de retardo 20
,
Modelos predictivos basados en redes neuronales recurrentes de tiempo discreto. Juan Antonio Prez Ortiz
Tesis doctorales de la Universidad de Alicante. Tesi doctoral de la Universitat d'Alacant. 2002
Volver al ndice/Tornar a l'ndex
BPTT
CEC
DG
FIR
FK
F'KE
FKED
FKEG
FSEF'
GP
IIR
LMS
LSTM
VIOM
NARX
RC
RLS
RNR
RNRC
RPR
RRS
RTR
RTRL
TDNN
INDICE DE ABREVIATURAS
Retropropagacin a travs del tiempo 44
Car r usel de er r or const ant e . . . . . . . . . . . 25
Algoritrno de descenso por el gradiente 126
Respuesta finita al impulso 24
Filtro de Kalman lineal . 48
Filtro de Kalman extendido 50
Fi l tro de Kal man extendi do desacopl ado ....
Filtro de Kalman extendido global
Fuente secuencial de estados finitos
Gananci a de predi cci n . . .
Respuesta infinita al impulso
Mrimos cuadraclos
Memoria a corto y largo plazo .
Modelo oculto cle Markov
Red NARX
Raz6n de compresin -.
Mnimos cuadrados recursivo
Red neuronal recurrente de tiempo discreto
Red neuronal recurrente en cascada
84
1. \ ' 7
I L I
, A
727
o <
I4T
,/1
BB
t 27
1 / l
30
Red parcialmente recurrente 19
Red recurrente simpie 20
Red totalmente recurrente . 2L
Aprendizaje recurrente en tiempo real . 42
Red neuronal de retardos temoorales .. 24
151
Modelos predictivos basados en redes neuronales recurrentes de tiempo discreto. Juan Antonio Prez Ortiz
Tesis doctorales de la Universidad de Alicante. Tesi doctoral de la Universitat d'Alacant. 2002
Volver al ndice/Tornar a l'ndex
Modelos predictivos basados en redes neuronales recurrentes de tiempo discreto. Juan Antonio Prez Ortiz
Tesis doctorales de la Universidad de Alicante. Tesi doctoral de la Universitat d'Alacant. 2002
BIBLIOGRAFIA
ALeuzn, R. y A. SnN' pt l u (1994).
"Inference and recogni ti on of regul ar
grammars by training recurrent neural networks to learn the next-symbol
predi cti on task", en F. Casacuberta y A. Sanfel i u, coordi nadores, Aduan-
ces'n patter-n recogn'it'ion and apli,cations, World Scientific.
Al quzen, R. y A. Serurpl l u (1995). "An al gebrai c framework to represent
finite state automata in single-layer recurreut neural networks"
,
Neural
C omputati ,on, 7 (5), 931-949.
AussEu, ALox, Fl oi vN MuRracu y Manc SnRnzrN (1995). "Dynami cal re-
current neural networks
-
towards environmental time series orediction".
Internat'ional J ournal N eural Sy stems, 6, 145-170.
Bal tnRsrp, J.y J. A. CHetuteERS (1998). "Non-l i near adapti ve predi cti on
of speech signals using a pipelined recurrent network", IEEE Transact'ions
on Si.gnal Process'ing, 46(B).
BRaNwpLt,, T. P., K..vper y C. H. RtcHnRnsoN (1996). Speech codi .ng:
a computer laboratory tertbook, Georgia Tech digital signal processing la-
boratory series, John Wiley & Sons.
BELL, T. C. , J. G. Cl oARy y I . H. Wl : rrEN (1990). Tert compressi on,
Prenti ce-Hal l .
BENGI o, Y. , P. St t t . Rt y P. FnascoNt (1994).
"Learni ng l ong-t erm depen-
dencies with gradient descent is difficult"
,
IEEE Transactzons on Neural
N etw orks, 5(2), 1.57-166.
BpNvpNut o, N. , G. Bnnroccr y W. R. DauunR (1987). "The 32-kb/ s
ADPCM codi ng standard"
,
ATUT Techni ,cal Jour"nal ,2,270-280.
Bt aNcHI NI , M. , M. Gont y M. MeccrNr (1994). "On
t he probl em of l o-
cal minima in recurrent neural networks", IEEE Transact'ions on Neural
N etworlcs, 5(2), t67
-777
.
BtRcttptsR, M. (1996).
"Nonl i near
predi cti on of speech si gnal s usi ng radi al
basis function networks", en Proceed'ings of the European Signal Process'ing
Conference.
153
Modelos predictivos basados en redes neuronales recurrentes de tiempo discreto. Juan Antonio Prez Ortiz
Tesis doctorales de la Universidad de Alicante. Tesi doctoral de la Universitat d'Alacant. 2002
BIBLIOGRAFIA
BLaIR, A. y J. B. Pol l ecx (1997). "Anal ysi s of dynami cal recogni zers",
N eural Computati on, 9(5), 1727-1142.
Booi .t, N{. y J. Wtl ss (2000). "Context-free and context-sensi ti ve dyna-
mi cs i n recurrent neural networks"
,
Connect' i on Sc' i ence, 12(3).
BonN, M. y J. \ , Vt t s (2002). "On l earni ng cont ext f ree ancl cont ext
sensi ti ve l anguages"
,
IEEE Transo,ct' i ons on Neural Networks,l 3(2). 491-
493.
BRILL, E. (1992).
"A si mpl e rul e-basecl part-of-speech tagger"
,
en Procee-
dings Thi,rd Conference on Appli,ed Natural La,nguage Processing.
BULSRRI, A. B. y H. S.,rxN (1995). "A recurrent netrvork for model i ng
noisy temporal sequen ces", N elt rocom.put'ing, 7 (I), 29-40.
BuRRows, M.
f '
D. J. WI TBBLnR (1094). "A bl ock-sort i ng l ossl ess dat a
compression aigorithrn",
'informe
tcni,co 121, Digital Systems Research
Center.
Cr.RR.sco, R. C., M. L. FoRceD. y L. SnNr.tvtrR. (1996).
"Inferri ng
stoclrastic regular grammars wifh recurrent neural networks"
,
en Gt'an.-
matical
'inference:
learning syntar
from
sentence-s, voI. II47 cle Lecture
Notes irt Arti,f,ci,al Intelli,gence, pgs. 274-28I, Springer-Verlag. Berln.
CeRR. l sco, R. C. , M. L. FoRceDa, N, I . A. Vel os-Nl uoz y R. P.
Npco (2000).
"Stabl e-encodi ng of fi ni te-state machi nes i n di screte-ti me
recurrent neurai nets with signioid units"
,
Neura,l Com,putati,on, L2(9)-
2129-2174.
Ce. st Ro, M. A. , E. Vt ou- y t r' . Cesa, cuBERTA (1995).
"Fi ni t e st at e au-
tomata and connectionist machines: a slrrvey", en -ly'eu.r trends in neurul.
computation, vol. 930 de Lecture Notes in Computer Sc'ience, pgs. 433-
440, Springer-Ver1ag.
CeuwnNenRGHS) G. (1993).
"A fast-stochasti c error-descent al gori thrn fbr
supervi sed l earni ng and opti mi za,l i on", en S. J. Hanson, J. D. Cowan y
C. L. Giles, coordinadores, Aduances
'ir
Neural Inforrnation Processing
System.s, vol. 5, pgs. 244-251, N{organ Kaufnann.
enaNsxi , M. y L. Beu5xov (2001).
"Fi ni t e-st at e Reber a, ut ornat on
and the recurrent neural networks trained in supervised and unsupervised
manner", en G. Dorffner, H. Bi schof y K. Horni k, coordi nadores, P' rocee-
dings of the I'nternational Conference on Arti.fici,al Neural Netutorks, vol
2130 de Lecture Notes i n Computer Sc,i ence, pgs. 737-742, Spri nger-
Verl ag. Ber}n.
Modelos predictivos basados en redes neuronales recurrentes de tiempo discreto. Juan Antonio Prez Ortiz
Tesis doctorales de la Universidad de Alicante. Tesi doctoral de la Universitat d'Alacant. 2002
BIBLIOGRAFiA
CHRLup, S. y A. Bl aIn (1999). "Hi l l cl i mbi ng i n recurrent neural networks
for Iearning the anbncn language"
,
en Proceedi,ngs of the 6th Conference
on Neural Informati,on Process'ing, pgs. 508-513.
CHRN, L. W. y C. C. Szeto (1999). "Trai ni ng recurrent network wi th
block-diagonal approximated Levenberg-Marquardt algorithm", en Pro-
ceedings of the Internat'ional Joi,nt Conference on Neural Networks.
CHRNG, W. F. y M. W. Me,x (1999). "A conj ugate gradi ent l earni ng
aigorithm for recurrent neural networks"
,
Neurocomytut'ing,24, 173-189.
CHRRNIax, E. (1993). Stati ,sti co,l l anguage l earn' ng, MIT Press, Cambri dge.
Cro-Suprno, J. , A. Anrps-RoDRrcuEz y A. R. FrcuprRas-Vroel (1994).
"Recurrent radial basis function networks for optimal symbol-by-symbol
equal i zati on"
,
Si gnal Proc.,40, 53-63.
Cr, enRpneNs, A. , D. Spnvew-ScnRprsnR y J. L. McCI eLLAND (1989).
"Finite state automata and simple recurrent netlvorks"
,
Neural Compu-
tati on, l (3), 372-381.
CoveR, T. M. y J. A. Tnovl as (1991). El ements of i .nfortnat' i on theory,
John Wiley and Sons, Nueva York.
CurrrNc, D. , J. Kupl nc, J. Ppt ensuN y P. Sl eui \ (1992).
"A
pract i cal
part-of-speech tagger"
,
en Proceedings of Third Conference on Appli.ed
N atural Languag e Process'i,ng, pgs. 133-140.
DRvIEs, R. B. (1994). "Wri ti ng a matri x package i n Caa", en Second
Annual Obj ect- Oriented Numercs C onf erence, pgs. 207
-273.
ELMIN, J. L. (1990). "Fi ndi ng structure i n ti me", Cogni .ti ue Sci ,ence, L4,
r79-2I1.
ELMRN, J. L. (1991). "Di stri buted representati ons, si mpl e recurrent net-
works, and grammatical structure", Machi,ne Learn'ng, 7, 195-225.
Fpl ox.ttp, L. A. y G. V. PusxoRl us (1994). "Trai ni ng controi l ers for
robustness: multi-stream DEKF"
,
en IEEE Internat'ional Conference on
Neural Networks, pgs. 2377-2382.
FINE, S., Y. SINcpR y N. TtsHey (1998).
"The hi erarchi cal hi dden Markov
model: analysis and applications", Mach'ine Learn'ing, 32(1), 47-62.
FoRcRDe, M. L. (2001).
"Corpus-based stochasti c fi ni te-state predi cti ve
text entry for reduced keyboards: application to Catalan", en Procesa-
m'iento del Lenguaje Natural, vol. 27, pgs. 65-70.
Modelos predictivos basados en redes neuronales recurrentes de tiempo discreto. Juan Antonio Prez Ortiz
Tesis doctorales de la Universidad de Alicante. Tesi doctoral de la Universitat d'Alacant. 2002
BIBLIOGRAFIA
FoRcADR, M. L. y R. C. C.q.RRasco (1995).
"Learni ng the i ni ti al state of a
second order recurrent neural network during regrilar-language inference",
Neural Computati,on, 7, 923-930.
FoRCADe, N{. L. y R. C. CaaRnsco (2001). "Fi ni te-state computati on
in analog neural networks: steps towarcls biologically plausible
tnodels?",
en S. Wermter, J. Austin y D. Willshaw, coorclinadores, Emergent Neu,ral
Conzputati,onal Archi,tectures based on Neuroscet'ce, vol.2036 cle Lectu,re
Notes tn Computer Sc'ience, pgs. 4E2-486, Springer-Verlag.
FoRcADR, N4. L. y M. Goni (2001). "Neural net s, recurrent ", en J. G.
w-ebster, coordinador, wi,ley En,cyclopedza of Electri,cal and Electrorti,cs
Engineering, .Ioh.n Wiley & Sons.
FORCADA, N' l trcel L., coorcl i nador (2002). Neural n,etuorks: auto,nttrta and
fo' rm,aL
rnodel ,s of cornputati on, i ncl i to, cl i sponi bl e en http: / /wvtw.dl _si .
ua. es/ -ml f / n: naf mc/ .
GeRS, F. A. , D. Ecr y J Scuui oHLrBER (2001).
, , Appl yi ng
LSTM t o t i me
series predictable through time-winclow approaches',, eL Proceedi,ngs of
the Internat'ionaL Conferent:e on Artif,c,al Neu,ral Netutorks.
Gpns, F. A. , J. A. Pnaz-Owrrz, D. Ecx y J. ScuvrrDHUBEF (2002a).
.DEKF.-LSTM",
en M. Verl eysen, coordi nacl or, Pr.oceedi ngs of the Eu-
ropean Symytos'iunt on Artif,cial Ne,ural Networks, p,gs. 36g-326. D-side
Publ i cati ons.
GERS, F. A. , J. A. . PnEz- OKr r z, D. Ecx y J. Scnvi r DHUBER. ( 2002b) .
"Learttitrg context sensitive ianguages with LSTM trained wittr l(alman
filters"
,
en Proceedi,ngs of the Internn,ti,onal conference on ArtiJicial Neu-
ral Netutorks, LecLure Notes in cornprrter Science, springer-verlag, Berln,
acepIado.
GERS, P. A. y J. ScHTTaTDHUBER (2001).
"LSTN,{ recurrent networks l earn
simple context free and context sensitive languages"
,
IEEE Transact,ions
on Neural Netuorks, 12(6), 1333-1340.
GeRs, F. A. , J. ScHurHLTBER y F. currri r, l rr. rs (1ggg). "Learni ng ro f or-
get: continual preciiction with LSTlvf"
,
en Proceedi,ngs of ti-e Internati<tnal
Co'nference on Arti.f,c.ial Neural Netutorks, pgs. 850-855.
GERS, F. A. , J. Scsvi osuBER y F. Cuvrrvnl s (2000).
, , Learni ng
t o f orget :
conti nual predi cti on wi th LSTM,,, Neural Computati ,on, 12(10), 2451"-
2471.
GI LES, C. L. , C. B. Mr LLeR, D. CueN, H. H. CHEN, G. Z. Sui . r y
y.
C.
Lne (1992).
"Learni ng and extracti ng fi ni te state auLomata wi th second-
order recurrent neural netl orks"
,
Neural Computati on, 4(J),393-40b.
Modelos predictivos basados en redes neuronales recurrentes de tiempo discreto. Juan Antonio Prez Ortiz
Tesis doctorales de la Universidad de Alicante. Tesi doctoral de la Universitat d'Alacant. 2002
BIBLIOGRAFIA
GouoRpeu, M. W. , C. L. Gt l es, S. T. CsaxRaoseny D. Cset v ( 1994) .
"First-order
vs. second order single layer recurrent neural networks",
IEEE Transactions on Neura| Networks, S(3), 511-513.
Hal l es, M. y G. DoRnnNeR (1998). "A comparati ve study on feedforward
and recurrent neural networks in time series prediction using gradient
descent learning", en R. Tlappl, coordinador, Cyber-net'ics and Systems
98, Proceedi.ngs of llth European NIeet'ing on Cybernet'ics and Systems
Res earch, pgs. 644-647 .
HevKIN, S. (1999). Neural networks: a cornprelzensi,ue
foundatzan,
Prentice-
Hal l , New Jersey, 2." ed.
H.l ,yKIN, S., coordi nador (2001). Kal man
fi ' l teri ng
and neural networks,Wi -
1ey.
HRyKIN, S. y L. Lt (1995). "Non-l i near adapti ve predi cti on of non-
stationary signals"
,
IEEE Transacti'ons on Si'gnal Process'ing, 43(2),526-
c c .
HRt z, J. , A. KnocH y R. G. Pel vnR (1991). I nt rodt t ct i ' on t o t he t heor
of neural computat'ion, Addisou-Wesley.
HILBoRN, R. C. (2000). Chaos and, nonl ' i near dynam' i cs: an' i ntroducti on
for
sci.enti.sts and eng'ineers, Oxford University Press.
HocsRor: rpR, S. , Y. BpNcl o, P. FRescoNI y J. ScHI vt I oHUBER (2001).
"Gradient flow in recurrent nets: the diffi,culty of learning long-term de-
pendenci es", en S. C. Kremer y J.F.Kol eu, coordi nadores, A
fi el d
gui ,de
to dynami,cal recurrent neural networks, IEEE Press.
HocHRpt rnR, S. y J. Scgi vt t oHUBER (1997). "Long
short -t erm memory",
N eural C ornputati ,on, 9(B), 1735-1780.
HopcRonr, J. E. y J. D. Ul l ,l ueN (1979). Introducti .on to automata theory,
langtr.ag es and computat'ion, Addison-Wesley.
HoRNe, B. G. y D. R. Husu (1996). "Bounds on the compl exi ty of re-
current neural network irnplernentations of finite state machines", Neural
netw orks, I (2), 243-252.
Jul tnR, S. J. y J. K. Uul vtRl .N (1997). "A new extensi on of the Kal -
man filter to nonlinear systems", en Proceedi,ngs of AeroSense, the llth
International Symposi,um on Aerospace/Defence Sens'ing, Si'mulation and
Controls.
Kel Ml N, R. E. (1960).
"A new approach to l i near fi l teri ng and predi cti on
problems"
,
Transact'ion of the ASME
-
Journal of Basi'c Engineering,
pgs. 35-45.
Modelos predictivos basados en redes neuronales recurrentes de tiempo discreto. Juan Antonio Prez Ortiz
Tesis doctorales de la Universidad de Alicante. Tesi doctoral de la Universitat d'Alacant. 2002
BIBLIOGRAFIA
KpcsRtorl s, G., E. ZpRv,ts y E. S. \faNol nxos (1994).
"Usi ng recurrent
neural networks for adaptive communication channel eclualizatiort"
,
IEEE
Trans. on Neuro,l Networks, 5(2),267*278.
Kl enNn, S. C. (1956). "Representati on of events i n nerve nets and fi ni te
automata", en C. E. Shannon y J. McCarthy, coordi nadores, Automata
stud'ies, Princeton University Press.
KoLEN, J. F. y S. C. KRnt' l nR, coordi nadores (2001). A
fi el d
gui .de to
dynamical recurrent netuorlcs, IEEE Press.
KRnMER, S. C. (1997).
"Paral l el stochasti c gramrnar i nducti on", en Pro-
ceed'ings Internat'ional Conference on NeuraL Networks, pgs. 612-616.
LoNc, P. M. , A. i . N, . rrsEV y J. S. Vt ' rrER (1999). "Text compressi on
vi a al phabet re-represerrtati on"
,
Neural Networks,
' L2,755-765.
NIe,
Q.
y H. Is.,runnn (1997).
"Part-of-speech taggi ng of Thai corpus r,vi th
the logically cornbined neural networks"
,
en Proceedi,ngs of tte Natural
Language Processing Pacifi,c Rim Sympos'i'um, pgs. 537-540.
Me,
Q. ,
M. Mun. q: rA, NI . Url y. o. rura, K. Ucst vroro y H. I s. u. Rr (1999).
"Part of speech tagging with mixed approaches of neural networks and
transformation lules"
,
en Vorkshop on Natural Lan,guage Process'ing ancl
Neural Netruo'rks, Beijing, China.
Me.HoNEY, M. V. (2000). "Fast text cornpressi on wi th neurai rretwol ' ks",
en 1Sth. Internat'ional FLAIRS Conference, Orlando, Florida.
VInruNtNc, C. D. y H. ScuTZE (1999). Foundatzo' ns of stati st' i cal natu,ral
Ianguage process'ing, NIIT Press.
N4, rRcus, M. P. , B. SNroruNr y M. A. \ 4encrNKI EWI CZ (1993). "Bui l -
ding a large annotated corpus of English: the Penn Treebank"
,
Cornpu-
tati ,onal Li .ngui sti .cs, 19, 313-330.
N{enquns, N. C. y G. P. Lopps (1996).
"Usi ng neural net s f or Port uguese
part-of-speech tagging"
, en Proceedings of the Fi.fth Internati,onal Confe-
rence on The Cogni,tiue Sc'ience of Natural Language Processing, Dublin
City University, Ireland.
M.RIN., M. A., M. MoeN y M. Rnves (1995). Ini ,ci ,aci ,n aI caos: s' i s-
temas dznmi cos, Sntesi s, Madri d.
VIcCl usNpY, P. G. (1993).
"Feedforward and recurrent neural networks
and geneti c programs for stock market and ti me sei es frc.esi i ncr' '
rn-
forme
tcnico CS-93-36, Brown University.
Modelos predictivos basados en redes neuronales recurrentes de tiempo discreto. Juan Antonio Prez Ortiz
Tesis doctorales de la Universidad de Alicante. Tesi doctoral de la Universitat d'Alacant. 2002
BIBLIOGRAFiA
I
f
iVlcCult,ocH, W. S. y !V. H. Plt' rs (1943). "A logical calculus of the ideas
immanent in nervous activity", Bulletin of Mathematical Biophyszcs, pgs.
115-133.
MERwn, R., A. DoucET, N. s Fntts y E. WeN (2000).
"The unscented
particle filter", en Aduances
'in
Neural Informati.on Processi,ng Systems,
vol. 13, MIT Press.
NIINsxv, M. L. y S. A. Pepent (1969). Perceptrons, MIT Press, Cambrid-
0p
MozER,' M. C. (1994). "Neural network musi c composi ti on by preci i cti on:
exploring the benefits of psychoacoustic constraints and multiscale pro-
cessi ng"
,
Connect' i on Sc' i ence, 6,247-280.
NenpuoRa, K. S. y K. PenTHAsARATHy (1990). "Identi fi cati on and con-
trol of dynamical systems using neural networks"
,
IEEE Transactions on
Neural Networks, 1, 4-27.
NnLsoN, M. (1991). "Ari thmeti c codi ng * stati sti cal model i ng: data com-
pressi on", Dr. Dobb' s Journal .
NeLsoN, M. y J.-L. Gel l l v (1995). The data compress,i on book, MkT
Books. New York. 2.4 ed.
OMLIN, C. W. y C. L. Gtl es (1996).
"Constructi ng detenni ni sti c fi ni te-
state automata i n recurrent neural networks", Jotrnal of the ACM,43(6),
937-972.
OppsNuetN,f
,
A. V. y R. W. ScserpR (1989). Di ,screte-ti ,me si gnal pr-oces-
sing, Prentice-Hall.
Onuz FuENTES, J. D. y M. L. FoRcaon (1997).
"A compari son bet ween
recurrent neural architectures for digital equalization", en Intem,atitonal
Conference on Acoustics, Speech and Si,gnal Process'ing, vol. 4, pgs. 3281-
3284.
Pn.RLtuurrER) B. A. (1995).
"Gradi ent cal cul ati ons for dynami c recurrent
neural networks: a survey", IEEE Transact'ions on Neural Netuorks, 6(5),
7212-1228.
Pnpz-ORTrz, J. A. , J. Cel pn. -Ruero y M. L. FoRcno, (2001a).
"A
comparison between recurrent neural architectures for real-time nonli-
near predi cti on of speech si gnal s", en D. J. Mi l l er, T. Adal i , J. Larsen,
M. Van Hulle y S. Douglas, coordinadores, Neural Networks
for
Si.gnal
Processing XI, Proceedi,ngs of the 2001 IEEE Neural Networks
for
Si.gnal
Process'ing Worksh,op, pgs. 73-81, IEEE Signal Processing Society.
Modelos predictivos basados en redes neuronales recurrentes de tiempo discreto. Juan Antonio Prez Ortiz
Tesis doctorales de la Universidad de Alicante. Tesi doctoral de la Universitat d'Alacant. 2002
BIBLIOGRAFIA
Pnpz-Onuz, J. A. , J. C. l one-Ruero y N{. L. FoRcnot (2001b).
"Online symbolic-sequence prediction with discrete-time recurrent neural
networks", en G. Dorffner, H. Bischof y K. Hornik, coordinadores, Pro-
ceed'ings of the Internat'ional Conference on Arti,fici,al Neural Networks,
vol. 2130 de Lecture Notes i,n Computer Sc'ie'nce, pgs. 719-724, Springer-
Verlag, Berln.
Pnez-Onrrz, J. A. , J. Cel ne-Ruero y i vl . L. FoRct oe (2001c).
"On-
line text prediction with recurrent neural networks"
,
Neural Process'ing
Let t ers, t 4(2), 127-140.
PaBz-Onrrz, J. A. y M. L. Fonc.na (2001). "Part-of-speech taggi ng
witlr recurrent neural networks"
,
en Proceedings of the Inte'rnational Joi,nt
Conference o'n Neu'ral Networks, pgs. 15BB 1592.
Papz-Onrrz, J. A. , F. A. GnRs, D. Ecrc y J. ScHvl rDruBER (2002a).
"Kalman filters improve LSTM network perfolmance in hard problerns",
N e'ural N etw orks, aceptado con modifi caciones.
Pnpz- Onr r z, J. A. , J. Scr l ur nHueoR, F. A. Gnns y D. EcN ( 2002b) .
"Improving long-term online predicLion with decoupled extended Kalnran
filters"
,
et Proceed'hrgs of the Internationat Conference on. Artf,cial Neu-
ral Nehuorks, Lecture Notes in Computer Science, Springer-Verlag, Berln,
aceptado.
Pl . r"ur, D. C. , S. J. NowLAN y G. E. HrNroN (1986).
"Experi ment s on
learning back prop:tgation"
,
i,nfornt,e tcnico CI\IU-CS-96-126, Depart-
ment of Computer Science, Carnegie-lVIellon University.
PREss, W. H. , B. P. Fr, eNNERy, S. A. TnuxoLSKy y W. T. Vprrnnt , rc
(1988). Numerical rec'ipes in C, Cambridge University Press, Cambridge.
PRnss, ! V. H. , S. A. TsuNoLSKy, W. T. VnrreRl rNc y B. P. Fl eNnRy
(1992). Numerical rec'ipes zn C: the art of sci.e,nti.fic computing, Cambridge
Uni versi ty Press,- 2.4 ed.
PRoexIs, J. y D. MeNol ,qrrs (1996). Di ,gi ,tal si ,gnal process' ng, Prenti ce
Hal l , 3. " ed.
PRoeKts, J. G.y D. G. l VIeNor,er<rs (1998). Tratam,i ento di ,gi ta,l de seal es:
princ'ip'io s, alg oritmo s
E
aplzcaciones. Prentice-Hall.
PusxoRt us, G. V. y L. A Fpl oxnl ap (1991).
"Decoupl ed ext ended Kal -
man filter training of feedforward layered networks"
,
en Intern atioral
Joint Conference on Neural Networks, vol. 1, pgs.777-777.
PusxoRI us, G. v. y L. A. Fpl nxenp (1994). "Neurocont rol of nonl i near
dynamicai systems with Kalman filter trained recurrent networks" , IEEE
Transact'ions on N eural N etworks, 5(2), 279-297 .
Modelos predictivos basados en redes neuronales recurrentes de tiempo discreto. Juan Antonio Prez Ortiz
Tesis doctorales de la Universidad de Alicante. Tesi doctoral de la Universitat d'Alacant. 2002
a
t
BIBLIOGRAFIA
RaBINER, L. R. (1989). "A tutori al on hi dden Nl arkov model s and sel ected
appl i cati ons i n speech recogni ti on", Proceed' ngs of the IEEE,77(2),257-
286.
Rtr.,, J. y Lt,. HucuBt (1991). Comun'icaci,n d,i.gi,tal, Massott, Barcelona.
RoetxsoN, A. J. y F. Fur,sl ou (1991). "A recurrent error propagati on
speeclr recognition system"
,
Computer Speech and Language, 5,259-274.
RooRl cuoz, P.y J. WIl ps (1998). "Recurtent neural networks can l earn
to irnplement symbol-sensitive counting"
,
en Aduances
'in
Neural Infor-
mat'ion Process'ing Systems, 10, pgs. 87-93, The MIT Press.
RooRtcuBZ, P., J. Wtl Bs y J. Et l teN (1999).
"A
tecurrent neural network
that l earns to count"
,
Connect' i on Sci ' ence,11(1), 5-40.
Rutrpl ueRr, DavID E., GeonrREY E. Hl Nrou y RoNel o J. Wtr,ueus
(1986). "Learning representations by back-propagating errors", Nature,
323, 533-536.
SaKaKIBeRR, Y. (i 997). "Recent advances of grarnmati cal i nference",
Theoreti ,cal C omputer S c' i ence, 1-85, 15-45.
ScHMID, H. (1994).
"Part-of-speech
taggi ng wi th neural networks"
,
en Pro-
ceed'ings of the Internat'ional Conference on Computational Li,nguistics,
pgs. 172-776.
ScHMl oHueER, J. (1992). "A fi xed si ze storage O("t) ti rne compl exi ty l ear-
ning algorithm for fully recurrent continually running networks", Neural
C omputati,on, 4(2), 243*248.
ScuutogueER, J. y S. HocuREtrER (1996).
"Guessi ng can outperform
many long time lag algorithms",
'informe
tcn'ico IDSIA-19-96, Istituto
Dal l e Mol l e di Studi sul l ' Intel l i genza Arti fi ci al e.
ScHtrtoHueER, J. y H. StnrAN (1996).
"Sequenti al neural text compres-
sion", IEEE Transact'ions on Neural Networks, T(1), 142-146.
Sn.l owsxl , T. J. y C. R. RosnIepRG (1987). "Paral l el networks that
l earn to pronounce engl i sh text", Compl er Systems,l , 145-168.
SHoPHeRD, A. J. (1997). Second-ord,er methods
for
neural networks, Spri n-
oor T, nndr es
Stecpl uaxN, H. T. y E. D SoNrec (1991).
"Turi ng
computabi l i ty wi th
neural nets", Appl i .ed Mathemati cs Letters, 4,77-80.
SMITH, A. W. y D. Ztl seR (1989).
"Learni ng sequenti al structures wi th the
real-time recurrent learning algorithm", Internat'ional Journal of Neural
Systems, L(2), 125-137.
Modelos predictivos basados en redes neuronales recurrentes de tiempo discreto. Juan Antonio Prez Ortiz
Tesis doctorales de la Universidad de Alicante. Tesi doctoral de la Universitat d'Alacant. 2002
BIBLIOGRAFiA
SuN, G. 2. , C. LBp GI l ps, H. H. CnsN y Y. C. Lnn ( 1993) .
" The neur al
network pushdown automaton: model , stack and l earni ng si mul ati ons",
i.nforrne tcnico CS-TR-S118, University of Maryland, College Park.
TIo, P. y M. Krnl ns (1999).
"Extracti ng fi ni te state representati ons
from recurrent neural networks trained on chaotic symbolic sequences",
IEEE Transact'ions on Neural Networks,l0(2), 284-302.
Tro, P., M. Sr.Nx y L. Buu5xov (2000). "Bui l di ng precl i cri ve
models on cornplex symbolic sequences via a first-order recu.rrent BCM
network with lateral inhibition", en Internattonal S'gmposi,urn, on Compu-
t ati. o n al Int elli, g en ce.
ToNKES, B. y J. WI l ps (1997). "Learni ng a cont ext -f ree t ask wi t h a re-
current neural netrvork: an analysis of stability", en Proceedings of th,e
Fourth Bi,ennial Co'nfere'nce of tlze Australasza'n Cognit'iue Sc'ience Society.
TowNsHnND, B. (1991). "Nonl i near predi cti on of speech", en P.roceedi ,ngs
Internat'ional Conference Acoustics, Speech and Si,gnal Process'ing, pgs.
425-428.
UNNt xRl sHNeN, K. P. y K. P. Vawucoenr, (1994).
"Al opex: a correl at i on-
based learning algorithrn for feeclforwarcl and recun'ent neural networks",
Neural Comp,utati,on, 6, 469-490.
M/ EI ccND, A. S. y N. A. GpesnnNrELD, coordi nadores (1994). T, i me seri es
predi.cti,on:
forecastzng
tlte
futzure
and understa,rt,ding the
,past,
Procee-
dings of the NATO Advanced Research Workshop on Comparative Times,
Addison-Wesley.
WELcH, G y G. BIsuop (2002). "An i ntroducti on to the Kr,l man fi l ter",
i.nforn-r,e tcn'ico TR 95-041, University of North Carolina at Chapel Hill,
Department of Computer Sci ence
WERBOS, P. J. (1974). Beyond regressi ,on: new tool s
for
predi cti on and
analys'is in the behauioral sc,iences, tesis doctoral, Harvard University.
WI LES, J. y J. Et veN (1995).
"Learni ng t o couri t wi t hout a count er: a,
case study of dynamics and activation landscapes in recurrent networks",
en Proceedings of the Seuenteenth Annual Confe'rence of the Cognrti,ue
Sci ence Soc' i ety, pgs. 482-487, MIT Press, Cambri dge.
WILLIants, R. J. y J. PeNrc (1990). "An effi ci ent gradi ent-based al gori thm
for on-line training of recurrent network trajectories", Neural Computa-
t i , on, 2( 4) , 490- 501.
l vtl l ra.Ms, R. J. y D. Zrpspn (1g8g). "A l earni ng al gori thm for conti nual l y
trai ni ng recurrent neural networks"
,
Neural Computatzo,n, I,270-280.
Modelos predictivos basados en redes neuronales recurrentes de tiempo discreto. Juan Antonio Prez Ortiz
Tesis doctorales de la Universidad de Alicante. Tesi doctoral de la Universitat d'Alacant. 2002
BIBLIOGBAFIA
t o
Zw, J. y A. Lounel
compression", IEEE
349.
(1977).
"A universal algorithm for sequential data
Transact'ions on Infonnation Theory, 23(3), 337-
a
e
t
Modelos predictivos basados en redes neuronales recurrentes de tiempo discreto. Juan Antonio Prez Ortiz
Tesis doctorales de la Universidad de Alicante. Tesi doctoral de la Universitat d'Alacant. 2002
Volver al ndice/Tornar a l'ndex