Documentos de Académico
Documentos de Profesional
Documentos de Cultura
Verónica E. Arriola-Rios
Redes Neuronales
11 de noviembre de 2019
Negante
Temas
1 Intro
Sistemas dinámicos
3 Predicción de secuecias
Secuencia dependiente del contexto
Dependencia completa
Temas
1 Intro
Sistemas dinámicos
3 Predicción de secuecias
Secuencia dependiente del contexto
Dependencia completa
Si τ = 3:
Figura: Red recurrente sin salidas. ~x son las entradas, ~h los estados.
Izquierda Diagrama del circuito, el cuadro negro marca un retraso de un
tiempo. Derecha Grafo desplegado.
Temas
1 Intro
Sistemas dinámicos
3 Predicción de secuecias
Secuencia dependiente del contexto
Dependencia completa
Universalidad
Función de error
X
L {~x(1) , ..., ~x(τ) }, {~y(1) , ..., ~y(τ) } = L(t) (12)
t
X
=− log pmodelo y(t) |{~x(1) , ..., ~x(τ) }
t | {z }
ˆ (t) [y]
~
y
Función de error
X
L {~x(1) , ..., ~x(t) }, {~y(1) , ..., ~y(t) } = L(t) (13)
t
X
=− log pmodelo ~y(t) |{~x(1) , ..., ~x(t) , ~y(1) , ..., ~y(t−1) } (14)
t
Temas
1 Intro
Sistemas dinámicos
3 Predicción de secuecias
Secuencia dependiente del contexto
Dependencia completa
Y
τ
P(Y) = P(y(1) , ..., y(τ) ) = P(y(t) |y(t−1) , y(t−2) , ..., y(1) ) (15)
t=1
con
a)
b)
Figura: a) Modelo probabilista (con ~h marginalizadas), parametrizar (5)
sería ineficiente. b) Implementación usando el estado oculto de la RNN.
Fin de la secuencia
Temas
1 Intro
Sistemas dinámicos
3 Predicción de secuecias
Secuencia dependiente del contexto
Dependencia completa
Temas
1 Intro
Sistemas dinámicos
3 Predicción de secuecias
Secuencia dependiente del contexto
Dependencia completa
RNN Condicional
Figura: En P(~y(1) , ..., ~y(τ) |~x(1) , ..., ~x(τ) ), las ~y(i) ya no son independientes
entre sí, pero ambas secuencias ~x y ~y deben ser de la misma longitud.
RNN Bidireccional
RNR Codificadora-Decodificadora
RNR Profundas
Temas
1 Intro
Sistemas dinámicos
3 Predicción de secuecias
Secuencia dependiente del contexto
Dependencia completa
Temas
1 Intro
Sistemas dinámicos
3 Predicción de secuecias
Secuencia dependiente del contexto
Dependencia completa
RNR Profundas
Exploción y desvanecimiento
Recortando el gradiente
Temas
1 Intro
Sistemas dinámicos
3 Predicción de secuecias
Secuencia dependiente del contexto
Dependencia completa
Cómputo de yacimientos
Temas
1 Intro
Sistemas dinámicos
3 Predicción de secuecias
Secuencia dependiente del contexto
Dependencia completa
Multiescalas temporales
Es útil para:
Reconocimiento de escritura.
Reconocimiento del habla.
Generación de escritura.
Traducción.
Rotulado de imágenes.
Análisis sintáctico.
LSTM
Valores de activación
(t)
X (t)
X g (t−1)
gi = σ bg
i + Ug
i,j xj + Wi,j hj entrada (22)
j j
(t)
X (t)
X (t−1)
fi = σ bfi + Ufi,j xj + f
Wi,j hj olvido (23)
j j
(t)
X (t)
X (t−1)
qt = σ bo
i + Uo
i,j xj + o
Wi,j hj (24)
j j
(25)
Referencias I