Documentos de Académico
Documentos de Profesional
Documentos de Cultura
REDES NEURONALES
ARTIFICIALES
MSc. Ing. Zócimo Ñaupari H.
Octubre 2019
Redes Neuronales Artificiales
28/10/19 znauparih@yahoo.es 4
Perceptron de una capa
Capa de
pesos
Vector de
(.) Vector
entrada de salida
x y
(.)
w
Unidades Neuronas de
de entrada x salida y
28/10/19 znauparih@yahoo.es 5
Perceptron multicapa
1ª capa 2ª capa
de pesos (.) de pesos
Vector de
(.) (.)
Vector de
entrada
Salida y
x
(.) (.)
w1 (.) w2
28/10/19 znauparih@yahoo.es 6
Redes recurrentes o realimentadas
28/10/19 znauparih@yahoo.es 7
RNA recurrente
salida
Neuronas
escondidas
28/10/19 znauparih@yahoo.es 8
Redes reticuladas
28/10/19 znauparih@yahoo.es 9
RNA reticulada (bidimensional)
28/10/19 znauparih@yahoo.es 10
Arquitectura a ser adoptada -
recomendaciones
28/10/19 znauparih@yahoo.es 11
2. Aprendizaje de las RNA
• El aprendizaje es el proceso por el cual
una red neuronal modifica sus pesos en
respuesta a una información de entrada.
• Los cambios que se producen durante el
proceso de aprendizaje se reducen a las
destrucción, modificación y creación de
conexiones entre las neuronas.
28/10/19 znauparih@yahoo.es 12
2. Aprendizaje de las RNA
Interconexión de los pesos sinápticos
j k
wkj
t t
wkj t 1
wkj wkj
28/10/19 znauparih@yahoo.es 13
2. Aprendizaje de las RNA
• Durante el proceso de aprendizaje, los pesos de
las conexiones de la red sufren modificaciones,
por tanto se puede afirmar que este proceso ha
terminado (la red ha aprendido) cuando los
valores de los pesos permanecen estables, es
decir:
t
wkj 0
28/10/19 znauparih@yahoo.es 14
2. Aprendizaje de las RNA
(ENTRENAMIENTO)
• La principal e importante característica de las RNA
es su capacidad para aprender de su ambiente, y
mejorar su desempeño a través del aprendizaje
• Una RNA aprende acerca de su ambiente a través
de un proceso interactivo de ajustes de sus pesos
sinápticos y niveles de sesgo (bias)
• El aprendizaje puede ser supervisado (set de
entrenamiento) o no supervisado (no hay un set de
entrenamiento pero se sabe a donde se quiere
llegar).
28/10/19 znauparih@yahoo.es 15
2. Aprendizaje de las RNA
Secuencia de Eventos que ocurren durante el
aprendizaje:
28/10/19 znauparih@yahoo.es 16
3. Aprendizaje supervisado
• El aprendizaje supervisado se caracteriza
porque el proceso de aprendizaje se
realiza mediante un entrenamiento
controlado por un agente externo
(supervisor, maestro) que determina la
respuesta que debería generar la red a
partir de una entrada determinada. Existen
3 formas de este tipo de aprendizaje.
28/10/19 znauparih@yahoo.es 17
3. Aprendizaje supervisado
3.1 Aprendizaje por corrección de error
28/10/19 znauparih@yahoo.es 18
3.1 Aprendizaje por corrección de error
. y(t)
. . . .
u(t) x(t) .
. .
.
28/10/19 znauparih@yahoo.es 20
3.1 Aprendizaje por corrección de error
ykd
Processo
-
xk e = yk - ykd
+
yk
RNA
Entrenamiento supervisado
28/10/19 znauparih@yahoo.es 21
3.1 Aprendizaje por corrección de error
Objetivo:
Minimizar una función costo o índice de
desempeño J(t), el cual es definida en términos
de la señal de error a la salida de la RNA:
1 2
J (t ) e t
2
1 2 1 2 2
J (t ) (d t y(t )) (d (t ) 2d (t ) y(t ) y(t ) )
2 2
Minimizando el error tenemos:
J (t ) 1 y (t ) y (t )
( 2d (t ) 2 y (t ) )
w 2 w w
28/10/19 znauparih@yahoo.es 22
Minimizacion del error…..
p
wkj x j
y (t ) k 1
Como: x j
wkj wkj
J (t ) 1
entonces ( 2d (t ) x(t ) 2 y (t ) x(t ))
w 2
yendo en dirección contraria al gradiente tenemos:
J (t )
- (d (t ) y (t )) x(t )
w
28/10/19 znauparih@yahoo.es 23
3.1 Aprendizaje por corrección de error
Cuando se tiene varias salidas, se usa el criterio del
error cuadrático medio (mean square error) :
1 2
J E ek (t )
2 k
•Siendo E=statistical expectation operator, k se refiere a
todas las neuronas de la capa de salida.
•Aproximación: se puede usar el valor instantáneo de la
suma de los errores al cuadrado.
1
ek2 (t )
2 k
28/10/19 znauparih@yahoo.es 24
3.1 Aprendizaje por corrección de error:
Regla Delta / Regla de Widrow-Hoff (1960)
Sea wkj(t) el valor del peso sináptico wkj de la
neurona k excitada por el elemento xj(t) del
vector señal x(t) en el paso de tiempo t. El
ajuste wkj(t) aplicado al peso sináptico wkj en
el tiempo t se define por:
wkj (t ) ek (t ) x j (t )
es una constante positiva que determina la tasa
de aprendizaje en cada paso
: parámetro tasa de aprendizaje
28/10/19 znauparih@yahoo.es 25
Regla Delta / Regla de Widrow-Hoff (1960)
El ajuste de un peso sináptico de una neurona
es proporcional al producto de la señal de error
y a la señal de entrada de la sinapsis en
cuestión, como se indica:
wkj (t ) ek (t ) x j (t )
• La señal de error es medible directamente,
entonces se requiere conocer la respuesta
deseada desde una fuente externa
• regla de corrección de error local (alrededor
de la neurona k)
28/10/19 znauparih@yahoo.es 26
Actualización del peso sináptico wkj
28/10/19 znauparih@yahoo.es 27
3.2 Aprendizaje por refuerzo
Es mas lento que el anterior y en el cual
no se indica durante el entrenamiento
exactamente la salida que se desea. La
función del supervisor se reduce a indicar
mediante una señal de refuerzo si la
salida obtenida se ajusta a la deseada
(éxito =+1 ó fracaso = 0) y en función de
ello se ajustan los pesos.
28/10/19 znauparih@yahoo.es 28
3.2 Aprendizaje por refuerzo
1 si u1
f v1
x1 0 si u1
2
2 f(v1)
x2 u1
1
x3
= threshold
28/10/19 znauparih@yahoo.es 29
3.3 Aprendizaje estocástico
Consiste básicamente en realizar cambios
aleatorios en los valores de los pesos de
las conexiones de la red y evaluar su
efecto a partir del objetivo deseado y de
las distribuciones de probabilidad. Se
utiliza la función de energía de Lyapunov.
28/10/19 znauparih@yahoo.es 30
3.3 Aprendizaje estocástico
Ejm: Aprendizaje de Boltzmann
Una máquina de Boltzmann es un tipo de red
neuronal recurrente estocástica. Las máquinas de
Boltzmann, al igual que las redes de Hopfield,
poseen unidades con una "energía" definida para
la red. El incremento de energía global que resulta
de una sola unidad i siendo 0 (off) frente a 1 (on),
expresada como ΔEi viene dada por la expresión:
28/10/19 znauparih@yahoo.es 31
3.3 Aprendizaje estocástico
Ejm: Aprendizaje de Boltzmann
• La máquina de Boltzmann se caracteriza por usar
una función de energía E cuyo valor es
determinado por los estados particulares
ocupados por las neuronas individuales de la
máquina:
1
E w ji s j si
2 i j
• si = estado de la neurona i (si = 0 ó 1)
• Ninguna neurona es autorealimentada, i j
28/10/19 znauparih@yahoo.es 32
4. Aprendizaje no supervisado
• También conocidas como redes auto-
supervisados (no tienen supervisor que
indique a la red la respuesta que debe
generar ante una entrada concreta). No
requieren influencia externa para ajustar
los pesos de las conexiones entre sus
neuronas. Son de dos tipos:
28/10/19 znauparih@yahoo.es 33
4. Aprendizaje no supervisado
4.1 Aprendizaje hebbiano:
Este aprendizaje propuesto por Donald
Hebb en 1949, consiste básicamente en el
ajuste (fortalecimiento) de los pesos de las
conexiones de acuerdo con la correlación
de los valores de activación (salidas) de
las neuronas conectadas. Caso contrario
la red será debilitada.
34
28/10/19 znauparih@yahoo.es
4.1 Aprendizaje hebbiano
• Modelos matemáticos de modificaciones
Hebbianas:
wkj (t ) F yk (t ), x j (t )
• Los términos de actividad xj(t) e yk(t) son tratados
generalmente como variables adimensionales.
Caso especial:
Regla del producto
wkj (t ) . yk (t ) . x j (t ) de actividades post
e pre-sinápticas
28/10/19 znauparih@yahoo.es 36
4.2 Aprendizaje competitivo y cooperativo:
xi w ji
si la neurona j gana la competencia
w ji
0 si la neurona j pierde la competencia
28/10/19 znauparih@yahoo.es 37
4.2 Aprendizaje competitivo y cooperativo
•1973 – Van der Malsburg:
–Auto-organización de células nerviosas sensibles
para orientación en el cortex de striate.
•1975 – Fukushima:
–Cognitron. Self-organizing multilayer neural
network.
•1989 – Durbin:
–Formación de mapas topográficos en el cerebro, del
tipo aprendizaje competitivo.
28/10/19 znauparih@yahoo.es 38
GRACIAS
28/10/19 znauparih@yahoo.es 39