Está en la página 1de 39

Universidad Nacional de Ingeniería - UNI

Facultad de ingeniería eléctrica y electrónica


Sección de postgrado

TOPICOS EN SISTEMAS EXPERTOS e


INTELIGENCIA ARTIFICIAL (EE 81)

REDES NEURONALES
ARTIFICIALES
MSc. Ing. Zócimo Ñaupari H.
Octubre 2019
Redes Neuronales Artificiales

II. Modelos y aprendizaje


1. Tipos de Redes Neuronales Artificiales.
2. Aprendizaje de las RNA.
3. Aprendizaje supervisado.
4. Aprendizaje no supervisado.
1. Tipos de RNA
Según el tipo de aprendizaje:
a) Aprendizaje supervisado:
- Aprendizaje por corrección de error.
- Aprendizaje por refuerzo.
- Aprendizaje estocástico.
b) Aprendizaje no supervisado:
- Aprendizaje hebbiano.
- Aprendizaje competitivo y cooperativo.
28/10/19 znauparih@yahoo.es 3
1. Tipos de RNA
Según la arquitectura:
a) Redes en capas:
- Perceptron de una capa.
- Perceptron multicapa (MLP).
b) Redes neuronales recurrentes.
c) Redes reticuladas.

28/10/19 znauparih@yahoo.es 4
Perceptron de una capa

Capa de
pesos

Vector de
 (.) Vector
entrada de salida
x y
 (.)
w

Unidades Neuronas de
de entrada x salida y

28/10/19 znauparih@yahoo.es 5
Perceptron multicapa
1ª capa 2ª capa
de pesos  (.) de pesos

Vector de
 (.)  (.)
Vector de
entrada
Salida y
x
 (.)  (.)

w1  (.) w2

Unidades Neuronas Neuronas de


de entrada x escondidos z Salida y

28/10/19 znauparih@yahoo.es 6
Redes recurrentes o realimentadas

• Usan un retardo (delay) temporal z-1 a fin de


evitar saturación, es decir; tienen conexiones de
realimentación como se muestra.
• Hopfield establece que, estas redes pueden ser
estables cuando las unidades no tienen
realimentación de ellas mismas.
• Tiene importantes aplicaciones en campos tales
como, la inferencia de lenguajes o la
compresión de señales.

28/10/19 znauparih@yahoo.es 7
RNA recurrente

z-1 z-1 z-1

salida

Neuronas
escondidas

28/10/19 znauparih@yahoo.es 8
Redes reticuladas

 Arreglo muy utilizado en redes auto-


organizadas de aprendizaje tipo competitivo.
 Se actualiza solo la neurona que ganó la
competencia.
 El cerebro humano posee funciones como
estas redes neuronales.

28/10/19 znauparih@yahoo.es 9
RNA reticulada (bidimensional)

28/10/19 znauparih@yahoo.es 10
Arquitectura a ser adoptada -
recomendaciones

Generalmente son usadas neuronas no


lineales para aplicaciones prácticas, excepto
en las capas de salida donde pueden ser
lineales.
Deben usarse como mínimo dos capas de
pesos sinápticos porque posibilitan
aplicaciones prácticas.

28/10/19 znauparih@yahoo.es 11
2. Aprendizaje de las RNA
• El aprendizaje es el proceso por el cual
una red neuronal modifica sus pesos en
respuesta a una información de entrada.
• Los cambios que se producen durante el
proceso de aprendizaje se reducen a las
destrucción, modificación y creación de
conexiones entre las neuronas.

28/10/19 znauparih@yahoo.es 12
2. Aprendizaje de las RNA
Interconexión de los pesos sinápticos

j k
wkj

En el entrenamiento los pesos se adaptan


de la siguiente forma:

t  t 
wkj  t 1 
wkj  wkj
28/10/19 znauparih@yahoo.es 13
2. Aprendizaje de las RNA
• Durante el proceso de aprendizaje, los pesos de
las conexiones de la red sufren modificaciones,
por tanto se puede afirmar que este proceso ha
terminado (la red ha aprendido) cuando los
valores de los pesos permanecen estables, es
decir:

 t
wkj 0

28/10/19 znauparih@yahoo.es 14
2. Aprendizaje de las RNA
(ENTRENAMIENTO)
• La principal e importante característica de las RNA
es su capacidad para aprender de su ambiente, y
mejorar su desempeño a través del aprendizaje
• Una RNA aprende acerca de su ambiente a través
de un proceso interactivo de ajustes de sus pesos
sinápticos y niveles de sesgo (bias)
• El aprendizaje puede ser supervisado (set de
entrenamiento) o no supervisado (no hay un set de
entrenamiento pero se sabe a donde se quiere
llegar).

28/10/19 znauparih@yahoo.es 15
2. Aprendizaje de las RNA
Secuencia de Eventos que ocurren durante el
aprendizaje:

1. Estimulación de la RNA por un ambiente


2. La RNA sufre cambios en sus parámetros
libres como resultado de dicha estimulación
3. La RNA responde de manera diferente al
ambiente debido a los cambios que
ocurrieron en su estructura interna

28/10/19 znauparih@yahoo.es 16
3. Aprendizaje supervisado
• El aprendizaje supervisado se caracteriza
porque el proceso de aprendizaje se
realiza mediante un entrenamiento
controlado por un agente externo
(supervisor, maestro) que determina la
respuesta que debería generar la red a
partir de una entrada determinada. Existen
3 formas de este tipo de aprendizaje.

28/10/19 znauparih@yahoo.es 17
3. Aprendizaje supervisado
3.1 Aprendizaje por corrección de error

Consiste en ajustar los pesos de las


conexiones de la red en función de la
diferencia entre los valores deseados y los
obtenidos en la salida de la red; es decir,
en función del error cometido en la salida

28/10/19 znauparih@yahoo.es 18
3.1 Aprendizaje por corrección de error

. y(t)
. . . .
u(t) x(t) .
. .
.

t denota tiempo discreto


Al comparar la señal de salida con una respuesta
deseada o salida objetivo, d(t), se produce una
señal de error, e(t)
e(t)=d(t) - y(t)
28/10/19 znauparih@yahoo.es 19
3.1 Aprendizaje por corrección de error

La señal de error activa un mecanismo de


control, cuyo propósito es aplicar una
secuencia de ajustes correctivos a los
pesos sinápticos de la neurona de salida
Los ajustes correctivos están diseñados para
hacer que la señal de salida y(t) se acerque
a la respuesta deseada después de cada
paso

28/10/19 znauparih@yahoo.es 20
3.1 Aprendizaje por corrección de error

ykd
Processo
-
xk e = yk - ykd

+
yk
RNA

Entrenamiento supervisado

28/10/19 znauparih@yahoo.es 21
3.1 Aprendizaje por corrección de error
Objetivo:
Minimizar una función costo o índice de
desempeño J(t), el cual es definida en términos
de la señal de error a la salida de la RNA:
1 2
J (t )  e  t 
2
1 2 1 2 2
J (t )  (d  t   y(t ))  (d (t )  2d (t ) y(t )  y(t ) )
2 2
Minimizando el error tenemos:
J (t ) 1 y (t ) y (t )
 ( 2d (t )  2 y (t ) )
w 2 w w
28/10/19 znauparih@yahoo.es 22
Minimizacion del error…..
p
 wkj x j
y (t ) k 1
Como:  x j
wkj wkj

J (t ) 1
entonces  ( 2d (t ) x(t )  2 y (t ) x(t ))
w 2
yendo en dirección contraria al gradiente tenemos:
J (t )
- (d (t )  y (t )) x(t )
w
28/10/19 znauparih@yahoo.es 23
3.1 Aprendizaje por corrección de error
Cuando se tiene varias salidas, se usa el criterio del
error cuadrático medio (mean square error) :

1 2 
J E   ek (t )
2 k 
•Siendo E=statistical expectation operator, k se refiere a
todas las neuronas de la capa de salida.
•Aproximación: se puede usar el valor instantáneo de la
suma de los errores al cuadrado.
1
   ek2 (t )
2 k
28/10/19 znauparih@yahoo.es 24
3.1 Aprendizaje por corrección de error:
Regla Delta / Regla de Widrow-Hoff (1960)
Sea wkj(t) el valor del peso sináptico wkj de la
neurona k excitada por el elemento xj(t) del
vector señal x(t) en el paso de tiempo t. El
ajuste wkj(t) aplicado al peso sináptico wkj en
el tiempo t se define por:
wkj (t ) ek (t ) x j (t )
 es una constante positiva que determina la tasa
de aprendizaje en cada paso
: parámetro tasa de aprendizaje
28/10/19 znauparih@yahoo.es 25
Regla Delta / Regla de Widrow-Hoff (1960)
El ajuste de un peso sináptico de una neurona
es proporcional al producto de la señal de error
y a la señal de entrada de la sinapsis en
cuestión, como se indica:

wkj (t )  ek (t ) x j (t )
• La señal de error es medible directamente,
entonces se requiere conocer la respuesta
deseada desde una fuente externa
• regla de corrección de error local (alrededor
de la neurona k)

28/10/19 znauparih@yahoo.es 26
Actualización del peso sináptico wkj

wkj (t  1) wkj (t )  wkj (t )

(t) controla el ajuste aplicado al vector


peso en la iteración t
regla de adaptación de incremento fijo:
si (t)=>0, donde  es constante
independiente del número de iteración

28/10/19 znauparih@yahoo.es 27
3.2 Aprendizaje por refuerzo
Es mas lento que el anterior y en el cual
no se indica durante el entrenamiento
exactamente la salida que se desea. La
función del supervisor se reduce a indicar
mediante una señal de refuerzo si la
salida obtenida se ajusta a la deseada
(éxito =+1 ó fracaso = 0) y en función de
ello se ajustan los pesos.

28/10/19 znauparih@yahoo.es 28
3.2 Aprendizaje por refuerzo

1 si u1  
f  v1   
x1 0 si u1   
2

2 f(v1)
x2 u1
1

x3
 = threshold

28/10/19 znauparih@yahoo.es 29
3.3 Aprendizaje estocástico
Consiste básicamente en realizar cambios
aleatorios en los valores de los pesos de
las conexiones de la red y evaluar su
efecto a partir del objetivo deseado y de
las distribuciones de probabilidad. Se
utiliza la función de energía de Lyapunov.

28/10/19 znauparih@yahoo.es 30
3.3 Aprendizaje estocástico
Ejm: Aprendizaje de Boltzmann
Una máquina de Boltzmann es un tipo de red
neuronal recurrente estocástica. Las máquinas de
Boltzmann, al igual que las redes de Hopfield,
poseen unidades con una "energía" definida para
la red. El incremento de energía global que resulta
de una sola unidad i siendo 0 (off) frente a 1 (on),
expresada como ΔEi viene dada por la expresión:

28/10/19 znauparih@yahoo.es 31
3.3 Aprendizaje estocástico
Ejm: Aprendizaje de Boltzmann
• La máquina de Boltzmann se caracteriza por usar
una función de energía E cuyo valor es
determinado por los estados particulares
ocupados por las neuronas individuales de la
máquina:
1
E   w ji s j si
2 i j
• si = estado de la neurona i (si = 0 ó 1)
• Ninguna neurona es autorealimentada, i  j

28/10/19 znauparih@yahoo.es 32
4. Aprendizaje no supervisado
• También conocidas como redes auto-
supervisados (no tienen supervisor que
indique a la red la respuesta que debe
generar ante una entrada concreta). No
requieren influencia externa para ajustar
los pesos de las conexiones entre sus
neuronas. Son de dos tipos:

28/10/19 znauparih@yahoo.es 33
4. Aprendizaje no supervisado
4.1 Aprendizaje hebbiano:
Este aprendizaje propuesto por Donald
Hebb en 1949, consiste básicamente en el
ajuste (fortalecimiento) de los pesos de las
conexiones de acuerdo con la correlación
de los valores de activación (salidas) de
las neuronas conectadas. Caso contrario
la red será debilitada.
34
28/10/19 znauparih@yahoo.es
4.1 Aprendizaje hebbiano
• Modelos matemáticos de modificaciones
Hebbianas:
wkj (t ) F  yk (t ), x j (t ) 
• Los términos de actividad xj(t) e yk(t) son tratados
generalmente como variables adimensionales.
Caso especial:
Regla del producto
wkj (t )  . yk (t ) . x j (t ) de actividades post
e pre-sinápticas

• Esa regla origina crecimiento exponencial


(saturación).
28/10/19 znauparih@yahoo.es 35
4. Aprendizaje no supervisado
4.2 Aprendizaje competitivo y cooperativo
En este caso de aprendizaje las neuronas
compiten (y cooperan) unas con otras con el
fin de llevar a cabo una tarea dada.
Entonces a la salida se activará solo una
neurona vencedora y el resto quedan
anuladas (sus valores de respuesta son
forzadas al mínimo)

28/10/19 znauparih@yahoo.es 36
4.2 Aprendizaje competitivo y cooperativo:

• Neurona: winner takes all.


wi
ji 1 ,  j

• Regla de aprendizaje competitivo stándar:

  xi  w ji  
  si la neurona j gana la competencia
w ji  

 0  si la neurona j pierde la competencia

28/10/19 znauparih@yahoo.es 37
4.2 Aprendizaje competitivo y cooperativo
•1973 – Van der Malsburg:
–Auto-organización de células nerviosas sensibles
para orientación en el cortex de striate.

•1975 – Fukushima:
–Cognitron. Self-organizing multilayer neural
network.

•1989 – Durbin:
–Formación de mapas topográficos en el cerebro, del
tipo aprendizaje competitivo.

28/10/19 znauparih@yahoo.es 38
GRACIAS

28/10/19 znauparih@yahoo.es 39

También podría gustarte