Documentos de Académico
Documentos de Profesional
Documentos de Cultura
OpenCourseWare
Redes de Neuronas Artificiales
Ins M. Galvn - Jos M Valls
Tema 2
Primeros Modelos Computacionales
Perceptron simple
Adaptacin supervisada
w1
x2
w2
..
xn
y=
wn
1, si w1x1+...+wnxn+ > 0
- 1, si w1x1+...+wnxn+ 0
w1 x1 + w 2 x 2 + .... + w n x n + = 0
w1 x1 + w2 x2 + > 0
w1x1 + w2 x2 + 0
x1
w1
y
w2
x2
w1 x1 + w2 x2 + = 0
x2
w
x 2 = 1 x1
w2
w2
Pendiente de la recta
x1
Punto de corte con el
eje de ordenadas
: ( x1 , x2 ,...xn )
w1x1 + w2 x2 + ....+ wn xn + = 0
Encontrar
Conjunto de patrones
Hiperplano discriminante
x1 w1 + x2 w2 + ... + xn wn +=0
separe las clases A y B
(t+1) = (t) - 1
x1
x2
AND
-1
1
-1
1
-1
-1
1
1
-1
-1
-1
1
(-1,1)
(-1,-1)
(1,1)
(1,-1)
0.5
10
Y=f(-1.5)=-1
Bien clasificado
X=(1,-1), d(x)=-1
Y=f(0.5)=1
Mal clasificado
Nuevos
parmetros
X=(-1,1), d(x)=-1
Nuevos
parmetros
X=(1,1), d(x)=1
w1(1) = 1 1 = 0
w2(1) = 1 (-1) = 2
(1) = 0.5 - 1 = -0.5
Y=f(1.5)=1
w1(1) = 0 (-1) = 1
w2(1) = 2 - 1 = 1
(1) = -0.5 - 1 = -1.5
Y=1
Y=f(-2.5)=-1
Bien clasificado
Mal clasificado
Y=f(-1.5)=-1
Bien clasificado
Bien clasificado
11
(-1,1)
El hiperplano se mueve de
una iteracin a otra para
clasificar correctamente los
patrones
(1,1)
iteracin1
iteracin2
(1,-1)
(-1,-1)
inicial
12
13
Perceptron simple
Ley de aprendizaje con razn o tasa de aprendizaje
wi (t+1) = wi (t) + d(x) xi (t+1) = (t) + d(x)
donde es un nmero real 0 < < 1
Controla el cambio que sufren los pesos de una iteracin a otra
14
Elemento combinador adaptativo lineal, que recibe todas las entradas, las
suma ponderadamente, y produce una salida
x1
w1
x2
w2
..
xn
wn
15
ADALINE
El objetivo es obtener una red tal que yp dp para todos los patrones p
REDES DE NEURONAS ARTIFICIALES. INS M. GALVN, JOS M VALLS
16
ADALINE
Ser imposible conseguir una salida exacta porque y es una funcin lineal,
pero se minimizar el error cometido para todos los patrones de
entrenamiento
Hay que elegir una medida de dicho error, p.ej.el error cuadrtico
La regla de aprendizaje es la REGLA DELTA
y
x2
x1
17
(d p y p )
Error global
18
19
20
Ep =
1 p
(d y p ) 2
2
yp=w1x1++wjxj +wnxn+
1
2 (d p y p ) (1) = (d p y p )
2
y p
= xj
w j
p wj = (d p y p ) x j
21
p wj = (d p y p ) x j
Paso 5: Modicar el peso sumando al valor antiguo la cantidad obtenida en 4)
wj (t+1) = wj (t) + p wj
Paso 6: Repetir los pasos 2, 3 y 4 para todos los patrones
Paso 7: Repetir los pasos 2,3,4,5 y 6 tantos ciclos hasta cumplir el criterio de parada
22
23
24
Adaline. Ejemplo
Decodificador binario-decimal
Aproximar con Adaline la funcin que
realiza la decodificacin binario-decimal
Tasa de aprendizaje 0.3
Valores iniciales para los pesos:
w1=0.84
w2=0.39
x1
x2
x3
w3=0.78
25
x2
d(x)
-1
-1
1
1
-1
1
-1
1
1
-1
-1
1
-0.8
(-1,-1)
Perceptrn 1
-0.4
1
1
-2.5
1
(-1,1)
(1,1)
(1,-1)
Perceptrn 2
Perceptrn 3
-1
2
26
x1
x2
d(x)
-1
-1
1
1
-1
1
-1
1
1
-1
-1
1
Perceptrn 2
Perceptrn 3
Perceptron1
Perpertron2
Perceptron3
(-1 -1)
-1
(-1 1)
-1
(1 -1)
-1
-1
-1
(1 1)
-1
27
Salida Entrada a
deseada clasificar
28
Clasificacin Lineal
Dado un conjunto de ejemplos o patrones, determinar el hiperplano
capaz de discriminar los patrones en dos clases
Dado
Hiperplano separador
Resolucin con el Perceptron Simple
29
Regresin Lineal
Dado un conjunto de ejemplos o patrones, determinar una funcin lineal
que aproxime lo mejor posible a los valores deseados
Dado
30