Documentos de Académico
Documentos de Profesional
Documentos de Cultura
Adeline y Perceptron
Adeline y Perceptron
ADALINE Y PERCEPTRON
1. Adaline
1.1. Características.
1.2. Regla de Aprendizaje (LMS). Regla Delta.
1.3. Aplicaciones.
1.3.1. Clasificación de vectores.
1.3.2. Tratamiento de Señales.
1.4. Madaline.
2. Perceptron
2.1. Características.
2.2. Regla de Aprendizaje.
2.3. Problema XOR.
2.4. Diferencias entre la convergencia entre el Adaline y el Perceptron.
ADALINE
(Freeman capt. 2)
Características
W11
1 f y1
x1
Wp1
W10
f = función lineal
W1n 1
p f yp
Wpn
xn
Wp0
t 2
R =< xxk k
> P =< d k x k > ξ =< E k
>
Sea: 2 t t
ξ =< d k > + w Rw − 2 P w
Para hallar el mínimo derivamos con respecto a W y se hace igual a 0:
∇ξ( w )
= 2 Rw − 2 P
∇w
*
2 Rw − 2 P = 0
w *
= R−1 P
Consecuencias:
• Posee un extremo.
• El extremo es mínimo
Ejercicio: Probar que el valor mínimo del error cuadrático medio se puede escribir de
la manera siguiente:
ξmínimo =< d 2k > − Pt w*
Demostración :
ξ =< d 2k > + wt Rw − 2 Pt w
ξmínimo ⇒ w* = R−1 P ⇒ w* R = P
*t P = ( t *)t =
w P w Pt w*
ξmínimo d k w Rw* − 2 Pt w*
2 t
=< > + *
implicando:
ξmínimo =< d 2k > − Pt w*
Manuel F. González Penedo
Tema 3: Adaline y Perceptrón Sistemas Conexionistas 7
Diferentes Métodos:
• Buscar por todo el espacio de pesos hasta encontrar los que hiciesen el error
mínimo.
Método:
ξ k
(t ) ≈< Ek >
2
⇒ ∇ξ
k
= ∇ < Ek >≈ ∇ Ek
2 2
∇ξ (t) = −2 E (t) x
2
Tenemos: k k
k
Obteniendo
w(t + 1) = w(t ) + 2µ Ek xk
a) µ pequeña.
b) µ alta.
Algoritmo:
1- Inicialización de pesos.
Aplicaciones:
Otra aplicación es la de los filtros adaptativos: Predecir el valor futuro de una señal a
partir de su valor actual.
CONCLUSIONES
• Una simple capa de PE lineales puede ser entrenada con algoritmo LMS.
A)
Wi(t+1) = Wi(t) Si la salida es correcta.
B) Otra de las modificaciones propuestas fue sugerida por Widrow and Hoff. Ellos
propusieron una regla basada en la regla Delta. (Es la más utilizada).
w (t + 1) = w (t ) + µ (t ) z si z w (t ) ≤ 0
i i i i i
w (t + 1) = w (t ) en otro caso
i i
Con esta regla de aprendizaje se
obtiene una convergencia finita si
+ x si d = +1
i i
el conjunto de entrenamiento es
linealmente separable.
z=
i
− x si d = −1
i i
EJEMPLO: XOR
W1
x1
f y 0 * W1 + 0 * W2 = 0 W1,W2
1 * W1 + 0 * W2 = 1 W1 = 1
0 0 * W1 + 1 * W2 = 1 W2 = 1
W2 f = Hard-Limiter
1 * W1 + 1 * W2 = 1 No posible.
x2 x0
w11=-2
x1 1 f
w´11=1
w21=2
1 f Salida
w12=2 Solución Tres Capas
2 f w´12=1
w22=-2 f = Hard-Limiter
x2
PE sin Tendencia