Documentos de Académico
Documentos de Profesional
Documentos de Cultura
P1 etc
e2 P2 S=∑ e X * PX
e3 p3
p4
e4
4) FUNCIONES NEURONALES
b) Función de Activación
• El resultado de la ∑ debería ingresar a una Función de
Activación antes que a una función de Transferencia. Esto
permite variar la salida en función del tiempo y la experiencia
e1 P1
e2 P2 S=∑ e X * PX
∑
e3 p3
T
p4
e4
4) FUNCIONES NEURONALES
c) Función de Transferencia
1 1
1
-1
X < 0 ^ Y = -1 X<0^Y=0 Y = 1 / (1 + e x )
X>0^Y= 1 0 ≤ X ≤ 1 ^Y = X
X > 1 ^ Y = 1
5) COMBINANDO ELEMENTOS
PEs
• Si se combinan varios PEs da lugar a una “capa”.
• Las entradas se conectan a varios nodos (Pes) con distinto peso.
La salida sigue por un nodo.
• Una Capa
6) COMBINANDO CAPAS
• Regla DELTA:
Para un PE la regla continuamente modifica el nivel de
discrepancia (DELTA) entre el output deseado y el output real
corriente (Ej. Windrow & Hoff – Adaline)
LEYES DE APRENDIZAJE
Regla del descenso y Kohonen
• Regla del descenso del gradiente:
Los pesos son modificados por un monto proporcional a la primera
derivada del error respecto del peso.
• Ley de Aprendizaje de Kohonen:
Los PE´s compiten entre sí para tener oportunidad de aprendizaje. El
PE con mayor salida se declara “ganador” y obtiene la posibilidad de:
1) inhibir a los competidores 2) ajustar sus pesos con los de sus vecinos
(aliados).
El ganador se define como quien tienen la mas estrecha coincidencia
con los patrones de entrada. Las leyes Kohonen modelan la distribución
de los inputs.
LEYES DE APRENDIZAJE
Propagacíón hacia atrás
• Aprendizaje Back Propagation (dos fases con 3 o más capas):