Documentos de Académico
Documentos de Profesional
Documentos de Cultura
https://www.youtube.com/watch?v=OWgAtvadHGU
Tarea Antes de clase
Profesor
Mag. Jorge Luis Blanco R.
LOGRO DE LA
SESIÓN
Al finalizar la sesión el estudiante utiliza el algoritmo de
entrenamiento LMS y Backpropagation para su trabajo de
laboratorio.
CONTENIDO:
1. Adaline (Adaptive Lineal Element -
Adaptive Lineal Neuron)
2. Algoritmo LMS (Least Mean Square)
3. MLP (Multiple Layer Perceptron)
4. Algoritmo Backpropagation
5. Tarea en clase
6. Tarea después de clase
1. Adaline
• Las Redes ADALINE son redes muy similares al Perceptrón con la diferencia de
que su función de activación es lineal en lugar de ser un limitador fuerte como es el
caso del Perceptrón, estas presentan la misma limitación del Perceptrón respecto al
tipo de problemas que pueden resolver, ya que
ambas redes solo pueden resolver problemas linealmente separables.
• Son redes de aprendizaje supervisado que usan la regla de Widrow –
Hoff para dicho aprendizaje o también denominada regla Delta. El algoritmo que
estas usan es el LMS (Least Mean Square) siendo este más eficiente que
la regla de aprendizaje del Perceptrón puesto que minimiza el error medio
cuadrático.
• Adaline está limitada a una única neurona de salida, un vector “x” como
su entrada y un número real “y” como su salida.
1. Adaline
Características
• Es un tipo de aprendizaje OFF Line.
• Se enmarca dentro del tipo de aprendizaje por corrección de error.
• Se utiliza para entrenar un Elemento Simple de Procesado, con una
función de transferencia lineal.
• Se le conoce también con el nombre de Regla de Widrow-Hoff.
(Adaline: Adaptive Linear Elemento).
• Se pueden combinar un cierto Nº de PEs en la capa de salida (estructura
con un cierto grado de complejidad). La regla se aplica sobre cada uno
de los PE de manera individual.
1. Adaline
Conclusiones
• Una simple capa de PE lineales pueden realizar
aproximaciones a funciones lineales o asociación de patrones.
• Una simple capa de PE lineales puede ser entrenada con
algoritmo LMS.
• Relaciones No Lineales entre entradas y salidas no
pueden ser representadas exactamente por redes lineales. Dichas
redes harán aproximaciones lineales.
• Otro tipo de redes abordarán la resolución de problemas no
lineales.
2. Algoritmo LMS
Criterios de parada:
Criterio 1: Fijar un número de ciclos máximo. Dicho número
debe garantizar que el error cuadrático para los patrones de
entrenamiento se haya estabilizado.
Criterio 2: Cuando el error cuadrático sobre los patrones de
entrenamiento no cambia durante x ciclos.
Criterio 3: Cuando el error cuadrático sobre los patrones de
validación no aumenta o se mantiene estable a lo largo de x ciclos.
3. MLP
3. MLP
3. MLP
3. MLP
3. Algoritmo Backpropagation
3. Algoritmo Backpropagation
3. Algoritmo Backpropagation
3. Algoritmo Backpropagation
3. Algoritmo Backpropagation
3. Algoritmo Backpropagation
3. Algoritmo Backpropagation
6. Tarea en clase
(en equipo con presentación individual)