Está en la página 1de 19

Observar el siguiente video: Convolución Discreta Ver el siguiente video: Operaciones de Señales discretas

https://www.youtube.com/watch?v=axeqEn4kL28
https://www.youtube.com/watch?v=3PflHiLSFzM
Observar el siguiente video: Entrenamiento de Perceptrón
https://www.youtube.com/watch?v=Woe8fXttC6E
Tarea Antes de clase

Ver el video: “Video 1. El Perceptrón Simple”


En un documento Word formular Preguntas y Respuestas con el contenido
de los videos.
Nombre del archivo: “S5s1_TAC_PaternoM.docx”
Cada alumno presenta la tarea en Canvas en “Tarea Antes de Clase”.
Saberes previos:
▪ ¿Describir los pasos del AE del SLP?
▪ ¿Cuál es la condición para aplicar el AE del SLP?
▪ ¿Cuál es la limitación del SLP?
▪ ¿Mediante el AE del SLP es posible entrenar la RNA
de la compuerta XOR?. Justifique su respuesta.
▪ ¿Cómo se resuelve la limitación del SLP?
REDES NEURONALES Y LOGICA DIFUSA

Semana 5. Sesión 1:
Limitaciones del Perceptrón

Profesor
Mag. Jose Carlos Benítez Palacios
LOGRO DE LA SESIÓN
Al finalizar la sesión el estudiante comprueba las limitaciones
del SLP en su trabajo de laboratorio.
CONTENIDO:
1. SLP
2. Limitaciones del SLP
3. Resolviendo las limitaciones del SLP
4. Tarea en clase
5. Tarea después de clase

Datos/Observaciones
1. SLP

• El mayor inconveniente del Perceptrón, a pesar del éxito que ha


tenido en muchas aplicaciones de clasificación de patrones es la
imposibilidad de adaptar los pesos de todas las capas.
• En los años en los que se realizó el Perceptrón, los investigadores no
fueron capaces de diseñar un algoritmo que propagara las
correcciones de los pesos a través de redes multicapa.
• La principal limitación funcional del Perceptrón es que una unidad de
salida sólo puede clasificar patrones linealmente separables.
1. SLP

▪ Minsky y Papert centraron las


críticas al Perceptrón en su
publicación Perceptrons (1969).
▪ El libro incluía opiniones negativas
sobre la posibilidad de extender el
Perceptrón en una herramienta útil
en la computación neuronal; por
ejemplo para pequeños problemas
de clasificación de patrones como
el OR era útil, pero para el OR
exclusivo (XOR), el Perceptrón es
incapaz de resolverlo con éxito.
1. SLP
1. SLP
1. SLP
1. SLP

▪ Afortunadamente para la
computación neuronal
surgieron nuevas reglas de
aprendizaje para redes
multicapa y nuevas
arquitecturas, entre ellas la
más popular
Backpropagation, que
resolvieron entre otros los
problemas de clasificación
de patrones no separables
linealmente.
2. Limitaciones del SLP

▪ El Perceptrón Multicapa no
extrapola bien, es decir, si la
red se entrena mal o de manera
insuficiente, las salidas pueden
ser imprecisas.
▪ La existencia de mínimos
locales en la función de error
dificulta considerablemente el
entrenamiento, pues una vez
alcanzado un mínimo el
entrenamiento se detiene
aunque no se haya alcanzado
la tasa de convergencia fijada.
2. Resolviendo las limitaciones del SLP

Cuando se cae en un mínimo local sin satisfacer el


porcentaje de error permitido se puede considerar:
▪ Cambiar la topología de la red (número de capas y
número de neuronas),
▪ Comenzar el entrenamiento con unos pesos
iniciales diferentes,
▪ Modificar los parámetros de aprendizaje,
▪ Modificar el conjunto de entrenamiento o
▪ Presentar los patrones en otro orden.
3. Tarea en clase
(en equipo con presentación individual)

Comprobar la limitación del algoritmo SLP de las FLs:


1. AB
2. A XNOR B
3. A =>(B OR C)
3. Tarea después de clase
(en equipo con presentación individual)

Comprobar la limitación del algoritmo SLP de las FLs:


1. A(BC)
2. A AND (B=>C)
3. ~A AND(B AND ~C)
CIERRE
▪ ¿Describir los pasos del AE del SLP?
▪ ¿Cuál es la condición para aplicar el AE del SLP?
▪ ¿Cuál es la limitación del SLP?
▪ ¿Mediante el AE del SLP es posible entrenar la RNA de la
compuerta XOR?. Justifique su respuesta.
▪ ¿Cómo se resuelve la limitación del SLP?

También podría gustarte