Está en la página 1de 26

Observar el siguiente video: El Perceptrón Simple

https://www.youtube.com/watch?v=PcnWeuy-c74&t=185s
Tarea Antes de clase

Ver el video: “Video 1. El Perceptrón Simple”


En un documento Word formular Preguntas y Respuestas con el contenido
de los videos.
Nombre del archivo: “S4s1_TAC_PaternoM.docx”
Cada alumno presenta la tarea en Canvas en “Tarea Antes de Clase”.
Saberes previos:
1. ¿Cuáles son los problemas que se resuelven con las RNAs?
2. ¿Cómo se verifica si la red ha sido entrenada?
3. ¿Existe una manera previa de analizar si la red es entrenable?
4. ¿Qué es el gráfico del PE?
REDES NEURONALES Y LOGICA DIFUSA

Semana 4. Sesión 1.
Red Neuronal Perceptrón

Profesor
Mag. Jose Carlos Benítez Palacios
LOGRO DE LA SESIÓN
Al finalizar la sesión el estudiante entrena una red Perceptrón
algebraicamente y mediane su algoritmo de entrenamiento
en su trabajo de laboratorio.
CONTENIDO:
1. Cálculo y análisis de las salidas
2. SLP (Single Layer Perceptron)
3. Algoritmo de entrenamiento del SLP
4. Tarea en clase
5. Tarea después de clase

Datos/Observaciones
1. Cálculo y análisis de las salidas
1. Cálculo y análisis de las salidas
2. SLP

• Nombre : Redes Perceptrón


• Año : 1950
• Tipo : Predicción
• Diseñador : Rosenblatt
• Modelo : Primer modelo de ANN
2. SLP
2. SLP
Ubicación de la red Peceptrón:

⚫ Las redes de • Monocapa.


propagación hacia • Ejemplos:
delante • Perceptrón,
⚫ Redes de propagación • Adaline.
hacia atrás. • Multicapa.
⚫ Las redes recurrentes. • Ejemplos:
• Ejemplos: • perceptrón
multicapa
• Elman,
• Hopfield,
• máquina de Boltzmann.
2. SLP
2. SLP
3. Algoritmo de entrenamiento del SLP

▪ El entrenamiento del Perceptron consiste en presentar a la red todos


los elementos del conjunto de entrenamiento constituido por parejas
de vectores (entrada y salida deseada) de forma secuencial.
▪ El objetivo del entrenamiento es llegar a un conjunto de valores de los
pesos de la red de forma que responda correctamente a todo el conjunto
de entrenamiento.
▪ Después del entrenamiento los pesos no son ya modificados y la red está
ya en disposición de responder adecuadamente a las entradas que se le
presenten.
▪ La adaptación de los pesos se puede realizar mediante diferentes
reglas o algoritmos.
3. Algoritmo de entrenamiento del SLP

▪ Una de las reglas más simples de aprendizaje del Perceptron se indica en la


ecuación : wjinuevo = wjiviejo + C (tj * xj) ai
▪ Siendo tj el valor de la salida deseada, xj el valor de salida producida por la
unidad procesadora, ai el valor de la entrada i y C el coeficiente de aprendizaje.
▪ En todo proceso de entrenamiento el comportamiento de la red inicialmente va
mejorando hasta que llega a un punto en el que se estabiliza y se dice que la
red ha convergido.
▪ Esta convergencia tiene dos posibilidades:
▪ Consiste en que la red haya aprendido correctamente el conjunto de
entrenamiento o
▪ Se trata de que la red no ha aprendido todas las respuestas correctas.
3. Algoritmo de entrenamiento del SLP

▪ El Perceptrón es un tipo de red de aprendizaje supervisado, es decir


necesita conocer los valores (salidas) esperados para cada una de las
entradas presentadas; su comportamiento está definido por pares de esta
forma:

▪ Cuando p es aplicado a la red, la salida de la red es comparada con el


valor esperado t, y la salida de la red esta determinada por:

▪ Los valores de los pesos determinan el funcionamiento de la red, estos


valores se pueden fijar o adoptar utilizando diferentes algoritmos de
entrenamiento de la red.
3. Algoritmo de entrenamiento del SLP
1. Se inicializa la matriz de pesos y el valor de la ganancia, por lo general se
asignan valores aleatorios a cada uno de los pesos wi y al valor b
2. Se presenta el primer patrón a la red, junto con la salida esperada en forma de
pares entrada/salida
3. Se calcula la salida de la red por medio de:
donde f puede ser la función hardlim o hardlims
4. Cuando la red no retorna la salida correcta, es necesario alterar el valor de los
pesos, tratando de llevarlo hasta p y así aumentar las posibilidades de que la
clasificación sea correcta, una posibilidad es adicionar p a w haciendo que el
vector w apunte en la dirección de p, y de esta forma después de repetidas
presentaciones de p a la red, w se aproximará asintóticamente a p; este es el
procedimiento adoptado para la regla de aprendizaje del Perceptrón.
3. Algoritmo de entrenamiento del SLP
▪ El proceso de aprendizaje del Perceptrón puede definirse en tres reglas, las
cuales cubren la totalidad de combinaciones de salidas y sus correspondientes
valores esperados.
▪ Estas reglas utilizando la función de transferencia hardlim, se expresan como
sigue:

▪ Las tres condiciones anteriores pueden ser escritas en forma compacta y


generalizarse para la utilización de las funciones de transferencia hardlim o
hardlims, generalización que es posible introduciendo el error en las reglas de
aprendizaje del Perceptrón:
3. Algoritmo de entrenamiento del SLP

▪ Por lo tanto:

▪ En una sola expresión la ley puede resumirse así:

▪ Y extendiendo la ley a las ganancias


3. Algoritmo de entrenamiento del SLP

Haykin: “Neural Networks and Learning


Machines”, 3rd edition
4. Tarea en clase
(Trabajo en equipo con exposición individual aleatoria)

Desarrollar cada uno de los ejercicios en un script de


nombre “S4s1_PaternoM.m”:
1.Diseñar una red monocapa de 9 neuronas y 5 neuronas
procesadoras, cuya función de transferencia es
hardlims. Proporcionar los valores necesarios y hallar la
salida de la red. Cada entrada es un vector de 10
números enteros aleatorios con valores comprendidos
entre -5 y 5. Considerar bias.
4. Tarea en clase
(Trabajo en equipo con exposición individual aleatoria)

2. Diseñar una red tricapa de 31 neuronas, de las que 21 son


procesadoras. Las neuronas procesadoras de la salida son 3
menos que la capa oculta, y la primera capa procesadora
oculta tiene 2 neuronas procesadoras más que la segunda. La
función de activación de las capa procesadoras son hardlims.
Proporcionar los valores necesarios y hallar la salida de la red.
Cada entrada es un vector de 15 números reales aleatorios
con valores comprendidos entre -1.5 y 1.5. Considerar bias.
4. Tarea después de clase
(Trabajo en equipo con exposición individual aleatoria)
Desarrollar cada uno de los ejercicios propuestos en un script de MatLab.
Colocar cada script en una carpeta de nombre S4s1_TDC_PaternoM, comprimir y
subir al Canvas el archivo comprimido “S4s1_TDC_PaternoM.rar”.
Ejercicios:
Mediante e algoritmo del SLP entrenar la RNA de la compuerta:
1. A OR B
2. ~(A OR B) => C
3. ~A =>~(B => C)
4. A XNOR B
CIERRE
1. ¿Cuáles son los problemas que se resuelven con las RNAs?
2. ¿Cómo se verifica si la red ha sido entrenada?
3. ¿Existe una manera previa de analizar si la red es entrenable?
4. ¿Qué es el gráfico del PE?

También podría gustarte