Está en la página 1de 6

UNIVERSIDAD POPULAR DEL CESAR

GUÍA DE ACTIVIDADES PARA LA CONSTRUCCIÓN DE CONOCIMIENTO

NOMBRE DE LA ASIGNATURA Inteligencia Artificial

NOMBRE DE LA ACTIVIDAD Taller No 1 Programación de Perceptrón multicapa y Backpropagation

TIPO DE ACTIVIDAD Sincrónica x Asincrónica Individual Grupal


TEMÁTICA REQUERIDA PARA LA ACTIVIDAD OBJETIVOS
Redes neuronales Artificiales Conocer el entrenamiento de Madaline

INSUMOS PARA EL DESARROLLO DE LA ACTIVIDAD /


COMPETENCIAS
REFERENCIAS BIBLIOGRÁFICAS
El estudiante debe conocer los conceptos de como se Apuntes de clase para entrenar y simular red Madaline
entrena una red neuronal Madaline

CONOCIMIENTOS PREVIOS REQUERIDOS

Conocimientos en lenguajes de programación de alto nivel

ESPECIFICACIONES DE LA ACTIVIDAD

Procedimientos:

1. Realizar de forma manual algunos ejercicios para entender el entrenamiento de las dos arquitecturas de red en estudio
(Madaline)
2. Programar la arquitectura de redes neuronales (Madaline) y solucionar los ejercicios propuestos, utilizando interfaces
amigables e integrando el ambiente grafico en tiempo real
3. Analizar aspectos comparativos de resultados de la arquitectura en estudio
4. Tener en cuenta todas las observaciones realizadas al aplicativo anteriormente presentado y ajustar en esta codificación
5. Enviar al aula web un informe que contenga imágenes de cada uno de los ejercicios ejecutados en el o los aplicativos
realizados y la explicación detallada de los resultados obtenidos por cada uno de los ejercicios propuesto con la
arquitectura, para analizar con cual se consiguen mejores resultados y realizar comparaciones de topologías, errores
RMS, numero de capas, numero de neuronas por cada capa y función de activación seleccionada
6. Trabajo para realizar en grupo (dos) integrantes
7. La realización o codificación del o de los aplicativos se debe realizar aplicando el paso a paso visto en clase
8. Fecha límite de la actividad lunes 10 de mayo 11:59 pm
Aplicacion de una Red Neuronal al reconocimiento de la letra „T“ * 1.0

Con este programa se pretende desarrollar una red neural con aprendizaje supervisado, momento y tasa
de aprendizaje adaptativa, para reconocimiento de patrones binarios.
Del mismo modo se desea la descripción de una red que aprenda/reconozca la letra T, modelada por un arreglo
de pixeles 10 x 10.
Haciendo uso de una red perceptron multicapa que permitiese el reconocimiento de la letra T, a través de una
salida binaria: 1 cuando la letra es reconocida y 0 cuando el patrón no se corresponda con el descrito para la
letra.

Adquisición de los valores de entrada.


Las entradas fueron colocadas en un vector de 10 elementos en el cual, los valores de cada término se
corresponden a la suma total de cada columna, según sea el caso. Por ejemplo, la letra T dentro de una
matriz de 10x10, quedaría representada así:

1 1 1 1 1 1 1 1 1 1

1 1 1 1 1 1 1 1 1 1

0 0 0 0 1 1 0 0 0 0

0 0 0 0 1 1 0 0 0 0

0 0 0 0 1 1 0 0 0 0

0 0 0 0 1 1 0 0 0 0

0 0 0 0 1 1 0 0 0 0

0 0 0 0 1 1 0 0 0 0

0 0 0 0 1 1 0 0 0 0

0 0 0 0 1 1 0 0 0 0

El vector suma para cada columna, tendra la forma:


2 2 2 2 10 10 2 2 2 2

Nótese que la representación de cada letra es única. Se introdujeron otras letras y, en una segunda parte,
fueron generadas aleatoriamente porque la intención era leer esas otras entradas, diferentes a T como un valor
falso.
Se declararon el número de capas y las neuronas a utilizar (20 y 10 respectivamente) y se introdujo el formato
para las letras C,E y T y dos imagenes con ruido del mismo tamaño, por todo son cinco imagenes.

1. Entrenamiento de la Red Neuronal

La red neuronal de perceptrón está conformada por una capa de entrada, una capa oculta y una capa de salida.
La capa oculta esta constituida por 20 nodos con función de activación sigmoide.
Una vez que la red ha sido entrenada, se le coloca un vector P de entradas, Con T, otras letras y ruido.

2 Implemente una red con aprendizaje perceptrón y backpropagation que aprenda la siguiente 1.0
función
F(x,y,z) = sen(x)+ cos(y)+z

donde: x, y están en el intervalo [0, 2 pi], z está en el intervalo [-1, 1] Analice 10 patrones

3. Implemente un perceptrón multicapa y backpropagation que aprenda la función lógica XOR, (OR Y AND)
de 2 entradas simule el aprendizaje 1.0

Simule el entrenamiento

3 Dado el circuito lógico semi-sumador, entrenar una red neuronal 2-3-2 con función de activación
sigmoide para sintetizar el mapa de entrada –salida, simule el aprendizaje 1.0

X Y S C

-1 -1 -1 -1

-1 +1 +1 -1

+1 -1 +1 -1

+1 +1 -1 +1

4 Considere la tabla, en esta aparecen los estados de los sensores (S1, S2, S3) de un minirobot y los
estados de sus motores (M1, M2), las demás condiciones no importan. Simule el aprendizaje 1.0

S1 S2 S3 M1 M2

1 1 1 -1 -1

-1 1 1 -1 1

1 1 -1 1 -1

-1 -1 -1 1 1
Donde,
Si =1, obstáculo cerca
Si = -1, obstáculo lejos
Mi = -1, marcha atrás
Mi = 1, marcha adelante

Entrenar un perceptrón y backpropagation para almacenar las asociaciones sensores-motores de este


minirobot.

4 Esta red neuronal, está entrenada para diagnosticar un resfriado a partir de los síntomas que se le
indiquen. 1.5

La red consta de 4 neuronas en la capa de entrada, con las siguientes equivalencias:

Neurona de entrada Síntoma Valor 0 Valor 1

1 Dolor de cabeza No Sí

2 Fiebre No Sí

3 Tos No Sí

4 Dolor de rodilla No Sí

A partir de estos datos, se elabora la siguiente tabla de entrenamiento:

X1 X2 X3 X4 Capa de salida

0 0 0 0 0

1 1 1 1 1

1 1 1 0 1

0 0 0 1 0

0 1 1 0 1

0 1 1 1 1
0 0 1 0 0

0 0 1 1 0

1 0 1 0 1

1 0 1 1 1

Los pesos sinápticos generados son:

Peso sináptico Valor Síntoma asociado

W11 2 Dolor de cabeza

W21 2 Fiebre

W31 0 Tos

W41 0 Dolor de rodilla

W01 -1

Simule el entrenamiento

Entrenar una red multicapa 3-3-2 con perceptrón y backpropagation para reproducir la lectura correspondiente a los sensores y la acción de los
motores de un minirobot, utilizando la función de activación sigmoide

(0.1: Bajo 0.9 Alto)

X1 X2 X3 d1 d2

0.1 0.9 0.1 0.1 0.9

0.1 0.1 0.9 0.1 0.9

0.1 0.1 0.1 0.1 0.1

0.9 0.9 0.9 0.9 0.9


Los pesos iniciales de la red se escogen al azar en el intervalo [-0.1, 0.1] y la rata de aprendizajes de 0.1
Simular el aprendizaje

Peso evaluativo: La actividad tiene plazo de enviarla (Informe escrito) hasta el 10 de mayo a las 11:59 pm y tiene un peso
evaluativo de 30 % sobre la nota final - Informe: 20% Revisión: 80%

RECOMENDACIONES / Cualquier duda o recomendación me puede contactar por Wasaps al grupo de


OBSERVACIONES la clase y tener en cuenta revisar la rúbrica de evaluación

También podría gustarte