Está en la página 1de 9

BENEMÉRITA UNIVERSIDAD AUTÓNOMA DE PUEBLA

FACULTAD DE CIENCIAS DE LA ELECTRÓNICA

REPORTE: CLASIFICACIÓN DE ELEMENTOS CON ADALINE


Profesor: Dr. Aldrin Barreto Flores

Presenta:
Castelazo Hidalgo Alejandro Samuel – 201419336
Clavel Balboa Mónica – 201504541
Hernández González Álvaro Alexis – 201504782
Muciño Vela Militza – 201543336
Sánchez Condado Jesús – 201548308

Puebla, Pue., 20 de abril de 2020


Índice general

1. INTRODUCCIÓN 4
1.1. PROBLEMÁTICA . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4
1.2. MARCO TEÓRICO . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4
1.2.1. ADALINE . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4
1.2.2. RGB . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6
1.3. DESARROLLO . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6
1.4. CÓDIGO . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8
1.5. CONCLUSIÓN . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9

2
Índice de figuras

1.1. Estructura general de ADALINE . . . . . . . . . . . . . . . . . . . . . 5


1.2. Fórmula del error cuadrático medio . . . . . . . . . . . . . . . . . . . . 5
1.3. Colores RGB . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6
1.4. Gráficas de entrenamiento . . . . . . . . . . . . . . . . . . . . . . . . . 7
1.5. Gráfica de validación . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7
1.6. Código de entrenamiento 1 . . . . . . . . . . . . . . . . . . . . . . . . 8
1.7. Código de entrenamiento 2 . . . . . . . . . . . . . . . . . . . . . . . . 8
1.8. Código de entrenamiento 3 . . . . . . . . . . . . . . . . . . . . . . . . 8
1.9. Código de validación . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9

3
Capı́tulo 1
INTRODUCCIÓN

1.1. PROBLEMÁTICA
Anteriormente ya hemos venido trabajando con el modelo de red neuronal
ADANALINE por lo que ya estamos de cierta manera familiarizado con dicho
modelo.

Ahora la problemática de esta práctica consiste en clasificar dos elementos basados


en las capturas de algún espacio de colores, decidimos ocupar los conocimientos previos,
por tanto, ocupamos el espacio de colores RGB, de la misma manera nuestro equipo
opto por dos frutas como elementos a clasificar, un mango y una papaya.

Para la clasificación se necesita proponer una red neuronal Adanaline que clasifique
correctamente los datos con validación del 80 % o más

1.2. MARCO TEÓRICO


1.2.1. ADALINE
ADALINE (Adaptive Linear Element) desarrollada en 1960 por el profesor Bernard
Widrow y su estudiante Ted Hoff en la Universidad de Standford, es un modelo de red
neuronal artificial basada en el famoso modelo de la neurona McCulloch - Pitts.

El objetivo de ADALINE es poder estimar de la manera más exacta posible la


salida (conseguir una salida exacta es prácticamente imposible en la mayorı́a de los
problemas dados), se busca minimizar la desviación de la red para todos los patrones
de entrada, eligiendo una medida del error global. Normalmente, se hace uso del error
cuadrático medio. El algoritmo converge cuando el error cuadrático medio es más

4
1.2. MARCO TEÓRICO CAPÍTULO 1. INTRODUCCIÓN

Figura 1.1: Estructura general de ADALINE

pequeño que un parámetro de precisión definido al principio.

A diferencia de Perceptrón, durante la modificación de los pesos sinápticos en el


proceso de entrenamiento, el ADALINE tiene en cuenta el grado de corrección de la
salida estimada con respecto a la salida deseada. Para lograr esto, el entrenamiento
hace uso de la Regla Delta, y que se define para un patrón de entrada con un con una
salida estimada y una salida deseada.

Con respecto al perceptrón el Adaline posee la ventaja de que su gráfica de error


es un hiperparaboloide que posee o bien un único mı́nimo global, o bien una recta de
infinitos mı́nimos, todos ellos globales. Esto evita la gran cantidad de problemas que
da el perceptrón a la hora del entrenamiento debido a que su función de error (también
llamada de coste) posee numerosos mı́nimos locales.

Figura 1.2: Fórmula del error cuadrático medio

5
1.3. DESARROLLO CAPÍTULO 1. INTRODUCCIÓN

1.2.2. RGB
RGB es una sigla formada por los términos de la lengua inglesa red (“rojo”), green
(“verde”) y blue (“azul”). El concepto suele emplearse para referirse a un modelo
cromático que consiste en representar distintos colores a partir de la mezcla de estos
tres colores primarios.

El modelo RGB se basa en lo que se conoce como sı́ntesis aditiva de color.


Empleando la luminosidad del rojo, el verde y el azul en diferentes proporciones, se
produce el resto de los colores. Los monitores de las computadoras (ordenadores)
apelan a la sı́ntesis aditiva de color para la representación de los colores.

En la informática, por último, varios lenguajes de programación usan el modelo


RGB para representar los colores. Estos lenguajes asignan un valor a los distintos
colores: a mayor valor, mayor intensidad en la mezcla. Un color, por lo tanto, se
compone de tres valores (uno correspondiente al rojo, otro al verde y el tercero al azul).

Figura 1.3: Colores RGB

1.3. DESARROLLO
Primeramente con el código que tenı́amos de prácticas anteriores sacamos los
datos ”RGB ”de cada elemento a clasificar, una vez que tuvimos los datos para
clasificar entrenamos la neurona para que clasificara dichos datos, corrimos el código
con valores en el peso de 0.1 y con los primeros treinta datos de cada elemento a

6
1.3. DESARROLLO CAPÍTULO 1. INTRODUCCIÓN

clasificar, todo esto con la finalidad de entrenar nuestra neurona y al final obtuvimos
como resultado de la clasificación lo que se muestra de manera gráfica en la figura 4 y 5.

Figura 1.4: Gráficas de entrenamiento

Figura 1.5: Gráfica de validación

7
1.4. CÓDIGO CAPÍTULO 1. INTRODUCCIÓN

1.4. CÓDIGO

Figura 1.6: Código de entrenamiento 1

Figura 1.7: Código de entrenamiento 2

Figura 1.8: Código de entrenamiento 3

8
1.5. CONCLUSIÓN CAPÍTULO 1. INTRODUCCIÓN

Figura 1.9: Código de validación

1.5. CONCLUSIÓN
En el desarrollo de esta práctica se demostro de manera precisa el funcionamiento
de la neurona ADALINE al clasificar muestras de dos elementos similares en cuanto
a datos RGB, se observaron las dificultades que ocasiona tener una neurona con clases
cuya barrera de decisión es pequeña.

A medida que iban aumentando las épocas, el error de salida iba disminuyendo y se
logró mantener la precisión requerida, por tanto la neurona logró validar correctamente
el 95 % de los datos.

Como nota al lector: Es importante que los parámetros de error y razón de


aprendizaje sean adecuados para el tipo de problema a resolver, ya que de lo contrario
el entrenamiento podrı́a tardar demasiado sin que haya convergencia en una buena
solución.

También podría gustarte