ADALINE RED NEURONAL

ANA MILENA VELANDIA BENÍTEZ YUDI MILENA LOZANO BENAVIDES Facultad de ingeniería, Universidad Panamericana, Bogotá D, C., Colombia. mile.velandia@hotmail.com yudimilenal@hotmail.com Resumen Este artículo se basa en la documentación y relaciona de Adaline, este perceptrón es un sistema de aprendizaje basado en ejemplos y usa una matriz para representar las redes neuronales. Este sistema capaz de realizar tareas de clasificación de forma automática, puede manejar mayor que simples decisiones y reconocimiento de patrones. La entrada es comparada con un patrón preestablecido para determinar la salida de la red. Si en la comparación, la suma de las entradas multiplicadas por los pesos es mayor o igual que el patrón preestablecido la salida de la red es uno (1), en caso contrario la salida es cero (0).. Palabras claves: Perceptrón Neuronales Adaline Abstract This article is based on documents and lists of Adaline, this perceptron is a learning system based on examples and uses a matrix to represent neural networks. This system can perform classification tasks automatically, you can handle more than just making and pettern recognition. The entry is compared with a preset pattern to determine the output of the network. If the comparison, the sum of the inputs multiplied by weights is greater than or equal to the preset pattern of the network output is one (1), otherwise the output is zero (0). 1. Introducción Desarrollo de los sistemas de redes neuronales, se encontró gran similitud entre su comportamiento y el de los sistemas biológicos y en principio se creyó que este modelo podía computar cualquier función aritmética o lógica. Capaz de clasificar patrones correctamente, en lo que Rosenblatt denominaba un entorno diferenciado, en el cual cada clase estaba formada por patrones similares. La red tipo Perceptrón fue inventada por el sicólogo Frank Rosenblatt en el año 1957. Su intención era ilustrar algunas propiedades fundamentales de los sistemas inteligentes en general, sin entrar en mayores detalles con respecto a condiciones específicas y desconocidas para organismos biológicos concretos. Rosenblatt creía que la conectividad existente en las redes biológicas tiene un elevado porcentaje de aleatoriedad, por lo que se oponía al análisis de McCulloch Pitts en el cual se empleaba lógica simbólica para analizar estructuras bastante idealizadas.

donde se tendría un hiperplano. Definido para modificar los pesos con objeto de hacer posible que el dispositivo proporcione el valor de salida correcto para la entrada dada. este es el gran aporte de esta red. El elemento de procesamiento realiza la suma de los productos de los vectores de entrada y de pesos. una por cada lado del hipercubo. Contenido 2. Un Adaline con tres niveles de neuronas puede formar cualquier región convexa en este espacio.2 Capas de Adaline Un Perceptrón con cuatro capas puede generar regiones de decisión arbitrariamente complejas. La salida de los nodos de este tercer nivel se activara solo para las entradas de cada hipercubo. . Los hipercubos se asignan a la región de decisión adecuada mediante la conexión de la salida de cada nodo del tercer nivel solo con la neurona de salida (cuarta capa) correspondiente a la región de decisión en la que este comprendido el hipercubo 2. analógicas. El Adaline se entrena por medio de un proceso de minimización de errores que garantiza la convergencia a una solución. este cambio se debió a que la Adaline es un dispositivo que consta de un único elemento de procesamiento. el cual debido a su función de transferencia lineal será +1 si la sumatoria es positiva o –1 si la salida de la sumatoria es negativa. También se podría decir que el Adaline es un Elemento Lineal. sin embargo su significado cambió ligeramente a finales de los años sesenta cuando decayó el estudio de las redes neuronales. digital) solo pude establecer dos regiones separadas por una frontera lineal en el espacio de patrones de entrada. y aplica una función de salida para obtener un único valor de salida. sin embargo el algoritmo LMS es más potente que la regla de aprendizaje del Perceptrón ya que minimiza el error medio cuadrático. inicialmente se llamaba ADAptive LInear NEuron (Neurona Lineal Adaptiva). El término Adaline es una sigla. la cual es una función de tipo lineal en lugar de un limitador fuerte como en el caso del Perceptron. La red Adaline presenta la misma limitación del Perceptron en cuanto al tipo de problemas que pueden resolver. evitando por completo la definición como neurona.La red Adaline es similar al Perceptron. Es una neurona tan solo en el sentido (muy limitado) del PE. que lleva a cabo el and lógico de la salida de los nodos del nivel anterior. ambas redes pueden solo resolver problemas linealmente separables. El Adaline es Lineal porque la salida es una función lineal sencilla de los valores de la entrada. como tal no es técnicamente una red neuronal. excepto en su función de transferencia. para pasar después a ser Adaptive LInear Element (Elemento Lineal Adaptivo). y otra en la tercera capa. el significado de correcto para efectos del valor de salida depende de la función de tratamiento de señales que esté siendo llevada a cabo por el dispositivo. Cada hipercubo requiere 2n neuronas en la segunda capa (siendo n el número de entradas a la red). la regla sirvió de inspiración para el desarrollo de otros algoritmos. y la de salida con función de activación de tipo escalón. Capas de Adaline El Adaline básico de dos capas (entrada con neuronas lineales.1. El proceso de separación en clases que se lleva a cabo consiste en la partición de la región deseada en pequeños hipercubos. 2.

la salida de la red se activará sólo si las salidas de todos los nodos de la segunda capa están activos. Capas ocultas: Formada por aquellas neuronas cuyas entradas provienen de capas anteriores y cuyas salidas pasan a neuronas de capas posteriores.1 Adaline multicapa 2. En estas neuronas no se produce procesamiento. Las regiones convexas se forman mediante la intersección de regiones formadas por cada neurona de la segunda capa.4 Arquitectura del Perceptron Multicapa El perceptrón multicapa consta de una capa de entrada y una capa de salida y una o más capas ocultas. cada uno de estos elementos se comporta como un Perceptrón simple. . Las regiones formadas por cada neurona de la segunda capa.llevándose a cabo una operación lógica Or en cada nodo de salida.3 Perceptron multicapa Es una red neuronal artificial (RNA) formada por múltiples capas. esto equivale a ejecutar la función lógica AND en el nodo de salida. activándose su salida para los patrones de un lado del hiperplano. Capa de salida: Neuronas cuyos valores de salida se corresponden con las salidas de toda la red. en lugar de hipercubos. y la función de salida es de tipo hardlim. Este procedimiento se pude generalizar de manera que la forma de las regiones convexas sea arbitraria. lo cual es la principal limitación del Perceptron (también llamado Perceptron simple). Los valores que el perceptrón multicapa acepta son reales. El Perceptrón básico sólo puede establecer dos regiones separadas por una frontera lineal en el espacio de entrada de los patrones. Figura 1. En el primer caso cada salida de una neurona de la capa "i" es entrada de todas las neuronas de la capa "i+1". activándose su salida para los patrones de un lado del hiperplano. esto le permite resolver problemas que no son linealmente separables. resultando una región de decisión intersección de todos los semiplanos formados en el nivel anterior. Capa de entrada: Constituida por aquellas neuronas que introducen los patrones de entrada en la red. activándose su salida para los patrones de un lado del hiperplano. la capa entrada se une con la primera capa oculta y esta con la siguiente y la última capa oculta se une con la capa de salida. El Perceptron multicapa puede ser totalmente o localmente conectado. Un Perceptrón simple. Dichas capas se unen de forma total hacia delante. cada uno de estos elementos se comporta como un Perceptrón simple. 2. mientras que en el segundo cada neurona de la capa "i" es entrada de una serie de neuronas (región) de la capa "i+1". si el valor de los pesos de las conexiones entre las neuronas de la segunda capa y una neurona del nivel de salida son todos igual a 1. esto es.

5 Esquema del algoritmo Los pasos para el desarrollo del algoritmo de aprendizaje de una red neuronal como la Adaline son: 1. pero si este es negativo se decremento y el error se calcula con la formula: Figura 1.1 Estructura Adaline E(x)= d(x)-y(x) En el problema de la función XOR se explicó como un Perceptrón multicapa había sido implementado para hallar una solución. Si el error da positivo.5.2…n+1 Al realizar esto se colocan nuevos pesos y dará paso al aprendizaje. Evaluación Si y(x) es diferente de d(x). Resultados Los pesos se incrementan o no dependiendo de la salida y este criterio se da a partir de la siguiente fórmula: W(k+1)=w(k)+[z(k) – y(k)]x(k). la red da una respuesta incorrecta.5. Inicialización En este proceso se determinan los pesos y el valor del umbral entre el rango “-0.5 y 0.4 Criterio de parada Se define como el fin de las n-esimas iteraciones. x2.5. 1. donde la formula es: 3. 1. x3. el esquema general de un Perceptrón multicapa puede encontrarse generalizando a una red con múltiples entradas y que incluya una entrada adicional donde se notan las conexiones entre sus nodos de entrada y las neuronas de salida. por lo tanto comienza el proceso de aprendizaje. Se empiezan los valores aleatorios “0. El decodificador recibe una entrada y produce una salida en valor decimal.…. . Se realizara la decodificación de binario a decimal.5”.5. 2. Por medio de valores y argumentos dados a continuación.j=1. Activación El Adaline se activa aplicando las entradas X1.1” para el grupo de “W”.1.1. Xn para que calcule la salida d(x).2. si no se han modificado los pesos en las p iteraciones esto nos indica que la red se ha estabilizado y ha culminado el aprendizaje.3. se necesita incrementar la salida.

3) = "Criterio de parada" End If Activación Private Function NumAleat() Randomize NumAleatorio = CInt(((-5) . 1) = i Next End Sub Sub Extraer(a) For i = 0 To 7 If Mid(Cells((a + 13). Error. 1) \ 2 Cells((i + 13). 9) = W2 Cells(3. 4) = Cells(12.Harlim D1 = (Error * W1) D2 = (Error * W2) D3 = (Error * W3) W1 = (D1 + W1) W2 = (D2 + W2) W3 = (D3 + W3) Cells(3. 1) X2 = Cells((j + 2). S. 9) W3 = Cells(3. D2. 1) = Cells((i + 13). 2) X3 = Cells((j + 2). 4) = 8 Then Cells(k. X2.1 Codificación Inicialización Aprendizaje_Neurona End Sub Sub Binarios() Dim i. 4) = -1 Else Cells((i + 2). W2. ResDiv As Integer For i = 0 To 255 Cells((i + 13). 2) & "" Next Cells((i + 13). 8) W2 = Cells(3. 2). Harlim.3. 2) = "" For j = 1 To 8 ResDiv = Cells((i + 13). X3. 6) NumAleat Cells(3. 3) T = Cells((j + 2). 10) = W3 Criterio de parada If S >= 1 Then S=1 Else S = -1 End If If T = S Then Cells(12. 4) W1 = Cells(3. (i + 1). X1. 10) S = (W1 * X1) + (W2 * X2) + (W3 * X3) If S > -1 Then Harlim = 1 Else Harlim = -1 End If Error = T . D1. 1) = 0 Then Cells((i + 2). 8) = W1 Cells(3.5) * Rnd + 5) End Function Sub Aprendizaje_Neurona() Dim W1. 4) + 1 End If Next If Cells(12. 10) = NumAleatorio Cells(12. 9) = NumAleatorio NumAleat Cells(3. 8) = NumAleatorio . 4) = 0 Extraer (k) Evaluación For j = 0 To 7 X1 = Cells((j + 2). D3 As Integer For k = 0 To 255 For i = 1 To Cells(3. 4) = 1 End If Next End Sub NumAleat Cells(3. 2) = "" & ResDiv & "" & Cells((i + 13). W3. j. 1) Mod 2 Cells((i + 13). T.

Next Next End Sub .

2 Gráfico Se decodifica un número de 8 bits como se muestra en la siguiente tabla. En esta combinación encontramos salidas que nos indica su respectivo aprendizaje.3. . es decir que se estabiliza y se cumple con la ejecución establecida para una solución óptima.

TCGA Report No.edu. Robert E. OR.geofisica.pdf. y Earickson.htmhttp [4]http://www. 28-43. E. es “estudiante de Ingeniería de Sistemas”. Mayo 14 de 1991.. Treleaven.co Yudi Milena Lozano Benavides. [7] Filho. NOR etc. "Genetic-Algorithm Programming Environments". The Clearinghouse for Genetic Algorithms.4. sin más que considerar no solo adaptabilidad en los operadores y los parámetros involucrados en la optimización. Ribeiro. amvelandia@unipanamericana. NAND.cinvestav. Para implementar estas estructuras flexibles son necesarios algunos mecanismos para la toma de decisiones y control del proceso. José L. Philip C.es/miguel. Conclusiones Las redes neuronales tienen diferentes aplicaciones y relaciones como lo es con la implementación en circuitos combinacionales para digitalizar procesos industriales. sino también en la propia estructura del algoritmo. multiplexores entre otros. Con la combinación de las redes neuronales y los sistemas digitales se pueden hacer llegar a elaborar proyectos de codificadores. es “estudiante de Ingeniería de Sistemas”. decodificadores. David. Sus áreas de intereses son “Redes Neuronales e Inteligencia Artificial”.tripod. Se demostró que es posible diseñar con éxito nuevos y más eficientes algoritmos que los existentes a la fecha.com/Hardware/ H1_7_1. en IEEE Computer. Ha realizado estudios en “Universidad Panamericana y universidad de los libertadores”.edu.cl/English/pics3/FU M6. Un circuito combinacional es aquel está formado por funciones lógicas elementales como AND.pagola/ Redes%20Neuronales.htm [5]http://delta. Goldberg. Referencias [1]http://www.zator.com/unid ad1. pp.unavarra.htm [3]http://moisesrbb. Cesare. Jeff A. 91002.co .pdf [2]http://www. Junio de 1994. The University of Alabama.cs. Sus áreas de intereses son:”Redes Neuronales e Inteligencia Artificial”. Esos diseños pueden obtenerse flexibilizando dicha estructura de manera que sea capaz de adaptarse dinámicamente dependiendo de las circunstancias actuales del proceso de búsqueda. Ha realizado estudios en “Universidad Panamericana”. Ana Milena Velandia Benítez. 5. ymlozano@unipanamericana. "SGA-C : A C-language Implementation of a Simple Genetic Algorithm".mx/~cco ello/revistas/genetico.ayc.gz [6] Smith. y Alippi.

Sign up to vote on this title
UsefulNot useful