P. 1
Adaline

Adaline

|Views: 321|Likes:

More info:

Published by: Jhon Edison Rivera Alba on Apr 06, 2012
Copyright:Attribution Non-commercial

Availability:

Read on Scribd mobile: iPhone, iPad and Android.
download as DOC, PDF, TXT or read online from Scribd
See more
See less

04/30/2015

pdf

text

original

ADALINE RED NEURONAL

ANA MILENA VELANDIA BENÍTEZ YUDI MILENA LOZANO BENAVIDES Facultad de ingeniería, Universidad Panamericana, Bogotá D, C., Colombia. mile.velandia@hotmail.com yudimilenal@hotmail.com Resumen Este artículo se basa en la documentación y relaciona de Adaline, este perceptrón es un sistema de aprendizaje basado en ejemplos y usa una matriz para representar las redes neuronales. Este sistema capaz de realizar tareas de clasificación de forma automática, puede manejar mayor que simples decisiones y reconocimiento de patrones. La entrada es comparada con un patrón preestablecido para determinar la salida de la red. Si en la comparación, la suma de las entradas multiplicadas por los pesos es mayor o igual que el patrón preestablecido la salida de la red es uno (1), en caso contrario la salida es cero (0).. Palabras claves: Perceptrón Neuronales Adaline Abstract This article is based on documents and lists of Adaline, this perceptron is a learning system based on examples and uses a matrix to represent neural networks. This system can perform classification tasks automatically, you can handle more than just making and pettern recognition. The entry is compared with a preset pattern to determine the output of the network. If the comparison, the sum of the inputs multiplied by weights is greater than or equal to the preset pattern of the network output is one (1), otherwise the output is zero (0). 1. Introducción Desarrollo de los sistemas de redes neuronales, se encontró gran similitud entre su comportamiento y el de los sistemas biológicos y en principio se creyó que este modelo podía computar cualquier función aritmética o lógica. Capaz de clasificar patrones correctamente, en lo que Rosenblatt denominaba un entorno diferenciado, en el cual cada clase estaba formada por patrones similares. La red tipo Perceptrón fue inventada por el sicólogo Frank Rosenblatt en el año 1957. Su intención era ilustrar algunas propiedades fundamentales de los sistemas inteligentes en general, sin entrar en mayores detalles con respecto a condiciones específicas y desconocidas para organismos biológicos concretos. Rosenblatt creía que la conectividad existente en las redes biológicas tiene un elevado porcentaje de aleatoriedad, por lo que se oponía al análisis de McCulloch Pitts en el cual se empleaba lógica simbólica para analizar estructuras bastante idealizadas.

Los hipercubos se asignan a la región de decisión adecuada mediante la conexión de la salida de cada nodo del tercer nivel solo con la neurona de salida (cuarta capa) correspondiente a la región de decisión en la que este comprendido el hipercubo 2. una por cada lado del hipercubo. donde se tendría un hiperplano. 2. sin embargo el algoritmo LMS es más potente que la regla de aprendizaje del Perceptrón ya que minimiza el error medio cuadrático. analógicas. Capas de Adaline El Adaline básico de dos capas (entrada con neuronas lineales. La salida de los nodos de este tercer nivel se activara solo para las entradas de cada hipercubo. el significado de correcto para efectos del valor de salida depende de la función de tratamiento de señales que esté siendo llevada a cabo por el dispositivo.La red Adaline es similar al Perceptron. como tal no es técnicamente una red neuronal. Es una neurona tan solo en el sentido (muy limitado) del PE. que lleva a cabo el and lógico de la salida de los nodos del nivel anterior. Contenido 2.1. También se podría decir que el Adaline es un Elemento Lineal. Un Adaline con tres niveles de neuronas puede formar cualquier región convexa en este espacio. este cambio se debió a que la Adaline es un dispositivo que consta de un único elemento de procesamiento. y otra en la tercera capa. . La red Adaline presenta la misma limitación del Perceptron en cuanto al tipo de problemas que pueden resolver. este es el gran aporte de esta red. excepto en su función de transferencia. y la de salida con función de activación de tipo escalón. Cada hipercubo requiere 2n neuronas en la segunda capa (siendo n el número de entradas a la red). la regla sirvió de inspiración para el desarrollo de otros algoritmos. El Adaline es Lineal porque la salida es una función lineal sencilla de los valores de la entrada. El elemento de procesamiento realiza la suma de los productos de los vectores de entrada y de pesos. digital) solo pude establecer dos regiones separadas por una frontera lineal en el espacio de patrones de entrada. el cual debido a su función de transferencia lineal será +1 si la sumatoria es positiva o –1 si la salida de la sumatoria es negativa.2 Capas de Adaline Un Perceptrón con cuatro capas puede generar regiones de decisión arbitrariamente complejas. El proceso de separación en clases que se lleva a cabo consiste en la partición de la región deseada en pequeños hipercubos. para pasar después a ser Adaptive LInear Element (Elemento Lineal Adaptivo). evitando por completo la definición como neurona. El término Adaline es una sigla. y aplica una función de salida para obtener un único valor de salida. la cual es una función de tipo lineal en lugar de un limitador fuerte como en el caso del Perceptron. Definido para modificar los pesos con objeto de hacer posible que el dispositivo proporcione el valor de salida correcto para la entrada dada. ambas redes pueden solo resolver problemas linealmente separables. inicialmente se llamaba ADAptive LInear NEuron (Neurona Lineal Adaptiva). sin embargo su significado cambió ligeramente a finales de los años sesenta cuando decayó el estudio de las redes neuronales. El Adaline se entrena por medio de un proceso de minimización de errores que garantiza la convergencia a una solución.

llevándose a cabo una operación lógica Or en cada nodo de salida. esto le permite resolver problemas que no son linealmente separables. Un Perceptrón simple. Capa de salida: Neuronas cuyos valores de salida se corresponden con las salidas de toda la red. El Perceptron multicapa puede ser totalmente o localmente conectado. Capas ocultas: Formada por aquellas neuronas cuyas entradas provienen de capas anteriores y cuyas salidas pasan a neuronas de capas posteriores. activándose su salida para los patrones de un lado del hiperplano. cada uno de estos elementos se comporta como un Perceptrón simple. Los valores que el perceptrón multicapa acepta son reales. lo cual es la principal limitación del Perceptron (también llamado Perceptron simple). si el valor de los pesos de las conexiones entre las neuronas de la segunda capa y una neurona del nivel de salida son todos igual a 1. Dichas capas se unen de forma total hacia delante. 2. mientras que en el segundo cada neurona de la capa "i" es entrada de una serie de neuronas (región) de la capa "i+1". . la salida de la red se activará sólo si las salidas de todos los nodos de la segunda capa están activos. activándose su salida para los patrones de un lado del hiperplano. Capa de entrada: Constituida por aquellas neuronas que introducen los patrones de entrada en la red. Las regiones formadas por cada neurona de la segunda capa. en lugar de hipercubos. resultando una región de decisión intersección de todos los semiplanos formados en el nivel anterior. En estas neuronas no se produce procesamiento. y la función de salida es de tipo hardlim. Figura 1.4 Arquitectura del Perceptron Multicapa El perceptrón multicapa consta de una capa de entrada y una capa de salida y una o más capas ocultas. cada uno de estos elementos se comporta como un Perceptrón simple. esto es. Este procedimiento se pude generalizar de manera que la forma de las regiones convexas sea arbitraria.3 Perceptron multicapa Es una red neuronal artificial (RNA) formada por múltiples capas. En el primer caso cada salida de una neurona de la capa "i" es entrada de todas las neuronas de la capa "i+1". El Perceptrón básico sólo puede establecer dos regiones separadas por una frontera lineal en el espacio de entrada de los patrones.1 Adaline multicapa 2. la capa entrada se une con la primera capa oculta y esta con la siguiente y la última capa oculta se une con la capa de salida. esto equivale a ejecutar la función lógica AND en el nodo de salida. Las regiones convexas se forman mediante la intersección de regiones formadas por cada neurona de la segunda capa. activándose su salida para los patrones de un lado del hiperplano.

5. x3. Por medio de valores y argumentos dados a continuación. x2.1 Estructura Adaline E(x)= d(x)-y(x) En el problema de la función XOR se explicó como un Perceptrón multicapa había sido implementado para hallar una solución.2. 2.5. se necesita incrementar la salida. 1. Si el error da positivo. Evaluación Si y(x) es diferente de d(x). por lo tanto comienza el proceso de aprendizaje.2…n+1 Al realizar esto se colocan nuevos pesos y dará paso al aprendizaje. la red da una respuesta incorrecta.3. Resultados Los pesos se incrementan o no dependiendo de la salida y este criterio se da a partir de la siguiente fórmula: W(k+1)=w(k)+[z(k) – y(k)]x(k).1.5 Esquema del algoritmo Los pasos para el desarrollo del algoritmo de aprendizaje de una red neuronal como la Adaline son: 1.5.1.….5. donde la formula es: 3. 1. .1” para el grupo de “W”. Inicialización En este proceso se determinan los pesos y el valor del umbral entre el rango “-0.5 y 0.4 Criterio de parada Se define como el fin de las n-esimas iteraciones. Se empiezan los valores aleatorios “0.5”. el esquema general de un Perceptrón multicapa puede encontrarse generalizando a una red con múltiples entradas y que incluya una entrada adicional donde se notan las conexiones entre sus nodos de entrada y las neuronas de salida. Se realizara la decodificación de binario a decimal. si no se han modificado los pesos en las p iteraciones esto nos indica que la red se ha estabilizado y ha culminado el aprendizaje. Activación El Adaline se activa aplicando las entradas X1. pero si este es negativo se decremento y el error se calcula con la formula: Figura 1.j=1. Xn para que calcule la salida d(x). El decodificador recibe una entrada y produce una salida en valor decimal.

1) = Cells((i + 13). D1. D2. 2) X3 = Cells((j + 2). T. 4) W1 = Cells(3. 3) = "Criterio de parada" End If Activación Private Function NumAleat() Randomize NumAleatorio = CInt(((-5) . 1) = 0 Then Cells((i + 2). 1) \ 2 Cells((i + 13). 6) NumAleat Cells(3. 8) W2 = Cells(3. (i + 1).5) * Rnd + 5) End Function Sub Aprendizaje_Neurona() Dim W1. 8) = NumAleatorio . 10) = NumAleatorio Cells(12.1 Codificación Inicialización Aprendizaje_Neurona End Sub Sub Binarios() Dim i. 1) = i Next End Sub Sub Extraer(a) For i = 0 To 7 If Mid(Cells((a + 13). ResDiv As Integer For i = 0 To 255 Cells((i + 13). 10) S = (W1 * X1) + (W2 * X2) + (W3 * X3) If S > -1 Then Harlim = 1 Else Harlim = -1 End If Error = T . S. Harlim. W3.3. 4) = 1 End If Next End Sub NumAleat Cells(3. X1. Error. D3 As Integer For k = 0 To 255 For i = 1 To Cells(3. 10) = W3 Criterio de parada If S >= 1 Then S=1 Else S = -1 End If If T = S Then Cells(12. X2. 1) Mod 2 Cells((i + 13). 9) = W2 Cells(3. 2) & "" Next Cells((i + 13). 2). 4) = Cells(12. 8) = W1 Cells(3. 2) = "" For j = 1 To 8 ResDiv = Cells((i + 13). 9) W3 = Cells(3. 3) T = Cells((j + 2). j. 9) = NumAleatorio NumAleat Cells(3. 4) = -1 Else Cells((i + 2).Harlim D1 = (Error * W1) D2 = (Error * W2) D3 = (Error * W3) W1 = (D1 + W1) W2 = (D2 + W2) W3 = (D3 + W3) Cells(3. 1) X2 = Cells((j + 2). 4) = 0 Extraer (k) Evaluación For j = 0 To 7 X1 = Cells((j + 2). 2) = "" & ResDiv & "" & Cells((i + 13). 4) = 8 Then Cells(k. X3. W2. 4) + 1 End If Next If Cells(12.

Next Next End Sub .

2 Gráfico Se decodifica un número de 8 bits como se muestra en la siguiente tabla.3. es decir que se estabiliza y se cumple con la ejecución establecida para una solución óptima. En esta combinación encontramos salidas que nos indica su respectivo aprendizaje. .

"SGA-C : A C-language Implementation of a Simple Genetic Algorithm". y Alippi. sin más que considerar no solo adaptabilidad en los operadores y los parámetros involucrados en la optimización. Sus áreas de intereses son “Redes Neuronales e Inteligencia Artificial”. Se demostró que es posible diseñar con éxito nuevos y más eficientes algoritmos que los existentes a la fecha. Con la combinación de las redes neuronales y los sistemas digitales se pueden hacer llegar a elaborar proyectos de codificadores.. The University of Alabama. TCGA Report No. E.mx/~cco ello/revistas/genetico. Un circuito combinacional es aquel está formado por funciones lógicas elementales como AND.htm [5]http://delta. NAND.co Yudi Milena Lozano Benavides. 91002. Esos diseños pueden obtenerse flexibilizando dicha estructura de manera que sea capaz de adaptarse dinámicamente dependiendo de las circunstancias actuales del proceso de búsqueda.com/Hardware/ H1_7_1. Referencias [1]http://www. José L. Robert E.unavarra.ayc. ymlozano@unipanamericana.htmhttp [4]http://www. Junio de 1994. amvelandia@unipanamericana. Ana Milena Velandia Benítez.zator.pdf.edu.edu. Para implementar estas estructuras flexibles son necesarios algunos mecanismos para la toma de decisiones y control del proceso. Goldberg.gz [6] Smith. en IEEE Computer.htm [3]http://moisesrbb. [7] Filho. pp.com/unid ad1. Conclusiones Las redes neuronales tienen diferentes aplicaciones y relaciones como lo es con la implementación en circuitos combinacionales para digitalizar procesos industriales. Sus áreas de intereses son:”Redes Neuronales e Inteligencia Artificial”.geofisica. 5. sino también en la propia estructura del algoritmo.co .cl/English/pics3/FU M6.pdf [2]http://www. Jeff A. multiplexores entre otros.pagola/ Redes%20Neuronales. The Clearinghouse for Genetic Algorithms. Treleaven. Cesare. 28-43. y Earickson. decodificadores. es “estudiante de Ingeniería de Sistemas”.cs. David. Mayo 14 de 1991.cinvestav. NOR etc. Ribeiro. es “estudiante de Ingeniería de Sistemas”. Ha realizado estudios en “Universidad Panamericana”. Ha realizado estudios en “Universidad Panamericana y universidad de los libertadores”. OR. "Genetic-Algorithm Programming Environments".tripod.es/miguel.4. Philip C.

You're Reading a Free Preview

Descarga
scribd
/*********** DO NOT ALTER ANYTHING BELOW THIS LINE ! ************/ var s_code=s.t();if(s_code)document.write(s_code)//-->