P. 1
REDES NEURONALES

REDES NEURONALES

|Views: 104|Likes:

More info:

Published by: Sujeimar Arroyave Restrepo on Apr 26, 2011
Copyright:Attribution Non-commercial

Availability:

Read on Scribd mobile: iPhone, iPad and Android.
download as PDF, TXT or read online from Scribd
See more
See less

07/13/2011

pdf

text

original

REDES NEURONALES

Sujeimar Arroyave Restrepo
Universidad de Antioquia Medellín, Colombia Sujeimar@hotmail.com

Juan Camilo Gallego pineda
Universidad de Antioquia Medellín, Colombia jcamilo_20@hotmail.com

Resumen—El siguiente artículo presenta la implementación de tres tipos de redes neuronales usadas en diferentes aplicaciones. Dos de las redes están destinadas a obtener el modelo del comportamiento de la temperatura de una casa (thermal model of a house), una de ellas es monocapa aplicada con el algoritmo LMS y la otra red consiste en una multicapa tipo perceptron. La red faltante es tipo perceptron con bolsillo, cuyo fin es dar un diagnóstico (evaluación de malignidad) en personas con cáncer. Palabras clave—Algoritmo, Perceptron, Red neuronal, Umbral, Entrenamiento, Prueba, Validación.

(de pronto quitar)En el proceso de entrenamiento se ha dispuesto de dos bases de datos con el fin de reforzar nuestras conjeturas respecto a la viabilidad de representar un sistema tan complejo con una red neuronal monocapa. La primera es una base cuyos datos debido al ruido introducido se encuentran dispersos dentro del rango definido, y la segunda solo incluye la información libre de ruido y sin el controlador on-off dada su condición de introducir variaciones bruscas dentro de la nube de datos. (creo que lo voy a quitar) La selección de la tasa de aprendizaje (µ) se hizo con base a la realización de varios entrenamientos previos; con valores como µ=1, 0.1, se observó que el programa arroja números tipo NaN, lo cual me indica que tales magnitudes no me ofrecen la resolución adecuada para llegar al mínimo local de la superficie. Por tal razón se usó una tasa de aprendizaje µ=0.01 con el inconveniente de que vuelve un poco más lento el proceso de entrenamiento y no queriendo decir que este sea el más optimo. Otro parámetro de diseño que se tuvo en consideración fue el número de iteraciones que se usaron para buscar el peso que ofrezca el error mínimo, a medida que se aumenta este valor se logra disminuir el error, solo que se observa claramente un sobreentrenamiento, fenómeno que se presenta ya que al no cumplirse la condición de parada el algoritmo sigue entrenando hasta consumirse las iteraciones que se le han asignado. Ya definidos estos parámetros se ha procedido al entrenamiento, del que se puede hacer las siguientes observaciones; dada la gran dispersión de la información donde no se puede distinguir grupos de datos, la red no se acomoda a estos, si no, a una sola zona que es lo único que es capaz de separar una red neuronal monocapa, desde aquí se empieza a visualizar que este tipo de red no está en capacidad de representar el modelo térmico de la casa. Al entrenar la red se lograba obtener un error entre el 10.0% y el 20.0% pero no siempre el mismo y con la posibilidad de que este valor se saliera de este rango en ocasiones. B. Prueba y conclusiones Partiendo de los entrenamientos realizados se hicieron varias pruebas con los pesos que se lograban obtener, en la Fig. 1 se puede observar el resultado de una prueba con el error
Figura 1. Salida red neuronal monocapa.

I.

INTRODUCCCION

Para el desarrollo de este trabajo se hace uso de las redes neuronales con el fin de afianzar conocimientos y adquirir destrezas en el entrenamiento de diferentes tipologías de red. Con base en los resultados arrojados por cada una de las redes implementadas, se podrá realizar análisis, comparaciones y sacar conclusiones, sobre cuál de las tipologías es más viable utilizar, dependiendo del sistema a controlar. Las redes neuronales aquí desarrolladas se aplican sobre el sistema que ya se ha implementado en el trabajo anterior de lógica difusa, en el cual se controla la temperatura interna de un casa en función de las variables externas que la afectan directamente. Las entradas de las redes neuronales van a ser la variable flujo calórico escalado por 1e+8 y la temperatura externa, la salida por su parte será la temperatura de la casa. También se usa una de las redes neuronales (la tipo perceptron con bolsillo) en un aplicativo médico cuyo fin es diagnosticar si un cáncer es benigno o maligno, según una serie de datos de entrada que constan de una lista de pacientes con sus respectivos resultados. II. RED NEURONAL MONOCAPA

A. Parámetros de diseño y entrenamiento De acuerdo a la necesidad de modelar el comportamiento térmico de la casa, implementamos una red neuronal tipo monocapa, la cual tiene una función o discriminador lineal a su salida dado a que es la que más se acomoda para cuando se requiere representar el comportamiento de un sistema dinámico; respecto a las entradas tenemos los valores de flujo calórico, de temperatura externa y la entrada ficticia con valor en uno. Para la obtención de los pesos se ha usado el algoritmo de entrenamiento iterativo conocido como LMS.

de entrenamiento más pequeño que se logró obtener; los demás resultados no difieren en gran parte de la imagen mostrada. De

y 20. se puede observar unos datos que se obtuvieron en el entrenamiento y prueba. Finalmente se puede concluir que el método del bolsillo es mucho más eficiente en cuanto a convergencia se trata.-8. se escogió de esta forma dado que la memorización del mejor peso.24.47. hacen de esta más confiable que la perceptron simple. que ayuda a mejorar la convergencia del sistema. 2. se decidió trabajar con un valor de 1. 1.01] [13. tienen los mejores porcentajes de error. ya que la clase 1 representa un caso positivo para cáncer benigno y la clase -1 cáncer maligno. afectan seriamente la convergencia del sistema. w2] 5000 - - - . TABLE I.41% 2.35% 4.-18. Los datos así obtenidos no son los mejores por eso se empezaron a modificar las condiciones iniciales.2 Resultados Iteraciones Error de entrenamiento Error de prueba Pesos obtenidos [w0.-15.34.10 y 100.95% 1.05] [13. ya que el perceptron sencillo necesitaría más de 5000 iteraciones para encontrar el peso adecuado debido a su falta de memoria. la tasa de aprendizaje µ tiene un valor de 1 y la condición de convergencia del sistema está pensada para un error que no sea superior al 2%.1 0.01 0.01] [13. Aunque la tasa de aprendizaje es un parámetro muy importante que ayuda a mejorar el error del sistema. que nos brindará la salida binaria deseada. Pesos iniciales 0 1 10 100 ERRORES Y CONVERGENCIA Resultados Error de entrenamiento Error de prueba Convergencia (segundos) 1. PERCEPTRON CON BOLSILLO A. donde 445 es el peso correspondiente a la entrada ficticia(bias).-17. Además buscando una mejor clasificación de los datos y disminución el error se añade al sistema la entrada ficticia (bias). w1. A partir de esto se puede ver claramente que para los pesos inicializados en 100.95% 1.16% 10.01 0. ya que el sistema físico es de un orden mayor a 1.23. se entrena solo una neurona cuya función de activación es el limitador duro.45 2.95% 1.96.67. µ 1. 1. Se decidió trabajar con pesos de valores 1. La variación del error con respecto al número de iteraciones se puede ver en la Fig. -0. perdiendo generalización y mostrando que este tipo de red es muy simple para emular un comportamiento que de hecho es complejo. aunque su convergencia haya sido la menos aceptable. indicando que solo hubo 10 fallos de 615 posibles en entrenamiento y solo 2 de 68 en prueba. Parámetros de Diseño y Entrenamiento Se decidió resolver el problema (realizar un diagnóstico médico a partir de un grupo de datos) a través de una red perceptron con bolsillo.78% 7.01 Iteraciones Error de entrenamiento Error de prueba Pesos obtenidos [w0. En la tabla I.-27]. 0.2% 17. y la mejor separabilidad de los datos que ofrece esta tipología. Agregando además el hecho de que en la salida halla una función lineal nos limita en gran parte.20.41% 4. haciendo más lento el proceso de encontrar un peso óptimo y esto conllevaba tener un criterio de convergencia de error más alto. mientas que el perceptron con bolsillo solo necesito de alrededor de 270 para encontrarlo. estos son los mejores resultados obtenidos. no se cambian ni el criterio de convergencia ni la tasa de aprendizaje. III. El sistema es de tipo supervisado pues se cuenta con las salidas que deben arrojar los datos de entrada.94% 4. Análisis de resultados La tabla muestra los mejores resultados obtenidos para cada peso. porque para otros valores entre 0 y 1 no arrojan valores diferentes a los ya obtenidos. Las condiciones generales para el funcionamiento del sistema fueron seleccionadas de forma arbitraria.-7. 2.01] aquí se corrobora lo anteriormente mencionado y es que la red se está entrenando sólo para separar dos grupos de datos.-13.08. y para valores superiores a 1 como 10.14% 11.0 ERRORES Y PESOS B. Los resultados se muestran en la tabla II. En este caso los pesos que generaron dichos resultados son los siguientes: w = [445. 1. TABLE II. los pesos iniciales tienen un valor de 0. w1. -0.01 0. w2] 5000 5000 5000 10000 10000 18. ideal para este problema. 15.-26. hay que tener cuidado a la hora de hacer su escogencia. Además con el algoritmo usado se tiene la facilidad de clasificar las entradas en casos positivos y negativos y nos permite a su vez entregar una salida binarizada.Resultados µ 0.18 4.8% 100% 100% 100% 100% [13. La topología del sistema es muy simple.83 10. es decir después de varias iteraciones sobre el mismo peso.16. 0. para que el sistema respondiera adecuadamente.

I. vol.68–73. Abbrev. Eds. and Y. p. Trans. K.[1] [2] [3] [4] [5] [6] Figura 1. Elissa. “Title of paper if known. 1963. 2. Sneddon.” IEEE Transl. A247. J. T. B. Soc. M. August 1987 [Digests 9th Annual Conf. Bean. “Electron spectroscopy studies on magneto-optical media and plastic substrate interface. Hirano. in press. CA: University Science. Jacobs and C. A Treatise on Electricity and Magnetism. Clerk Maxwell.” J. III. 740–741. Rado and H. Noble. 2. Yorozu. N. P. Oxford: Clarendon. vol. vol. Nicole. G. 529–551. “On certain integrals of Lipschitz-Hankel type involving products of Bessel functions. vol. . London. pp. Eason. April 1955. The Technical Writer's Handbook. S. pp. M.” in Magnetism. pp. Roy. Suhl. thin films and exchange anisotropy. (references) J. Magn. 271–350. Tagawa. “Title of paper with only first word capitalized.. R. Japan. New York: Academic. Mill Valley. Error de entrenamiento [7] G. K.. and I. Magnetics Japan. Name Stand. 301. 3rd ed. 1989. Young. Y. 1982]. 1892.” Phil. “Fine particles. pp.” unpublished. Oka.

You're Reading a Free Preview

Descarga
scribd
/*********** DO NOT ALTER ANYTHING BELOW THIS LINE ! ************/ var s_code=s.t();if(s_code)document.write(s_code)//-->