REDES NEURONALES

Sujeimar Arroyave Restrepo
Universidad de Antioquia Medellín, Colombia Sujeimar@hotmail.com

Juan Camilo Gallego pineda
Universidad de Antioquia Medellín, Colombia jcamilo_20@hotmail.com

Resumen—El siguiente artículo presenta la implementación de tres tipos de redes neuronales usadas en diferentes aplicaciones. Dos de las redes están destinadas a obtener el modelo del comportamiento de la temperatura de una casa (thermal model of a house), una de ellas es monocapa aplicada con el algoritmo LMS y la otra red consiste en una multicapa tipo perceptron. La red faltante es tipo perceptron con bolsillo, cuyo fin es dar un diagnóstico (evaluación de malignidad) en personas con cáncer. Palabras clave—Algoritmo, Perceptron, Red neuronal, Umbral, Entrenamiento, Prueba, Validación.

(de pronto quitar)En el proceso de entrenamiento se ha dispuesto de dos bases de datos con el fin de reforzar nuestras conjeturas respecto a la viabilidad de representar un sistema tan complejo con una red neuronal monocapa. La primera es una base cuyos datos debido al ruido introducido se encuentran dispersos dentro del rango definido, y la segunda solo incluye la información libre de ruido y sin el controlador on-off dada su condición de introducir variaciones bruscas dentro de la nube de datos. (creo que lo voy a quitar) La selección de la tasa de aprendizaje (µ) se hizo con base a la realización de varios entrenamientos previos; con valores como µ=1, 0.1, se observó que el programa arroja números tipo NaN, lo cual me indica que tales magnitudes no me ofrecen la resolución adecuada para llegar al mínimo local de la superficie. Por tal razón se usó una tasa de aprendizaje µ=0.01 con el inconveniente de que vuelve un poco más lento el proceso de entrenamiento y no queriendo decir que este sea el más optimo. Otro parámetro de diseño que se tuvo en consideración fue el número de iteraciones que se usaron para buscar el peso que ofrezca el error mínimo, a medida que se aumenta este valor se logra disminuir el error, solo que se observa claramente un sobreentrenamiento, fenómeno que se presenta ya que al no cumplirse la condición de parada el algoritmo sigue entrenando hasta consumirse las iteraciones que se le han asignado. Ya definidos estos parámetros se ha procedido al entrenamiento, del que se puede hacer las siguientes observaciones; dada la gran dispersión de la información donde no se puede distinguir grupos de datos, la red no se acomoda a estos, si no, a una sola zona que es lo único que es capaz de separar una red neuronal monocapa, desde aquí se empieza a visualizar que este tipo de red no está en capacidad de representar el modelo térmico de la casa. Al entrenar la red se lograba obtener un error entre el 10.0% y el 20.0% pero no siempre el mismo y con la posibilidad de que este valor se saliera de este rango en ocasiones. B. Prueba y conclusiones Partiendo de los entrenamientos realizados se hicieron varias pruebas con los pesos que se lograban obtener, en la Fig. 1 se puede observar el resultado de una prueba con el error
Figura 1. Salida red neuronal monocapa.

I.

INTRODUCCCION

Para el desarrollo de este trabajo se hace uso de las redes neuronales con el fin de afianzar conocimientos y adquirir destrezas en el entrenamiento de diferentes tipologías de red. Con base en los resultados arrojados por cada una de las redes implementadas, se podrá realizar análisis, comparaciones y sacar conclusiones, sobre cuál de las tipologías es más viable utilizar, dependiendo del sistema a controlar. Las redes neuronales aquí desarrolladas se aplican sobre el sistema que ya se ha implementado en el trabajo anterior de lógica difusa, en el cual se controla la temperatura interna de un casa en función de las variables externas que la afectan directamente. Las entradas de las redes neuronales van a ser la variable flujo calórico escalado por 1e+8 y la temperatura externa, la salida por su parte será la temperatura de la casa. También se usa una de las redes neuronales (la tipo perceptron con bolsillo) en un aplicativo médico cuyo fin es diagnosticar si un cáncer es benigno o maligno, según una serie de datos de entrada que constan de una lista de pacientes con sus respectivos resultados. II. RED NEURONAL MONOCAPA

A. Parámetros de diseño y entrenamiento De acuerdo a la necesidad de modelar el comportamiento térmico de la casa, implementamos una red neuronal tipo monocapa, la cual tiene una función o discriminador lineal a su salida dado a que es la que más se acomoda para cuando se requiere representar el comportamiento de un sistema dinámico; respecto a las entradas tenemos los valores de flujo calórico, de temperatura externa y la entrada ficticia con valor en uno. Para la obtención de los pesos se ha usado el algoritmo de entrenamiento iterativo conocido como LMS.

de entrenamiento más pequeño que se logró obtener; los demás resultados no difieren en gran parte de la imagen mostrada. De

El sistema es de tipo supervisado pues se cuenta con las salidas que deben arrojar los datos de entrada. indicando que solo hubo 10 fallos de 615 posibles en entrenamiento y solo 2 de 68 en prueba. perdiendo generalización y mostrando que este tipo de red es muy simple para emular un comportamiento que de hecho es complejo.41% 2.-27].01] [13.18 4.05] [13. Los resultados se muestran en la tabla II.95% 1. y para valores superiores a 1 como 10. 1. Aunque la tasa de aprendizaje es un parámetro muy importante que ayuda a mejorar el error del sistema. para que el sistema respondiera adecuadamente. La variación del error con respecto al número de iteraciones se puede ver en la Fig.01 Iteraciones Error de entrenamiento Error de prueba Pesos obtenidos [w0. Agregando además el hecho de que en la salida halla una función lineal nos limita en gran parte. Finalmente se puede concluir que el método del bolsillo es mucho más eficiente en cuanto a convergencia se trata.-15.78% 7.14% 11. En este caso los pesos que generaron dichos resultados son los siguientes: w = [445. 0.10 y 100.47. Pesos iniciales 0 1 10 100 ERRORES Y CONVERGENCIA Resultados Error de entrenamiento Error de prueba Convergencia (segundos) 1.-17. que nos brindará la salida binaria deseada. w2] 5000 5000 5000 10000 10000 18. y 20.45 2. En la tabla I. porque para otros valores entre 0 y 1 no arrojan valores diferentes a los ya obtenidos. TABLE I.01 0. w1.8% 100% 100% 100% 100% [13. Se decidió trabajar con pesos de valores 1.20.-8.-26. w2] 5000 - - - .01] [13.2 Resultados Iteraciones Error de entrenamiento Error de prueba Pesos obtenidos [w0. afectan seriamente la convergencia del sistema. la tasa de aprendizaje µ tiene un valor de 1 y la condición de convergencia del sistema está pensada para un error que no sea superior al 2%.96.41% 4.94% 4.0 ERRORES Y PESOS B. La topología del sistema es muy simple. aunque su convergencia haya sido la menos aceptable. los pesos iniciales tienen un valor de 0.34. Además con el algoritmo usado se tiene la facilidad de clasificar las entradas en casos positivos y negativos y nos permite a su vez entregar una salida binarizada.01 0. 2.-13. 1. III. mientas que el perceptron con bolsillo solo necesito de alrededor de 270 para encontrarlo.23.-18.-7. y la mejor separabilidad de los datos que ofrece esta tipología. haciendo más lento el proceso de encontrar un peso óptimo y esto conllevaba tener un criterio de convergencia de error más alto. se escogió de esta forma dado que la memorización del mejor peso. que ayuda a mejorar la convergencia del sistema. PERCEPTRON CON BOLSILLO A.16% 10.35% 4. w1. 2. se decidió trabajar con un valor de 1.95% 1.67. µ 1. 15. hacen de esta más confiable que la perceptron simple.2% 17. ya que el sistema físico es de un orden mayor a 1. se puede observar unos datos que se obtuvieron en el entrenamiento y prueba. ya que la clase 1 representa un caso positivo para cáncer benigno y la clase -1 cáncer maligno. -0. Parámetros de Diseño y Entrenamiento Se decidió resolver el problema (realizar un diagnóstico médico a partir de un grupo de datos) a través de una red perceptron con bolsillo.08. ideal para este problema.Resultados µ 0. hay que tener cuidado a la hora de hacer su escogencia. Las condiciones generales para el funcionamiento del sistema fueron seleccionadas de forma arbitraria. 0. TABLE II. se entrena solo una neurona cuya función de activación es el limitador duro. es decir después de varias iteraciones sobre el mismo peso. -0.83 10.95% 1. 1. Los datos así obtenidos no son los mejores por eso se empezaron a modificar las condiciones iniciales. tienen los mejores porcentajes de error.01 0. A partir de esto se puede ver claramente que para los pesos inicializados en 100.24.1 0. ya que el perceptron sencillo necesitaría más de 5000 iteraciones para encontrar el peso adecuado debido a su falta de memoria. Además buscando una mejor clasificación de los datos y disminución el error se añade al sistema la entrada ficticia (bias). estos son los mejores resultados obtenidos. Análisis de resultados La tabla muestra los mejores resultados obtenidos para cada peso. no se cambian ni el criterio de convergencia ni la tasa de aprendizaje.01] aquí se corrobora lo anteriormente mencionado y es que la red se está entrenando sólo para separar dos grupos de datos.16. donde 445 es el peso correspondiente a la entrada ficticia(bias).

and Y. T.68–73. 2. pp. vol. Error de entrenamiento [7] G.” IEEE Transl. Noble. Soc. Clerk Maxwell. August 1987 [Digests 9th Annual Conf. Yorozu. 1892. 271–350. Suhl. New York: Academic. 1989. Hirano. G. I. A Treatise on Electricity and Magnetism. Eason. Magn. Mill Valley. A247. M. “Title of paper if known. . K. 2. (references) J. vol. April 1955. Young. S. Rado and H. III.” J. London. Name Stand. Magnetics Japan. Oka.[1] [2] [3] [4] [5] [6] Figura 1. B. J. thin films and exchange anisotropy. pp. CA: University Science. Y. 3rd ed. Japan.. Elissa. Oxford: Clarendon. Jacobs and C. and I. Trans. p. “Fine particles. N. Bean. in press.” in Magnetism. 529–551. Roy. Sneddon. Eds. vol. 301. “Title of paper with only first word capitalized.. M. “Electron spectroscopy studies on magneto-optical media and plastic substrate interface. Abbrev. vol.” unpublished. pp. 740–741.” Phil. “On certain integrals of Lipschitz-Hankel type involving products of Bessel functions. R. The Technical Writer's Handbook. Tagawa. 1982]. K. 1963. Nicole. P. pp.

Sign up to vote on this title
UsefulNot useful