Está en la página 1de 7
Bi INTELIGENCIA ARTIFICIAL RL: IFXES FRIOTHEN Y ELEVA TEMPERATURA 2: FX ES TIBIO THEN Y CONSERVA, TEMPERATURA RL: IFXES FRIOTHEN Y ELEVA TEMPERATURA 2 FX ES CALIENTE: THEN Y BAIA TEMPERATURA (VALORES. VALORES: VALORES | (VALORES | | NITIDOS) _DIFUSOS \_DIrESOS Ninos)! Ei), | rusicanpo REGLAS mam Pes CANDO pa] (pu ce 3A 2B ac Fig, 1.3 El diagrama de bloques para desarrollar la metodologia de Logica difusa muestra las tres tapas que constituyen el control. Tomando como entradas X (3A), se leva a cabo el proceso conforme al método (3B), obteniendo una respuesta de salidas Y (3C) REDES NEURALES ARTIFICIALES Introduccion ‘Como se dijo antes, la tecnologia neural trata de reproducir el proceso de solucién de problemas del cerebro. Asi como los humanos aplican el conocimiento ganado con la experiencia a nuevos problemas © situaciones, una red neural toma como ejemplos problemas resucltos para construir un sistema que toma decisiones y realiza clasificaciones. Los problemas addecuados para la solucién neural son aquellos {que no tienen solucién computacional precisa o que requieren algoritmos muy extensos como en el caso del reconocimiento de imagenes. Historia de las redes neurales ‘Alrededor de 1943 los investigadores Warten McCulloch y Walter Pitts propusieron el primer modelo simple de la neurona. En las décadas de los cineuenta y los setenta, | movimiento en redes neurales fue Iiderado por B, Widrow y M. E, Hoof, quienes trabajaron con na méquina llamada Adaline (Adaptive Linear Element ‘Otro pionero fue el psicélogo Frank Rosenblatt de la Universidad de Corell. En 1959, Rosenblatt cconstruyé una méquina neural simple que llamé perceptrén. Esta tenia una matriz con 400 fotoceldas Alfaomega Intetigon Ponce www.FreeLibros.me (‘iz «que se conectabanaleatoriamente a 512 unidades tipo neurona, Cuando se representaba un pat alas ‘unidades sensoras,éstas enviaban una seal aun banco de neuronas que indicaba la categoria del patron El perceptron de Rosenblatt reconoci6 todas las letras del alfabeto, Al final de los ios sctenta Minsky y Papert demostraron que los perceptrones eran incapaces de hacer tareas simples tales como sintetizar la funcién ldgica XOR. Las matemiéticas del libro Pecep- trons eran indiscutiblesy su tono dio el mensaje que los perceptrones eran un camino sin salida. Uno de los cientificos que continus trabajando durante los afios oscuros de las redes neurales fue Stephen Grossberg, ahora director del Centro para Sistemas Adoptivos de la Universidad de Boston. Grossberg junto con Gail Carpenter de la Universidad de Northeastern han propuesto un modelo de red neural Ila- ‘mado ART (Adaptive Resonance Theory). Otros investigadores que trabajaron durante los afjos setenta fueron Teuvo Kohonen, de la Universidad de Helsinki, y Jim Anderson, de la Universidad de Brown, que trabajé con altemativas de semillas de concxionismo y junto con Geoff Hinto, quien present trabajos rmatemdticos y de aplicacin de redes neuronales organizaron el primer encuentro neoconexionista en 1979, al cual asistieron David Rumelhart, Me Cleland, Geoff Hinton, Anderson, Jerry Feldman y Terry Sejnowski En 1986 Mc Clelland y Rumelhart publicaron un libro en dos volimenesttulado: Parallel Distri- buted Processing: Explorations in the Microstruture of Cognition. Este libro se considera un elasico en el rea de redes neurales y se puede decir gue su aparicin signified un nuevo impulso a la inves- tigacién en sistemas neurales al mostrar las ventajas y desventajas de las redes neurales artifciales aya). Algunas ventajas de las RNA frente a otros sistemas de procesamiento de informacién son: ok RNA pueden sintetizaralgoritmos a través de un proceso de aprendizaje Para utilizar la tecnologia neural no es necesario conocer los detalles matemiéticos. Sélo se roquiere estar familiarizado con los datos del trabajo. ‘© La solucién de problemas no lincales ¢s uno de Ios fuertes de Ins RNA. + Las RNA son robustas, pueden fellar algunos elementos de procesamiento pero la red continita trabajando; (oes contrario a lo que sucede en programacién tradicional Las desventajas de las redes neurales son: Las RNA se deben entrenar para cada problema. Ademés, es necesario realizar miiltiples pruc- bas para determinar la arquitectura adecuada. El entrenamiento es largo y puede consumir varias horas de la computadora (CPU), © Debido a que las redes se entrenan en Tugar de programarla Estas necesitan muchos datos, + Las RNA representan un aspecto complejo para un observador externo que desee realizar cam- bios. Para afadir nuevo conocimiento es necesario cambiar las iteraciones entre muel dades para que su ef considerable es imposible hacer esto manualmente, por lo tanto una red con representacién distribuida debe emplear algin esquema de aprendizaje to unificado sintetice este conocimiento, Para un problema de tamatio Las redes neurales se basan en generalizar informacién extraida de datos experimentales, tablas bibliograficas o bases de datos, los cuales se determinan por expertos humanos. Dichas redes neurales toman en cuenta las entradas (corriente, voltaje) y como salidas las scfales del sistema (velocidad, temperatura, torque). La red neural utilizada es una red multicapa de diez neuronas en la capa de en trada, diez neurons en la capa oculta y cinco neuronas en la capa de salida. Por lo tanto, se tienen 250 pesos ajustables mediante un control retroalimentado o de lazo cerrado. En la figura 1.4 Se presenta un dliagrama de red neural. Los parimetros de inicializacién se obtuvieron mediante un conjunto de datos cexperimentales y una base de datos. Ineligencia a leria - Ponce ‘Alfamega www.FreeLibros.me Bi INTELIGENCIA ARTIFICIAL 4a 4B 4c Fig. 14 Esquema dela red neural multicapas 10-10-S para el controlador inteligente. Entradas (4: Representa cualquier variable, Capa de entradas (4B), capa oculta (4C) y capa de salidas (4D). Salidas (4F): Representa también cualquier variable de interés para el usuario. Los pesos entre cada neurona (4F) estin representados por un punto negro (4G). El entrenamiento esta basado en el algoritmo de “retropropagacién del error” por el método de! _gradiente descendiente, en donde los pesos se actualizan mediante el uso de un conjunto ordenado de ‘entradas y salidas deseadas y la comparacién entre dicha salida y la salida real de la red neural. También se utiliza para el entrenamiento otra metodologia alterna que es el “perceptrén'”. Es un clasificador de forma binaria: solo existe la posibilidad de ser parte de un grupo A o B; funciona con sistemas lineales. Ambas tecnologias antes mencionadas se explican con més detalle a continuacién. Perceptrén sun tipo de red neural artificial. También puede entenderse como perceptrén la neurona artificial y uni- dad bisica de inferencia en forma de discriminador lineal. Este consiste en una suma de las seftales de entrada, multiplicadas por unos valores de pesos escogidos inicialmente en forma aleatoria, En una fase ‘en la que éste aprende, la entrada se compara con un patron preestablecido para determinat la salida de Jared, Si en la comparacién la suma de las entradas multiplicadas por los pesos es mayor o igual que el patron preestablecido, la salida dela red es uno (1); en caso contrario la salida es cero (0). El perceptrn «es un dispositive que, en su configuracién inicial, no esté en capacidad de distinguir patrones de entrada ‘muy complejos, sin embargo mediante un proceso de aprendizaje es apto para adquirir esta capacidad. En esencia, el entrenamiento implica un proceso de refuerzo a través del cual los pesos que codifican las sinapsis se incrementan o sc disminuyen. La red tipo perceptrén fue inventada por cl psicélogo Frank Rosenblatt en el ao de 1957, Su intencién era ilustrar algunas propiedades fundamentales de los sistemas inteligentes en general, sin entrar en mayores detalles con respecto a condiciones especificas y desconocidas para organismos biol6gicos concretos. En la figura 1.5 se representa una neurona “artificial”, la cual intenta modelar ¢1 comportamiento de la neurona biolégiea, Aqui el cuerpo de la neurona se representa como un sumador lineal de Tos estimulos externos z, seguida de una funcidn no lineal y, = f(z). La funcion f(z) es llamada la funcién de activacién y es la funcién que utiliza la suma de estimmulos para determinar [a actividad de salida de la neurona, Este modelo es la base de la mayoria de las arquitecturas de las RNA que se interconectan entre si Las neuronas emplean funciones de activacién diferentes segin la aplicacién. Algunas veces son funcio nes lineales, otras son funciones sigmoidales (por ejemplo la tanh x) y otras son funciones de umbral de Alfaomega Intetigon ia - Ponce: www.FreeLibros.m (i Entradas x Wy [pesos Petcentin X Wy Xs ¥ — w, Xa Wo 5A SB SC. sD Fig. 1.5 Estructura del perceptrén, la mas simple en las RNA. Es un discriminador binario lineal y puede ser entrenado para mejorar su desempefio. Las entradas de la neurona (5A), los pesos aleatorios (5B), la sumatoria de la multiplicacién de los pesos por sus respectivas entradas (SC) y la salida que es el edeulo de todos los pesos y sus entradas (SD). disparo. La eficiencia sindptica se representa por factores de peso de interconexién w,, desde la neurona ‘asta la neuron j Los pesos pueden ser positivos (exeitacién) o negativos (inhibicién). Los pesos junto con las fun ciones /12) dictan la operacién de la red neural, Normalmente las funciones no se modifican de tal ma- nera que el estado de la red neural depende del valor de los Factores de peso (sinapsis) que se aplica a los estimulos de la neurona. En un perceptron, cada entrada se multiplica por el peso w correspondiente y los resultados se suman, siendo evaluados contra el valor de umbral; si el resultado es mayor al mismo, el perceptron se activa, El perceptron s6lo es capaz de resolver funciones definidas por dos dimensiones. Un ejemplo de ‘una funeién que no puede ser resulta es el operador légico, El entrenamiento de un percepirén es por ‘medio de la regla de aprendizaje delta: Para cada peso w se realiza un ajuste dw segiin la reg: dw = noe— YX Donde 1/es la razén de aprendizaje, vel valor deseado, Yel valor obtenido y la entrada aplicada al perceptron. Redes de retropropagacién (backpropagation) Principios para entrenar una red multicapa empleando el algoritmo de retropropagacién Elalgoritmo Backpropagation para redes multicapa es una generalizacién del algoritmo de minimos eua- drados, Ambos algoritmos realizan su labor de actualizacion de pesos y ganancias con base en el ertor ‘medio cuadritico. La red Backpropagation trabaja bajo aprendizaje supervisado y por tanto necesita un Conjunto de instrucciones de entrenamiento que le describa cada salida y su valor de salida esperado. Si se considera la red de tres eapas con dos entradas y una salida de la figura 1.6, es posible apreciar {que cada neurona esté compuesta de dos unidades, donde la primera suma los productos de las entradas por sus respectivos pesos, y la segunda unidad contiene la funcién de activacién. La sefil e corresponde ala salida de la suma y y = fe) es la seal de salida del elemento no lineal de la funcién de activacién, asi como la salida de ia neuron, ingenieria = Ponce ‘Alfamega www.FreeLibros.me BH INTELIGENCIA ARTIFICIAL ” [Sumatoria} ——o} Funci6n no lineal Fig. 1.6 Red de dos capas. Para “ensefarle” a Ia red neural es necesario entrenar un conjunto de datos, el cual consiste en sefales de entradas x, y x, asignadas con objetivos correspondientes (salidas deseadas) denominadas 2, El entrenamiento es tin proceso iterativo, En cada iteracién los pesos de los nodos se modifican usando nuevos datos del conjunto para el entrenamiento. Las modificaciones de los pesos se calculan emplean- dol algoritmo de retropropagacién del error para el entrenamiento supervisado, Cada paso del entrenamiento comienza al forzar ambas entradas de salida del conjunto de entrena- ‘iento, Después es posible determinar los valores de salida de las seftales de cada neurona en cada capa de la red, La figura 1.7 muestra dos ejemplos de como se propaga la sefial a través de la red, donde los pesos w., cortesponden a la conexién de la salida de la neurona m con la entrada de la neurona n en la ‘capa sigitente, Fig, 1.7 Propagacién de las sefiales en las neuronas, En el siguiente paso del algoritmo, la salida de la red se compara con el valor objetivo deseado. La diferencia se denomina error de la seal (). Es imposible conocer el error en las neuronas de las capas Alfaomega Inteligoncia artificial con aplicacions www.FreeLibros.me ti intemas drectamente, debido a que los valores de sala de estas neuronas son desconocidos. El algo- ritmo de retropropagacidn propaga el eror de regreso a todas las neuronas,cuya slid fue la entrada de Js iltima neurona; esto se puede apreciar en la figura 18 = w 5 Pros LOKI me Fig. 18 Retropropagacién del error, capa de entrada, salida y ocultas. Posteriormente el error se va propagando @ las neuronas de capas anteriores considerande los pesos de las conexiones, segiin se muestra en Ia figura 1.9. Fig. 19 Retropropagacién del error en capas intermedias. Cuando se calcula el error para cada neurona, Ios pesos de entrada pueden modificarse segin los ejemplos que se presentan en la figura 1.10. Los coeficientes 7 afectan la velocidad de aprendizaje y pueden seleccionarse por distintos métodos. Uno de ellos implica que al inicio del proceso de entre- Fig. 1.10 Actualizacién de los pesos. ala Ingenieria « Ponce ‘Alfamega www.FreeLibros.me B INTELIGENCIA ARTIFICIAL namiento se efige un valor grande, el cual va deseendiendo gradualmente conforme avanza el proceso, Otro método comienza con parimetros pequefios que aumentan a medida que el proceso avanza y rnuevamente disminuye en la etapa final. Comenzar el proceso con un parimetro pequefio permite el cstablecimiento de los signos de los pesos, Finalmente, tanto para el controlador difuso como para la ted neural artificial, las acciones de con- ‘rol son sencillamente pasat los datos de salida a los dispositivos que se conecten o, en su caso, plantas virtuales previamente cargadas en el Sistema Didactico de Control Inteligente Multipropésito. ALGORITMOS GENETICOS Introduccion ‘Un algoritmo genético (AG) es una téenica de bisqueda iterativa inspirada en los principios de selec- cién natural. Los AG no buscan modelar la evolucién biol6gica sino derivar estrategias de optimiza- cin, El concepto se basa en la generacién de poblaciones de individuos mediante la reproduccién de los padres. Durante el curso de la evolucién, los genes con evolucién lenta fueron remplazados por genes con ‘mejor estrategia evolutiva. Por lo tanto, se esperan estrategias altamente eficientes en la fauna y la flora ‘modernas. Muchos problemas tiene funciones objetivo complejas y a optimizacién tiende a finalizar en mini- ‘mos/méximos locales. La idea de los AG es optimizar (hallar el maximo o minimo) una Funcién objetivo utilizando los principios de la seleccién natural sobre los parimetros de la funcién, Historia de los algoritmos genéticos La primera idea surgié en la esis de J. D. Bagley: “El funcionamiento de los sistemas adaptables em- pleando algoritmos genéticos ycorrelativos”,en 1967. Esta tess influy6 decisivamente en JH. Holland, ‘quien se puede eonsiderar como el pionero de los AG. En rigor, los AG pueden concebirse como métodos de optimizacién. En general, los problemas de mn se plantean dela siguiente manera x, € Xtal que fes un maximo en x,, donde f:.X— por lo tanto: See) = mix, J) Es casi imposible obtener una solucién en sentido estricto. Dependiendo del problema planteado, puede ser suficiente encontrar el maximo valor o el mas cercano al valor maximo; fes una funcién asignada para defini el valor de “aptitud” para cada individuo (esto es, por supuesto, una gran ayuda para simplifica). Definicién. Se asumiri que 5 es un arreglo de cadenas (es un caso no trivial en algunos aspectos de la gramitica). Proponiendo que Xs el espacio deseado para la optimizacién, se tended la siguiente funcién: e:Xo8 x etx) esta funcién se llama flncid rdificacién. Inversamente, la funcién B:8Kx ses) Alfaomega Intetigon ia - Ponce: www.FreeLibros.m

También podría gustarte

  • Lenguajes de Programacion PDF
    Lenguajes de Programacion PDF
    Documento120 páginas
    Lenguajes de Programacion PDF
    leitohest
    100% (1)
  • 03 de Mayo
    03 de Mayo
    Documento4 páginas
    03 de Mayo
    Luis Mariano Villavicencio Fuentes
    Aún no hay calificaciones
  • Tema 01
    Tema 01
    Documento17 páginas
    Tema 01
    Luis Mariano Villavicencio Fuentes
    Aún no hay calificaciones
  • PL Rozamiento Tec 2eval
    PL Rozamiento Tec 2eval
    Documento5 páginas
    PL Rozamiento Tec 2eval
    Saul Caudillo Valdivia
    Aún no hay calificaciones
  • 002 Kelito
    002 Kelito
    Documento1 página
    002 Kelito
    Luis Mariano Villavicencio Fuentes
    Aún no hay calificaciones
  • PL Rozamiento Tec 2eval
    PL Rozamiento Tec 2eval
    Documento5 páginas
    PL Rozamiento Tec 2eval
    Saul Caudillo Valdivia
    Aún no hay calificaciones
  • Desarrollar
    Desarrollar
    Documento1 página
    Desarrollar
    Luis Mariano Villavicencio Fuentes
    Aún no hay calificaciones
  • Conta 3
    Conta 3
    Documento2 páginas
    Conta 3
    Luis Mariano Villavicencio Fuentes
    Aún no hay calificaciones
  • Presupuesto Participativo
    Presupuesto Participativo
    Documento20 páginas
    Presupuesto Participativo
    Luis Mariano Villavicencio Fuentes
    Aún no hay calificaciones
  • La Recta - Serie 2
    La Recta - Serie 2
    Documento3 páginas
    La Recta - Serie 2
    Luis Mariano Villavicencio Fuentes
    Aún no hay calificaciones
  • El Lenguaje y El Arte de Escribir
    El Lenguaje y El Arte de Escribir
    Documento4 páginas
    El Lenguaje y El Arte de Escribir
    Luis Mariano Villavicencio Fuentes
    Aún no hay calificaciones
  • La Recta - Serie 1 - Venero
    La Recta - Serie 1 - Venero
    Documento4 páginas
    La Recta - Serie 1 - Venero
    Luis Mariano Villavicencio Fuentes
    Aún no hay calificaciones
  • Cálculo Diferencial - Ejerciciostipo1
    Cálculo Diferencial - Ejerciciostipo1
    Documento1 página
    Cálculo Diferencial - Ejerciciostipo1
    Luis Mariano Villavicencio Fuentes
    Aún no hay calificaciones
  • Elementos - Modelos y Clases - El Esquema
    Elementos - Modelos y Clases - El Esquema
    Documento8 páginas
    Elementos - Modelos y Clases - El Esquema
    Luis Mariano Villavicencio Fuentes
    Aún no hay calificaciones
  • Algunos Factores Que Influencian La Comunicación
    Algunos Factores Que Influencian La Comunicación
    Documento5 páginas
    Algunos Factores Que Influencian La Comunicación
    Luis Mariano Villavicencio Fuentes
    Aún no hay calificaciones
  • Problemas de La Comunicación
    Problemas de La Comunicación
    Documento2 páginas
    Problemas de La Comunicación
    Luis Mariano Villavicencio Fuentes
    Aún no hay calificaciones
  • Costos 1
    Costos 1
    Documento4 páginas
    Costos 1
    Luis Mariano Villavicencio Fuentes
    Aún no hay calificaciones
  • Ciudadela de Chan - Chan
    Ciudadela de Chan - Chan
    Documento4 páginas
    Ciudadela de Chan - Chan
    Luis Mariano Villavicencio Fuentes
    Aún no hay calificaciones
  • Uso de Las Normas Ortográficas
    Uso de Las Normas Ortográficas
    Documento5 páginas
    Uso de Las Normas Ortográficas
    Luis Mariano Villavicencio Fuentes
    Aún no hay calificaciones