TEORÍAS CONEXIONISTAS

1. INTRODUCCIÓN.

La psicología cognitiva tiene una historia muy reciente, aunque sus primeras propuestas se encuentran a finales de la década de los 40 y principios de los 50, no es hasta los años 60 cuando realmente se empieza a extender por el mundo entero.

El inmediato antecesor de la psicología cognitiva, el conductismo, fue hasta ese momento el mayor esfuerzo por conseguir de la disciplina psicológica una ciencia. Sin embargo en conductismo tropezó con varios problemas muy graves, donde los mas significativos fueron:

1. El conductismo es una ciencia sin sujeto, es decir, lo único importante es la estimulación ambiental, las conductas que son reforzadas, el ambiente en el que vive el sujeto, por tanto todos los sujetos en esencia pueden ser considerados iguales, la diferencias genéticas o carecen de importancia o son ignoradas. 2. El conductismo también rechaza la mente (o cognición), por lo que todo se reduce a un conjunto de estímulos y respuestas que operan mecánicamente. El conductismo estudia la conducta para explicar la conducta.

En los años 60 los dos argumentos fundamentales del conductismo, el ambientalismo y el organismo vacío comienzan a entrar en decadencia. La etología, la neurociencia, los desarrollos de la propia psicología van a propiciar una vuelta a los antiguos temas de la psicología mentalista pero con una perspectiva metodológica nueva. Nace así la psicología cognitiva con el objeto de estudiar la mente mirando la conducta.

La psicología cognitiva no solo difiere del mentalismo en el método, que es conocido como conductismo metodológico, según el cual la investigación psicológica debe descansar en la observación y experimentación de la conducta. También difiere en el concepto de “mente”, que ahora es considerada con un sistema capaz de manipular información. Cuando nació la psicología cognitiva esta solo se ocupaba de los estados informacionales, o sea, de la dimensión intelectual, por tanto aspectos como la motivación y emoción quedaba fuera de su espacio de estudio, ya que no suponía un estado informacional nuevo.

En este modo de ver la cognición influyeron tanto las ideas filosóficas racionalistas, que consideraban que la mente hacia una representación del mundo siguiendo unas reglas, como las tecnológicas, en concreto el ordenador de Von Neumann, que operaba mediante un procedimiento serial (los ordenadores actuales) y cada una de sus diferentes partes tenían atribuidas funciones concretas. Pero en 1986 D. E. Rumelhart y J. L. McClelland publican la obra “Procesamiento Distribuido en Paralelo” surgiendo así una nueva forma de entender la cognición, el conexionismo, al que algunos ya han denominado un nuevo paradigma en psicología, consideración esta última que veremos mas detalladamente.

Entre la psicología cognitiva clásica y el conexionismo o procesamiento distribuido en paralelo hay similitudes y diferencias que se puede resumir en:

1. Computación.- para ambos modelos teóricos la computación en el núcleo central de ambas teorías, sin embargo cada uno concibe la computación de maneras muy distintas: a. Para la psicología cognitiva clásica la computación se realiza mediante la aplicación de un conjunto de reglas a entidades situadas al nivel de la psicología popular (creencias y deseos básicamente). Para el conexionismo la computación se realiza entre las unidades de una red en función de sus pesos de conexión. b. Para las dos es adecuado el uso de la simulación por ordenador, pero para la psicología cognitiva clásica la simulación se realiza a modo de un ordenador serial, mientras que para los conexionistas la arquitectura del ordenador es semejante el cerebro. c. La psicología cognitiva clásica propone la lógica y las reglas de tipo sintáctico y semántico como ocurre en los programas de inteligencia artificial. En el conexionismo el cálculo se lleva a cabo mediante procedimientos estadísticos. 2. Objetivos.- Para la psicología cognitiva clásica el objetivo es descubrir las reglas, elementos y estructuras básicas que rigen el procesamiento humano. Para el conexionismo es el descubrimiento de redes adecuadas de simulación y reglas de aprendizaje eficientes. 3. Aprendizaje.- La psicología cognitiva clásica se mantiene en posturas innatistas y rechaza explícitamente el asociacionismo, mientras que el conexionismo en cierto sentido es una forma de asociacionismo y mantiene la idea de mente como una “tabula rasa” en la que el ambiente va modelando los pesos de conexión de la red. Para algunos estas diferencias separan al conexionismo de la psicología cognitiva y lo aproximan al conductismo, dado que este defiende asociacionismo y ambientalismo.

2. CARACTERÍSTICAS GENERALES DE LOS MODELOS CONEXIONISTAS.

Algunos prefieren llamar al conexionismo neoconexionismo, para diferenciarlo de aquella forma de conexionismo que propuso Alexander Bain en la segunda mitad del siglo XIX, autor que también destaco la importancia de las conexiones entre neuronas y la investigación y experimentación fisiológica. El conexionismo también es conocido como procesamiento distribuido en paralelo o PDP.

En inteligencia artificial los métodos de computación basados en redes neurales se encuentran en un campo de computación que prescinde del enfoque algorítmico tradicional y toma como modelo los sistemas biológicos. Esta nueva forma de computación incluye entre otras:

1. 2. 3.

la lógica borrosa las redes neuronales razonamiento aproximado

y recibe los nombres de computación cognitiva, computación del mundo real o computación sof, para distinguirlo del enfoque algorítmico tradicional o computación hard.

En psicología llamamos conexionismo al paradigma que utiliza redes neuronales para comprender y explica la vida psíquica y la conducta. Las redes neuronales son conjunto de unidades interconectadas masivamente capaces de procesar y almacenar información mediante la modificación de sus estados. Aunque con matices, un psicólogo conexionista considera un fenómeno psicológico explicado cuando el modelo neuronal que construye se comporta del mismo modo que cuando los seres humanos realizan esa misma tarea.

Los elementos característicos presentes en la mayoría de los modelos conexionistas son:

1.

La red es un conjunto de unidades de procesamiento muy simples.

2. Toda unidad de la red viene definida por un nivel de activación expresado de forma cuantitativa. Ejemplos de ellos son el MARK IV y el ANZA Plus 2. pero las maquinas mas adecuadas son las que reproducen en su arquitectura la propia arquitectura de la red. El procesamiento y almacenamiento de la información se realiza de manera distribuida y paralela. transformar una señal de entrada en una señal de salida. Los estímulos que afectan a las unidades de entrada se expresan en términos cuantitativos. 8. 3.. 7. 9. Dichas unidades interactúan mediante conexiones que los asocian.. Las señales de salida se expresan en términos cuantitativos. de arquitectura Von Neumann. IMPLEMENTACION DE LAS REDES NEURONALES. Existen ciertas reglas o funciones que modifican el nivel de activación a partir de las entradas para la producción de una salida a partir de un nivel de activación. Las redes neuronales suelen implantarse en ordenadores convencionales.en este caso las redes neuronales se implementan un uno o varios circuitos integrados específicos. 4. La función presente en la red y que realiza el cómputo es básicamente el patrón o conjunto de pesos sinápticos de las unidades. es decir. es decir. Soportan menos neuronas que los neurocomputadores. Existen ciertas reglas o funciones de aprendizaje que permiten a la red modificar los pesos de conexiones para acomodar de modo mas perfecto la información de entrada a la salida requerida. Neurochips. 5. Las maquinas mas conocidas son los neurocomputadores y los neurochips. también expresado de forma cuantitativa. La función de cada unidad es simplemente realizar cálculos con las entradas que recibe y producir una salida a las unidades con que esta conectada. 3. pero su velocidad .constan de un conjunto de procesadores conectados entre si que operan concurrentemente. 10. Toda conexión se caracteriza por un valor de fuerza del trazo o peso de conexión. Neurocomputadores. Toda red neural es un dispositivo que permite computar una función. 11. 6. 1.

ahora examinaremos algunas de ellas. clasificar patrones. 3. pues las interconexiones entre neuronas se encuentras dentro del propio chip. Un ejemplo de estas es el chip N64 de Intel. es mas. La mayoría de los modelos existentes tienen que ver con el reconocimiento de patrones: busca patrones. . reconstruir patrones. desde las tesis funcionalistas (base de la psicología cognitiva clásica) se consideraba que los procesos mentales podían ser comprendidos sin que para ello fuese precisa la realización de los modelos en un sistema físico. Se ha pasado pues de la metáfora del ordenador de la psicología cognitiva clásica a la metáfora del cerebro en el conexionismo..las maquinas anteriores son de propósito general. El conexionismo por el contra toma el cerebro como modelo de procesamiento. lo cual es interesante desde el punto de vista de la unidad en las ciencias..es muy superior. 5. Inspiración neurofisiológica. CAMPOS DE APLICACIÓN DE LAS REDES NEURONALES. DIFERENCIAS ENTRE EL CONEXIONISMO Y LOS MODELOS COGNITIVOS TRADICIONES. Los campos de aplicación se encuentran fundamente en la psicología y en la inteligencia artificial. Algunas redes trabajan sobre datos sensoriales mientras que otras sobre datos introducidos por el usuario. 4. Existen importantes diferencias entre la psicología cognitiva clásica y el conexionismo. 5. la psicología y la biología se convierten en disciplinas cada vez mas cercanas. pero también hay maquinas para implementar modelos específicos de redes neuronales. La psicología cognitiva no daba importancia a la base orgánica de la vida mental. Con el conexionismo la inteligencia artificial.1. Neurocomputadores de propósito especial. por lo que de esta manera el conexionismo se aproxima a la biología.. aunque también encontramos ejemplos en la biología.

sino de un gran conjunto de ellas. no obstante no se preocupan por reproducir otros. Axón. como por ejemplo: . estas se conectan entre si formando redes extraordinariamente complejas donde cada neurona toma una señal y sobre ella devuelve o no una señal de salida a la neurona siguiente con que se encuentra conectada. Dendritas. de este modo la respuesta de la neurona es siempre una respuesta de todo o nada. Las unidades básicas del sistema nervioso son las neuronas. se de es preciso que el axón y las dendritas de las neuronas se conecten.es el punto por el cual las neuronas reciben las señales de las demás neuronas.El conexionismo no pretende ser una teoría biológica.su función es transmitir la señal a las demás neuronas cuando así lo ha determinado el soma... sino una teoría psicológica inspirada biológicamente. 2.. Para que la neurona envíe una respuesta a las siguientes es preciso que se supere un determinado umbral de impulso eléctrico. Se produce así un procesamiento paralelo. 2. y distribuido por que el resultado del procesamiento no dependen de la señal emitida por una neurona. 3.su función es recibir la señal y determinar si se produce o no una salida o respuesta hacia las demás neuronas de la red. porque las diferentes neuronas reciben señales de manera simultanea. En las neuronas cabe destacar las siguientes partes fundamentales: 1. Cuerpo celular o soma. Como hemos visto las redes conexionistas tratan de replicar algunos aspectos muy importantes del sistema nervioso. Para que la transmisión de la señal. que es un impulso eléctrico. de tal forma que para conocer la respuesta de una neurona es preciso conocer la suma del total de impulsos recibidos. esta conexión se lleva a cabo mediante la liberación de una sustancia conocida como neurotransmisor. Así podemos encontrar puntos comunes entre el funcionamiento del sistema nervioso y las redes conexionistas: 1. Los neurotransmisores pueden ser excitadores o inhibidores.

Por tanto la estructura y organización del sistema nervioso parece no tener mayor importancia. Procesamiento distribuido. En las redes conexionistas el peso de las conexiones se establece inicialmente de manera aleatoria y se modifica por aprendizaje por lo que prima el ambientalismo frente a los componentes innatos. En el sistema nervioso el aprendizaje da lugar a modificaciones en la fuerza de conexión entre las neuronas. El procesamiento es paralelo.2. La diferencia estriba pues en el modo en como procesamos las personas y las maquinas. el procesamiento en si. pero también da lugar al establecimiento de nuevas conexiones. aparentemente sencillas. no hay viarias partes cada una de las cuales se encarga de la . En los modelos conexionistas solo se modifica l fuerza de conexión. en un procesamiento en paralelo en cada momento se realizan tantas operaciones como unidades participan en el procesamiento completo. estos ordenadores se caracterizan por una gran capacidad para dar grandes resultados en periodos muy breves de tiempo con una precisión casi absoluta. no serial. y el almacenamiento de la información. 2. 5. que puede hacer un niño de 3 años y no puede hacer los ordenadores mas sofisticados y el software mas sofisticado. El carácter distribuido de las redes conexionistas hace referencia a dos aspectos muy importantes. Las redes conexionistas diseñadas hasta ahora constan como mucho de varias centenas de unidades y varios miles de conexiones.1.3. 3. mientras que el sistema nervioso consta de aproximadamente 1011 neuronas y 1015 interconexiones. En un procesamiento serial en cada momento solo se realiza una operación. 5. ordenadores tipo Von Neumann. No obstante hay tareas. En los modelos conexionistas no hay una unidad central de procesamiento como ocurre en los ordenadores tipo Von Neumann. La inmensa mayoría de los ordenadores que existentes son ordenadores seriales.

solo hay tres elementos. Computación sin reglas. y no a una parte de ella. Una calculadora digital donde se representan cada uno de los valores numéricos por la combinación de un máximo de 7 palotes. Sencillos ejemplos de procesamiento distribuido lo podemos encontrar en: 1. Las matrices que nos permiten mostrar como un conjunto de elementos puede procesar distintos conjuntos de datos para producir cada uno la salida correspondiente.4. entrada. .realización de una serie de funciones concretas y especificas. 2. símbolos estos que poseen un significado. 5. ni tampoco una unidad concreta almacenada puede dar una pista de que información esta siendo almacenada si no es contemplada toda en su conjunto. En los modelos conexionistas la computación no es otra cosa que el cálculo de señales de salida en función de la señal de entrada. pero no lo es ya que el computo es puramente cuantitativo. todos ellos expresados en términos cuantitativos. El resultado del procesamiento corresponde a la totalidad de la unidad de procesamiento. Mediante funciones adecuadas de aprendizaje las redes pueden modificar sus pesos de modo que los vectores de entrada produzcan un vector de salida con un resultado estadísticamente aceptable. En la psicología cognitiva clásica la computación se realiza siguiendo una serie de reglas en la manipulación de símbolos. De la misma manera el almacenamiento de la información no se realiza en un lugar concreto como ocurre en los ordenadores tipo Von Neumann. En el conexionismo el aprendizaje se define como la modificación de los pesos de conexiones para la transformación de los vectores de entrada en vectores de salida. cálculo y salida. Este método de procesamiento puede parecer guiado por reglas. Una de las grandes ventajas del procesamiento distribuido es que el daño o perdida de algunas unidades no tiene efectos dramáticos sobre el funcionamiento de la red.

cuando se realiza una búsqueda incompleta o errónea el sistema puede dar una respuesta.El reconocimiento de patrones parece ser una de las tareas a las que mejor se adaptan las redes conexionistas. El aprendizaje es en estos modelos la modificación de los pesos o fuerzas de conexión existentes entre las unidades. . Esto se debe a que por su estructura distribuida y paralela las redes conexionistas son redundantes tanto en procesamiento como en almacenamiento de la información. Tolerancia a los fallos. unidades necesarias. interconexión entre ellas. 5. pero no podemos describir en que consisten dichas semejanzas. Los problemas mas importantes a la hora de diseñar una red se refieren a la obtención de una arquitectura apropiada (número de capas. Una consecuencia de al ausencia de reglas explicitas es que con este sistema de procesamiento reconocemos semejanzas. no la adquisición de reglas o algoritmos explícitos. En las redes conexionistas cuando se produce un fallo en algunas de sus unidades el efecto no es catastrófico (como ocurría en los modelos seriales). BREVE HISTORIA DEL CONEXIONISMO. De esta manera las rede neuronales pueden ser caracterizadas como sistemas dinámicos autoadaptativos: 1. 2. Otra característica importante es la relativa a la tolerancia a los fallos.5. funciones de activación y transferencia) y un buen algoritmo de aprendizaje que permita a la red discriminar entre distintos estímulos. Degradación elegante. Dinámicos por que pueden cambiar constantemente para adaptarse a las nuevas condiciones que imponen los nuevos conjuntos de datos o vectores de entrada que se le presentan. En estos casos lo que ocurre es que la red llega a reconocer varios patrones de entrada que tienen elementos comunes pero no son idénticos con un mismo patrón de salida. 6. Autoadaptativos por que ellas mismas sin que exista una unidad rectora pueden ajustar sus unidades de procesamiento de modo conveniente para producir un vector de salida requerido. solo afecta en eficacia y precisión en función de la magnitud del daño.

Hasta la primera mitad del siglo XX. Posteriormente. Las primeras aportaciones destacables provienen del campo de la neurofisiología. Lashley y Hebb se enfrentan a las teorías imperantes sobre el carácter localista del almacenamiento y las funciones cerebrales. La memoria asociativa.2. propuso el carácter distribuido de la información y formulo uno de los primeros procedimientos de aprendizaje según el cual conjuntos de neuronas sincrónicamente activadas tienden a organizarse en conjuntos conectados. el recuerdo de una puede llevar al recuerdo del otro. donde Luria. Desde hacia mucho tiempo era ya sabido que cuando dos recuerdos tienen puntos comunes.1. que defendía la conexión entre la fisiología y la psicología. Lashley llego incluso a afirmar la equipotencialidad cerebral. el neurofisiólogo Warren McCulloch y el matemático Walter Pitts trataron el cerebro como un organismo computacional y propusieron una un tipo de red neuronal que a diferencia de las actuales funcionaba bajo un enfoque lógico y no uno probabilístico.6. pero en absoluto en neuronas singulares. En estos años se emplearon las redes neuronales para dar cuenta de la memoria asociativa y el reconocimiento de patrones. proponiendo una concepción distribuida. Una de las aportaciones mas importantes corresponde a Donald Hebb. o las que manejamos en la actualidad) . en 1943. Sus investigaciones demostraron que la especialización podía darse en grandes regiones del cerebro. según la cual cualquier parte del cerebro puede desempeñar cualquier función. 6. A este tipo de neuronas elementales las llamaron neuronas formales.2. 6.1. Años 50 y 60. En esta línea Wilfrid Taylor propone una red de tres capas de pesos modificables pero sus neuronas no son biestables (como las de McCulluch-Pitts.

carácter relativamente indiferenciado del cerebro importancia del aprendizaje en la organización neuronal 3. Sus unidades eran binarias. En 1956 John Von Neumann mejoro las redes McCulluch-Pitts creando redes confiables. incapacidad de clasificar clases o patrones no separables linealmente. Aunque se doctoro con un trabajo que tenía como puntos fuertes: 1. Poco después Frank Rosenblatt defiende los métodos probabilísticos mas que los lógicos para la computación en redes neuronales. En 1963 Shamule Winograd y Jack Cowan mejoraron la propuesta de Von Neumann con una propuesta aun mas distribuida. mejora la regla de aprendizaje de Hebb y presenta una red llamada “perceptrón” que consta de dos capas. construcción de una maquina que reproduzca los aspectos sustanciales de la cognición humana . es decir. El perceptrón era capaz de reconocer patrones sencillos y generalizar similitudes entre patrones. la disyunción exclusiva. pero no podía resolver un problema aparentemente sencillo. El procedimiento de entrenamiento es la regla de Hebb. e inicialmente sus pesos de conexión eran aleatorios. Probó que estas redes podían hacer cálculos aritméticos de manera muy confiable.2. De esta manera introduce la redundancia en la red para evitar el fallo catastrófico por perdida de unidades. por un lado hizo aportaciones al conexionismo. compañero de Rosenblatt.2. sino un conjunto de ellas. la primera sensorial y la segunda motora. 6. El reconocimiento de patrones.sino analógicas. Estas redes asociativas se les llama hoy memorias asociativas direccionables o accesibles por contenido (ACAMs). 2. como las del tipo McCulluch-Pitts. donde los valores no los aportaba una neurona. y además cada neurona representaba parcialmente varios bits. y por otro lado también a la psicología cognitiva clásica. En las redes Winograd-Cowan un bit se representaba mediante varias neuronas. Marvin Minsky.

Llamaron adaline a su red (neurona lineal adaptativa). Años 60 y 80. Probaron que aunque dichas redes podían modificar sus pesos de conexión no podían resolver mas que problemas linealmente separables. Limitaciones de los perceptrones y adalines elementales. o de realizar tareas tan sencillas como la disyunción exclusiva.2.3. La única diferencia con el perceptrón es el procedimiento de aprendizaje o el entrenamiento utilizado. Este autor en lugar de hablar de neuronas en su modelo habla de “demonios”.no tardo mucho en abandonar tales postulados dejando de la do el enfoque conexionista defendiendo la idea de que para comprender la mente humana no es preciso el estudio del cerebro atendiendo única y exclusivamente al comportamiento (tesis fundamental de la psicología cognitiva clásica). Esto se demostró falso a partir de 1986 cuando se descubrió la regla delta generalizada y la validez de su uso en redes con capas ocultas. 6. El ADALINE fue la primera red neuronal aplicada a un problema real (como filtro para eliminar ecos en las líneas telefónicas) y se ha usado durante varias décadas. se soluciono así el problema de la disyunción exclusiva presentado por los perceptrones y adalines. Marvin Minsky y Seymour Papert demostraron que los perceptrones y adalines elementales (los que solo constan de dos capas) eran incapaces de distinguir entre patrones tan sencillos como T y C. formando así redes multicapa. .3. Pero mas que la importancia del error de este trabajo de Marvin Minsky y Seymour Papert fue que tras sus criticas las autoridades americanas dirigieron sus fondos a la inteligencia artificial y a la psicología cognitiva clásica con el consiguiente freno para el desarrollo de los modelos conexionistas. Bernard Widrow y Marcial Hoff desarrollaron una variable del perceptrón y un nuevo procedimiento de aprendizaje llamado regla delta del aprendizaje. Además argumentaron que esta dificultad no se podía superar agregando unidades ocultas. Selfridge desarrollo el modelo llamado Pandemonium y se caracteriza por que realiza un procesamiento interactivo. 6.

Pero el impulso mas definitivo es sin duda el que tiene como protagonistas a David E. Feldman y D. Rumelhart. A. En esta obra se tratan importantes cuestiones.J. pero destaca la demostración de cómo las redes de mas de dos capas pueden solucionar las objeciones matemáticas propuestas por Minsky y Papert y que limitaron el desarrollo de las redes neuronales. Anderson. el que estudia la psicología cognitiva clásica (nivel estructural) y un nivel de procesamiento mas bajo en el que se sitúan los trabajos del conexionismo (nivel microestructural). del que quizás el mas conocido es la red Avalancha para el reconocimiento del habla y aprendizaje del movimiento de los brazos de un robot propuesta en 1967. “Procesamiento Distribuido en Paralelo: exploración de la microestructura de la cognición” publicado en 1986. James. Realizó las primeras investigaciones sobre aprendizaje competitivo y subrayo la importancia de los modelos conexionistas en campos como la percepción y la memoria. Ha desarrollado diversos modelos de redes. A. Fueron también importantes sus trabajos en memoria asociativa por contenido y nuevos modelos de redes. y que culmina con la aparición de lo que se ha llamado la “Biblia del conexionismo”. J. A. H. y es esta trayectoria es fundamental la obra de G. Hofstadter (1985) defiende la existencia de dos niveles de procesamiento. en la que este último estudia el hardware del sistema nervioso real y propone modelos neuronales sencillos basados en los biológicos y destinados a explicar procesos cognitivos. Ballard (1982) desarrollaron muchos de los principios computacionales del enfoque que hasta este momento se había llamado Procesamiento Distribuido en Paralelo y usan por primera vez el nombre de conexionismo. Hinton y la de J. Stephen Grossberg es uno de los mas destacados investigadores en el ámbito conexionista. criticaron también el enfoque tradicional de la inteligencia artificial pro su poca plausibilidad biológica. Es en los años 80 cuando el conexionismo toma auge. McClelland y varios investigadores mas que forman lo que se ha llamado el grupo PDP. L. . Anderson en 1977 presento análisis matemáticos de algunas propiedades de las redes neuronales y defendió la relevancia de las representaciones distribuidas en distintos campos de la psicología. E.

el que se organizo en la UNED en el curso 87-88 dio lugar a la edición de Introducción al Procesamiento distribuido en Paralelo. Entre octubre de 1987 y febrero de 1988 el Instituto Tecnológico de Massachussets (MIT) patrocinado por la Oficina de Tecnología Táctica de la Agencia de Proyectos de Investigación Avanzada del Departamento de Defensa de los Estados Unidos (DARPA/TTO) llevo a cabo una revisión de la investigación y tecnología basada en redes neuronales llevada a cabo hasta ese momento. ELEMENTOS DE LAS ARQUITECTURAS CONEXIONISTAS. En España también se ha creado una sociedad para la investigación de redes neuronales que ha organizado varios congresos y seminarios. Se convierte así el conexionismo en un movimiento revolucionario en el panorama de la ciencia cognitiva.A partir de Procesamiento Distribuido en Paralelo. La entrada (input) total La regla de propagación Las conexiones entre las unidades (las sinapsis) El peso sináptico El estado de activación La regla o función de activación La salida (output) de las unidades La función de transferencia . En este contexto se crean la Sociedad Europea de Redes Neuronales (ENNS) y la Sociedad Internacional de Redes Neuronales (INNS). se incrementa enormemente la investigación en redes neuronales tanto desde la Inteligencia Artificial como desde la psicología. El programa europeo ESPRIT diversos proyectos en este campo. 7. los relativos a su estructura y los relativos a los mecanismos de procesamiento: Conceptos y elementos de la arquitectura conexionista Las unidades Conceptos y mecanismos básicos para el procesamiento en las redes conexionistas. En las redes conexionistas es preciso distinguir dos tipos de elementos.

unidades. tratamiento de la información y su envío a otras unidades. elementos. y dado que los modelos conexionistas son de inspiración biológica. Unidades ocultas. Unidades de entrada. 2. aunque también podemos encontrar nombres como: células. Los elementos básicos del procesamiento de información en el cerebro son las neuronas. nodos.. Esta información de salida se puede enviar al medio ambiente o bien a la entrada de otras redes.. . La función de las unidades tiene que ver la recepción de información. Existen tres tipos de unidades: 1. 7. que es el número de elementos (unidades de entrada) que excitan o inhiben una unidad dada (de la/s capa/s oculta) y el abanico de salida (fan-out) que es el número de unidades (de la/s capa/s oculta) que afectan a cada unidad de salida.El patrón de conexión Reglas de aprendizaje 7. elementos de procesamiento (PEs) o. Se llama capa. 3. sistemas motores. Su función es relacionar la información de la unidades de entrada con las unidades de salida. a otra capa de neuronas). nivel o estrato al conjunto de neuronas que reciben información de la misma fuente (información externa. La cantidad de información que puede procesar una red viene determinada en gran medida por el abanico de entrada (fan-in).1. Unidades de salida. Conceptos y elementos de la estructura conexionista. su función es favorecer cómputos mas eficaces.envían la información procesada al exterior de la red. Las unidades.su función es recibir información del fuentes externas a la propia red.1. simplemente. por lo que no tienen ningún tipo de contacto con el ambiente exterior a la red. otra capa de neuronas) y ofrecen información al mismo destino (al usuario. si se encuentran en aquellas que tienen un mínimo de sofisticación. neuronas artificiales. 7.2.1.. a las unidades básicas encargadas del procesamiento se las denomina habitualmente neuronas.1.aunque no todas las redes poseen estas unidades. Las conexiones entre las unidades (las sinapsis).

Los cálculos que el sistema realiza a partir de la señal de entrada para producir la señal de salida dependen de los pesos. Peso sináptico o peso de la conexión. El peso sináptico es un de los conceptos mas importantes por varias razones: 1. es débil en el caso contrario.el impulso transmitido por una neurona inhibidora inhibe la activación de la neurona con la cual está conectada. 7.3. Las sinapsis excitatorias se suelen representar por puntos huecos o vacíos.1. Sinapsis inhibidora. . 2. 3.. Los pesos sinápticos son valores numéricos enteros. positivos o negativos. cuando vamos a representar mediante un único vector la totalidad de pesos correspondiente a un conjunto de neuronas usamos la W mayúscula.el impulso transmitido por una neurona excitatoria aumenta la activación de la neurona con la cual está conectada. Sinapsis excitadora. fraccionarios. e inhibirá en función del peso establecido para esa conexión. Cuando nos referimos a una única conexión emplearemos la w minúscula. Una sinapsis en fuete o tiene gran peso si la información que por ella se aporta contribuye en gran medida a que se produzca un cambio de estado en la neurona receptora. y aumentará en función del peso establecido para esa conexión. Las sinapsis inhibidoras se suelen representar por puntos negros. Los cómputos que hace la red dependen de los pesos de conexión. 2.4. Las sinapsis pueden ser de dos tipos: 1. 7..1. en la mayor parte de las redes las sinapsis son unidireccionales. sin embargo en algunas redes como las de Hopfield las sinapsis son bidireccionales. Respecto a la notación. En cierto modo son el análogo de las representaciones en los modelos tradicionales.Las sinapsis son las conexiones entre neuronas. El patrón de conexión.

Cada unidad utiliza una función de salida. cuando el valor es cero significa que dicha unidad no esta conectada. en forma de cantidades y formulas aplicadas a cantidades. 2. almacena transforma y envía se expresa en términos matemáticos. 7. El número correspondiente a w representa la fuerza de la conexión. “fi”. donde cada uno de los elementos de la matriz w indica el peso correspondiente a la conexión entre la unidad j y la unidad i. 4. dicho patrón determinara el modo en que la red procesa las siguientes señales de entrada. Toda la información que la red recibe. pero teniendo en cuenta: . En los modelos mas simples la entrada total depende de los valores de entrada y de los pesos que ponderan como se tratara esa entrada en ese momento concreto. Una neurona recibe la señal de todas las neuronas con las que esta conectada. Para representar un patrón de conexión se utiliza una matriz de pesos W.1. que calcula la señal de salida (oi) a partir del estado de activación que en ese momento tiene la neurona. La representación interna de la información se genera en las sinapsis o conexiones y en la actividad de las neuronas o unidades. A cada neurona (unidad i. Dado que las redes modifican sus estados a través del tiempo. y el signo + o – indica si es excitatoria o inhibitoria.En los modelos conexionistas el conocimiento que la red alcanza a partir del aprendizaje se representa mediante un patrón de conexión. es también importante introducir en la descripción de los estados la referencia al tiempo: 1. La tarea de cada neurona o unidad es recibir las entradas de sus vecinas y calcular un valor de salida que es transmitido a las neuronas que le siguen. particularmente en las de la capa oculta. 3. Notación utilizada para representar los elementos y mecanismos de las redes conexionistas. ui) le corresponde en cada instante un valor numérico denominado valor o estado de activación. La señal de salida se transmite a otras unidades con las que dicha neurona esta conectada.2.

y para la entrada total NET en mayúsculas. b. 7. Para referirse al peso de cada conexión se emplea tanto la “O” mayúscula como la minúscula “o”. Llamamos regla de propagación a la formula que nos permite calcular o entrada total o NET. pero también se puede encontrar como referencia a la activación actual a(t-1). 2. La entrada (input) total. Dado que es preciso referirse a las funciones de activación y a la de transferencia pera la primera usaremos “F”.2. La referencia a la activación actual se suele denominar como a(t) y la siguiente como a(t+1). a la suma de todas las señales ponderadas por el peso de las correspondientes se le llama NETi. b. se emplean varias estrategias: a. Para distinguir la parte de la formula que corresponde con el nombre de las unidades de la parte de la formula correspondiente a otros elementos. por lo que es preciso calcular el efecto global que tendrá ese conjunto de señales o input. El peso asociado a cada una de las conexiones. La intensidad o señal que se transmite por la sinapsis. La función de activación se suele presentar por “Fa”. wij. La notación empleada en las redes neuronales no es unánime: 1. El input total se denomina NET. Letra normal para el nombre de la unidad y negrita para el resto. 3. La regla de propagación. Subíndice para los nombres y letra normal para el resto. Para el peso global “W” en mayúscula o minúscula. pero la mas sencilla y habitual es la siguiente: . y la activación siguiente como a(t). 5. Las unidades o neuronas se representan como “u” o como “n”. teniendo en cuenta la entrada total calculada o NET y su anterior estado de activación ai(t).a. y para el caso de la entradas que recibe una neurona i en un tiempo t NETi(t). El nuevo estado de activación ai(t+1) de la neurona i se calcula mediante una función de activación “Fa”. 5. Existen varias formulas de propagación.2. Una neurona recibe señales de diferentes neuronas. pero también por “F”. 4. minúsculas o comenzando por mayúscula o minúscula. y para la segunda “f”.

del estado anterior de activación de las entradas que la neurona recibe de los pesos de las conexiones por las que recibe las señales . corresponde al instante anterior a la modificación de la neurona i.. También es habitual referirse al conjunto de valores de entrada de una unidad como el vector O(t). 2.... 7. Es el vector de valores que produce una neurona y que le es entregado a la neurona siguiente. . Cuando una señal se recibe por una sinapsis inhibidora el peso wij asociado a dicha sinapsis será negativo.3.NETi(t+1) = ∑wij * oj(t) donde: 1. 2. El estado de activación. oj – señales que llegan a la neurona i con un peso de conexión dado. wij). wi3. En ocasiones los pesos de todas las conexiones se pueden presentar mediante una matriz Wij que incluiría todos los pesos de conexiones con la neurona i (wi1. wi2.. NETi – es la suma de todas las señales que llegan a la neurona i. La activación es el grado de excitación de una neurona y cambia en función de cuatro factores: 1... por lo que el resultado del producto será negativo.2. La activación es muy importante puesto que la señal que envía la propia neurona depende de su propio estado de activación. 3.

valores que se encuentran dentro de un pequeño conjunto. Así nos referiremos al nivel de activación de una neurona i en un tiempo t como Ai(t) o también ai(t)..se llaman también modelos no acotados o modelos sin limite. por lo que también es preciso especificar dicho patrón. 2. Hay muchos modelos de redes conexionistas. Valores discretos no binarios. pueden tomar cualquier número real comprendido dentro de unos limites... Dado que cada ciclo de activación puede ser distinto. +1] . Cerrados. b. De este modo cabe caracterizar el procesamiento que realiza la red como la evolución que sufren en el tiempo los patrones de activación de las unidades. Para ello se suele emplear un vector de N números reales a(t) que representa el estado de activación de todas las unidades de la red en un momento t. es muy importante la referencia temporal. Abiertos. b. el valor de activación de una neurona puede ser cualquier número real. Se llama ciclo a cada una de las veces que la red toma vectores de entrada para realizar los cómputos correspondientes para calcular una salida.. Discretos: se corresponden con los modelos mas sencillos. a. Continuos: a. Los mas empleados son los siguientes: 1.son los mas frecuentes y representan los dos posibles estados de una neurona. activada y desactivada. Lo que la red representa en cada momento depende del patrón de activación de todas las unidades que forman la red. Binarios. por ejemplo: [-1. y los valores de activación que pueden tomar las unidades pueden ser diversos.4. generalmente siguen una función sigmoidal. 0. la función de activación que calcula el punto de activación en función de las entradas recibidas.también son denominados modelos acotados o modelos con limites.

1. Concepto y formula general de la función de transferencia. La función de transferencia.El comportamiento de las redes con distintos tipos de valores de activación son también distintos. 3. 7. 7. Los pesos de las conexiones de las unidades de entrada. En algunas redes se incluye en este tipo de función de activación un factor que representa una fracción de valor de activación anterior con el objetivo de que el estado de la neurona o unidad no varíe demasiado bruscamente. . Si las entradas responden a señales analógicas los modelos mas adecuados son los continuos. El estado de activación dependen de la función de activación.2. 7. Función de activación tipo umbral.5.4. Todas las entradas que recibe de otras unidades. 1. se pasa de un estado al otro. El anterior estado de activación (aunque esta cantidad no siempre se tiene en cuenta). marcado por el diseñador de la red. Tipos de funciones de activación. 2. Función de identidad. Concepto y formula general.2.2. los mas adecuados son los discretos. La regla de activación. La salida de las unidades.1.2.4. 7. 2.. dicha función calcula la nueva actividad de la unidad a partir de: 1. 7. cuando se supera un determinado nivel. pero si la entrada es digital.es una función que no tiene en cuenta el anterior estado de activación de la unidad.se emplea en redes cuyas neuronas solo pueden tener dos estados..5.2.2. que no es otra cosa que una función matemática empleada para calcular el siguiente estado de activación.4.

o lo que es lo mismo. 2. Su grado de activación.2. La respuesta de salida será binaria. equivale a no aplicar una función de salida. 7. Función de umbral o función de escalón. Por tanto unidades el mismo grado de activación pero distinta función de salida producirán distintas señales. Esta función es adecuada cuando la función de activación que hemos empleado es de tipo umbral. Existen varios tipos de funciones de transferencia. La salida se activa solo cuando el estado de activación es igual o superior a un cierto umbral. Función de identidad o función lineal.5. función que suele ser la misma para todas las unidades de la red.2. La función de escalón o umbral solo se utiliza en redes binarias. . La unidad envía señales de salida solo cuando su activación es igual o mayor a un cierto umbral. Las funciones mixta y sigmoidal son las mas apropiadas cuando trabajamos con información analógica. Tipos de función de salida o de transferencia. Se llama función de identidad por que la salida es igual a su estado de activación. a dicha función se le llama función de transferencia. La función matemática que modula el estado de activación provocando la señal de salida. Es la mas sencilla y de menos uso.El grado en el que una neurona afecta a las siguientes con las que esta conectada depende de dos factores: 1.

es una de las funciones de transferencia mas utilizadas. las neuronas se pueden clasificar en lineales y no lineales.es similar a la función sigmoide. Atendiendo a los tipos de funciones que intervienen en el cómputo. La respuesta de las neuronas lineales no esta acotada. En esta función si la activación esta por debajo del limite inferior de un intervalo da una salida. Neuronas lineales.Función mixta. si esta por encima del limite superior del intervalo da otra salida..tienen funciones de activación y transferencia lineales o proporcionales. puede tomar cualquier valor. y si se encuentra dentro del intervalo da una función lineal de la activación. Los cómputos que realizan las neuronas lineales de mas de dos capas pueden ser realizados con neuronas no lineales de dos capas.. produce salidas continuas y proporcionales al nivel de activación dentro del rango 0-1. Son las funciones en las que los incrementos o disminuciones de la intensidad de la actividad de al unidad producen incrementos o disminuciones de los valores de salida hasta llegar a unos limites de salida máxima o mínima a partir de los cuales la salida se estabiliza y es la misma a pesar del incrementos o disminución de la intensidad de actividad de la unidad. Funciones de saturación. por lo que la composición de ambas da lugar a otra función lineal. Hay varias funciones de saturación siendo la mas usada la función sigmoide.. pero su rango de saturación es –1 para el valor mínimo y 1 para el valor máximo. Función sigmoide. es decir. Función tangencial hiperbólica. . por lo que es superfluo construir redes de mas de dos capas si las funciones utilizadas son siempre lineales.

En rede neuronales se dice que la red aprende cuando es capaz de ofrecer un determinado patrón o vector de salida para un valor de entrada concreto. y si las de entrada tiene un nivel medio. Lo contrario ocurrirá cuando las funciones utilizadas amplifiquen poco la señales de entrada. Desarrollo de nuevas conexiones Perdida de conexiones existentes Modificación de la fuerza de las conexiones existentes . Esta capacidad de emparejar vectores se consigue mediante la modificaron de los patrones de conexión. Neuronas no lineales. sigmoide o hiperbólica tangente. o bien por que alguna de ellas no es lineal.la respuesta de estas neuronas no es una función lineal de sus entradas.2. 2. Reglas de aprendizaje. ya sea por que la función de activación o de transferencia no son lineales ninguna de ellas. Son funciones no lineales: umbral. 2.2. Conceptos y modelos de aprendizaje. la salida será muy elevada.. y esto puede dar lugar a que cambio muy pequeños en las entradas provoquen grandes fluctuaciones en las salidas. 3.Las primeras redes eran de este tipo y presentaban dos grandes problemas: 1. Falta de adecuación simultanea a señales grandes y pequeñas: si las funciones utilizadas amplifican mucho las señales de entrada. 7. Falta de persistencia en las respuestas: todo cambio en la entrada produce un cambio en la salida. 7. que se llevan a cabo por al menos tres procedimientos: 1. Con estas funciones se consigue que una neurona no produzca cambios significativos cuando las nuevas señales no son muy diferentes de las actuales. entonces las señales de salida provocadas por señales de entrada muy débiles provocaran respuesta.1. Estas neuronas son mas interesantes que las anteriores ya que producen respuestas acotadas y con ello resuelven gran parte de los problemas anteriores.6.6.

2.en este modelo existe un agente externo que es quien controla el proceso de aprendizaje de la red. pues también utiliza un supervisor que examina las salidas del sistema. Es muy importante tener presente los elementos que componen el juego de ensayo. Existen varios modelos de aprendizaje.. y la perdida de conexiones. Las reglas de aprendizaje son procedimientos para cambiar el patrón de conexión. y dependiendo de la complejidad del problema serán muchos o pocos los ciclos precisos para que la red aprenda. En este caso no tenemos un maestro... cuando la red ya ha aprendido a dar el patrón de salida para el que ha sido diseñada. Aprendizaje supervisado. que normalmente no coincide con la requerida. de los que los principales son: 1. etc de los datos de entrada. se puede considerar que son un caso particular del punto 3. Así pues. La red debe relacionar dos fenómenos X e Y mediante la presentación de un conjunto de ejemplos (X1Y1.es en cierta medida una variable del aprendizaje supervisado. es preciso incluir en el los patrones mas representativos del problema que tratamos de computar.XnYn). Aprendizaje no supervisado. que valora el comportamiento . y sus pesos no volverán a ser modificados. A cada uno de los pasos complejos del juego de ensayo se le llama ciclo.. Aprendizaje reforzado. y es aquí donde entra la supervisión. cuando el maestro calcula el error de salida y procede a la modificación de la regla de aprendizaje modificando los pesos. En este tipo de aprendizaje es preciso presentar un mayor número de patrones de entrada y utilizar reglas de aprendizaje distintas a las del caso anterior.Aunque los aspectos 1 y 2 no han sido explícitamente tratados en el marcos de las des conexionistas. lo mas común es aceptar un resultado cuando los errores han sido razonablemente minimizados.. Así pues cuando se introduce un patrón de entrada. Aunque el ideal es el 100% de aciertos.en este tipo de aprendizaje no existe un agente externo que vaya modificando los pesos de conexión en función de la salida. no existen salidas deseadas o precisas. por lo que no se puede computar el error para cada unidad de salida. En este aprendizaje se busca que la red se autoorganice y encuentre ella misma las regularidades. Este tipo de aprendizaje tiene mucha importancia en los sistemas biológicos. la red produce una salida oi. y la fase de ejecución.. X3Y3. Se llama “juego de ensayo” al conjunto formado por las parejas anteriores. el aprendizaje en redes conexionistas consiste en la modificación de la intensidad de las conexiones. 3. destacando entre estas las de Kohonen y Grossberg. es mas bien un supervisor. X2Y2. la fase de aprendizaje. En la vida de una red se pueden distinguir dos fases. correlaciones. sin embargo en este. en la que la red es entrenada. categorías. como un caso de reducción de la fuerza de conexión. ya que el desarrollo de nuevas conexiones puede considerarse como un aumento en la fuerza de conexión. Las arquitecturas de estas redes suelen ser distintas. puesto que no se ha especificado cual será la salida correcta.

4. 7.2. pero si existe discrepancia los pesos se cambian para reducir la diferencia. se ha expresado matemáticamente de varias formas. La regla de Hebb es de aprendizaje no supervisado. La regla delta Generalizada (o regla de propagación hacia atrás). 7. La modificación de los pesos que se realiza se lleva a cabo en las neuronas o unidades que contribuyen a la diferencia. 7. En el aprendizaje reforzado l os algoritmos son mas complejos que en el supervisado y el tamaño de las muestras es superior. pues no existe ninguna información externa que nos indique sobre si los resultados de las red son o no erróneos. Esta regla que originalmente no se expreso en términos matemáticos.6. Esta regla consiste en la presentación por parte del maestro de un vector o patrón de entrada.global de la red mediante un criterio y en función de el modifica los pesos mediante un mecanismo de probabilidades.2. La regla de Hebb se expresa de la siguiente forma: cuando dos neuronas tienden a estar activas o inactivas de manera simultanea. la fuerza o intensidad de sus conexiones aumenta. Regla de Windrow-Hoff o regla delta o regla del menor error cuadrático. . Esta red fue utilizada por primera vez en 1960 por Windrow y Hoff para la red ADALINE. y se modifican en proporción a su influencia en el error.2. Así minimizamos el error o incluso podemos llevarlo a cero.6. Regla de Hebb (o regla del producto).3. La regla de Heb hace que las unidades se influyan unas a otras y se configuran a partir de las reacciones a los estímulos percibidos.6. Se trata de una regla de aprendizaje supervisado y consiste en modificar los pesos de conexiones a partir del cálculo de la diferencia (o delta) entre las salidas de la red y las salidas deseadas. si la red produce el patrón de salida deseado no se realiza cambio alguno.2. o disminuye en caso contrario.

en la minimización del error la red puede llegar a que cualquier pequeño cambio en los pesos hacia uno u otro lado incremente el error. desde la capa de salida a la de entrada (de ahí que se llame retropropagación del error. La regla delta generalizada es una de las mas empleadas en redes multicapa alimentadas hacia delante y supuso un impulso importante para el conexionismo por que consiguió superar las dificultades matemáticas descubiertas por Minsky y Papert que tanto frenaron la investigación en redes neurales. Con este algoritmo podemos resolver el problema de la disyunción exclusiva y el de la distinción entre T y C. similares a los conmutadores eléctricos (abierto-cerrado). Rumelhart. eran un ejemplo de las limitaciones del perceptrón.1. Junto con la idea relativa al comportamiento supuestamente lógico de las neuronas propusieron construir maquinas de . Goffrey Hinton y Robert J. de la corrección del error). y al igual que la regla delta. en esta situación la regla no es capaz de determinar en que dirección se tiene que mover para que con un incremento mayor el error vuelva a decrecer. pues no seria posible conocer en que medida las capas ocultas contribuyen al error total. Se atribuye su desarrollo a David E. Redes de McCulloch-Pitts o redes de neuronas formales. por ejemplo. o mejor. compara la respuesta emitida por la red con la respuesta deseada y reajusta los pesos sinápticos de todas las sinapsis de forma proporcional a la diferencia encontrada. Williams. La regla delta presenta dificultades características. Esta regla trabaja con el modelo de aprendizaje supervisado y su aplicación es valida solo en redes alimentadas hacia delante. la regla delta generalizada es una modificación de la regla delta para redes multicapa. ALGUNOS MODELOS DE REDES NEURONALES. McCulloch y Pitts en su trabajo de 1943 consideraron que las neuronas y su actividad podía estudiarse mediante la lógica proposicional. que como hemos visto. es que en la regla delta generalizada el cálculo se hace capa a capa.La regla delta no se puede utilizar en redes con mas de dos capas. Consideraron las neuronas como de comportamiento biestatico. 8. que se caiga en un mínimo local. La diferencia fundamental con la regla delta. Dado que hay muchos problemas que no pueden resolver las redes de dos capas y si las multicapa. 8. es decir.

por lo que su función de activación es de tipo umbral. Esta es una de las diferencias fundamentales respecto a las que se usan actualmente.2. Tratan pues el cerebro como un organismo computacional. La neurona toma como valores 0 y 1 para cuando esta desactiva y activada respectivamente. Las sinapsis. y llamó perceptrones a unas redes tipo McCullochPitts capaces de modificar sus pesos de conexiones si las respuestas de la red no eran correctas y demostró que tales redes se podían entrenar para clasificar ciertos patrones sencillos en iguales o distintos. excitatorias o inhibitorias producen 1 y 0 respectivamente. El patrón a reconocer incide en la capa sensorial. similares a los circuitos lógicos creados mediante simples interruptores. Frank Rosenblatt rechazo el uso que McCulloch y Pitts hicieron de la lógica simbólica aplicada a redes y defendió los métodos probabilísticos. Demostraron como redes neurales sencillas con valor de umbral para la activación eran capaces de representar las leyes lógicas fundamentales. independientemente del número de señales de excitación o inhibición que reciban. El mecanismo de procesamiento del perceptrón es el siguiente: 1. y cada una de las unidades sensoriales responde con una señal digital (todo o nada). Llamaron neuronas formales a las neuronas que componen estas redes. la salida es 0 y 1 para cuando esta desactivada y activada respectivamente.computar con arquitectura similar a las neuronas. Consideraron que nuestro cerebro comienza con redes aleatorias. Aunque trataron de modelar los aspectos elementales de las neuronas biológicas. por lo que su función de transferencia es de identidad. . Perceptrones. Dieron mas importancia al aprendizaje que a los factores innatos. Consideraron que las leyes que gobiernan la mente tienen mas que ver con las leyes que gobiernan la información que con las leyes que gobiernan la materia. las neuronas formales no eran mas que conmutadores lógicos. y que la estimulación configura esas redes de una determinada manera. 8.

Si el patrón de entrada provoca una respuesta errónea se procede del siguiente modo: Si la unidad debía estar activada y no lo esta. Esto es así por que las conexiones entre las unidades sensitivas y de asociación son fijas. El perceptrón era una red capaz de aprender. Si el patrón de entrada provoca una respuesta correcta no se hace ningún ajuste. produciendo actividad con valores 0 y 1. b. a. En su configuración original a los pesos de conexiones se les asignaba un valor arbitrario. y dado que hay muchos problemas que no son linealmente separables concluyeron que dicho modelo era poco adecuado como clasificador de patrones. Dichas señales se transmiten a las unidades de asociación. Para conseguir el aprendizaje deseado se opera de la siguiente manera: 1. y su función de transferencia es la función de identidad. Cuando la unidad de la capa asociativa se activa provoca una señal de salida. También ampliaron su crítica afirmando que este problema tampoco lo podían resolver redes multicapa. . por tanto las capas sensorial y de asociación en términos de computación pueden ser consideradas unas sola capa. por lo que ante la presencia de estimulación la red daba también patrones arbitrarios. que va hasta las unidades de la capa de salida. 3. pero en realidad es de solo dos capas. Si la unidad debía esta desactivada un no lo esta se disminuyen los pesos de todas las conexiones.2. que se activan si las sumas de sus entradas superan un determinado umbral. En esta red sy función de activación es de tipo umbral. cuestión que posteriormente se demostró falsa. 2. no se modifican mediante el aprendizaje. se aumentan los pesos de todas las conexiones. Se puede pensar que el perceptrón es una red multicapa. En 1969 Minsky y Papert analizaron el modelo del perceptrón y concluyeron que este solo podía dar solución a problemas linealmente separables.

e hiperplanos a los objetos de n-1 dimensiones que dividen un hiperespacio de n dimensiones en varias regiones. En un espacio bidimensional. por lo que se hace una compararon entre el objeto observado y la plantilla almacenada en la memoria. Los sicólogos han presentado diversas teorías para explicar como esto se lleva a cabo.1. Se llaman hiperespacios a los espacios n-dimensionales. El patrón estimular activa los detectores de características y la activación resultante es comparada con los patrones almacenados en la memoria. 8.3. EL PANDEMONIUM: UN MODELO PARA EL RECONOCIMIENTO DE PATRONES. Análisis pormenorizado de la separabilidad lineal en pag 62 y sucesivas. cada patrón se representa mediante una lista de características. 8. el modelo de plantillas y el modelo de análisis de características. Podemos denominar reconocimiento de patrones al hecho de identificar distintos estímulos como pertenecientes a la misma clase. el hiperplano es una línea recta que descompone el espacio en dos regiones. En la resolución de problemas es útil la referencia a los hiperplanos ya que permiten separar regiones de puntos de un hiperespacio en categorías individuales o clases. Una de las características del procesamiento visual humano es su flexibilidad. según esta teoría en nuestra mente hay una representación o plantilla que se corresponde con cada forma conocida.3. .Decimos que un patrón es linealmente separable cuando el espacio de todas las entradas puede dividirse en dos regiones. quedando en uno de los lados del hiperplano las correspondientes a una categoría y en el otro lado las correspondientes a la otra categoría. el hiperespacio es un plano y puede dividir el espacio en tres regiones. En el caso del espacio tridimensional. Otra teoría es el análisis de características que defiende que nuestra mente no trabaja con copias exactas. sino con el análisis de las características internas de cada patrón. La tarea de reconocimiento de patrones: dos explicaciones. Una de las teorías mas sencillas es la comparación de plantillas.

3. Demonios de decisión. y cuantas mas descubre mas grita. las curvas.2.registran la imagen del símbolo externo. Demonios de características.. A fin de cuentas un modelo de análisis de características es similar a un modelo de comparación e plantillas. Una cuestión muy importante para un diseñador de pandemonium es determinar las características de cada patrón. “4”. Los tipos de demonios son los siguientes: 1. horizontales. 3. cada demonio esta especializado en un tipo de forma. detecta las líneas verticales. seleccionar el mas fuerte y emitir la respuesta correspondiente. pero después se el dio una interpretación psicológica como modelo de reconocimiento alfanumérico. por ejemplo.. así el demonio de decisión lo que hace es escuchar a los demonios cognitivos. la “A”. y busca entre los datos que le ofrecen los demonios de características las características que los definen. pero también otros.8.. . 4.cuando un demonio cognitivo encuentra la característica buscada grita.. El pandemonium consiste en varios conjuntos de unidades a las que Selfridge llamo “demonios” que realizan diferentes tareas. El Pandemonium: rasgos principales. 2. a esta cuestión han tratado de dar respuestas autores como Gibson y Linsay y Norman. Demonios cognitivos. la “B”. etc. Demonios de imagen.analizan la imagen registrada. mientras que en el otro lo que se compara son las características definitorias que lo hacen posible. El pandemonium fue propuesto por Selfridge en 1959 y es uno de los primeros y mas conocidos modelos de reconocimiento de patrones basado en el análisis de características. Mediante el análisis de características podemos explicar aspectos como los explicados por la comparación de plantillas. Originalmente se concibió como un sistema para reconocer señales del código Morse.. la diferencia entre ambos estriba en que en uno lo que se compara es el elemento perceptual al completo.reciben y examinan la información de los demonios de características. etc.

La entrada y salida están conectadas entre si formando niveles o capas. Aunque su base es amplia. 8. 3. pero no en sus relaciones estructurales. Por otro lado el Pandemonium tiene serios problemas para funcionar correctamente en situaciones de la vida real. 5.3.4. 8. tampoco puede distinguir ente algunas letras y esa misma vista en el espejo. En cuento a la realización del Pandemonium. 2. también tiene sus dificultades.3. 4. . Los demonios actúan de manera simultánea. La teoría del análisis de características goza de mayor apoyo experimental que la teoría de plantillas. Existen muchas unidades de procesamiento. Las unidades están conectadas entre si formando diversos niveles o capas.8. El computo que se realiza es cuantitativo y probabilístico. no interpreta el estímulo mismo. Este modelo de identificación de patrones se puede incluir dentro del conexionismo. Los demonios de características envían información cuantitativa a los demonios cognitivos y estos a su vez a los demonios de decisión. El Pandemonium: base experimental. pues presenta algunos de sus rasgos principales: 1. carece de validez ecológica.3.3. La información se almacena en un conjunto amplio de demonios. El problema es que el Pandemonium se fija en los elementos constituyentes. El Pandemonium: dificultades. gritando mucho. resulta relevante mencionar que el Pandemonium interpreta lo que nosotros antes hemos interpretado en el momento de su programación. poco o nada. La teoría del análisis de características y el Pandemonium en particular no pueden distinguir patrones como un “T” y una “T” invertida. El Pandemonium y el conexionismo.5. Otra de las dificultades de estos modelos es que no se recoge información contextual. y cada letra es el resultado de la activación de un conjunto de demonios. es decir. 6.

El modo de representación. El pandemonium no tiene capacidad de aprender por si mismo. que no modifican el modelo. Sin embargo estas diferencias no son significativas. 2. Es decir. No aparecen conceptos típicos de las redes conexionistas. y no distribuida. función de activación. Las reglas se pueden enternder de dos formas: 1. a la vez que hay que definir las funciones matemáticas que los hacen posibles. si hay información significativa al nivel de los demonios de características. 3. En el Pandemonium solo hay conexiones excitatorias.Pero entre el Pandemonium y el conexionismo también hay diferencias: 1. El Pandemonium no explica con precisión como se producen los modificaciones cuantitativas en los demonios ni la magnitud de señal que envía a los demonios cognitivos. aunque puede reconocer patrones no puede modificar el estado de sus unidades como ocurre en las redes conexionistas. Con estos cambios. 5. es . El punto en el que las diferencias entre el Pandemonium y las redes conexionistas se separan es en el referido al aprendizaje. al contrario de lo que ocurre con las redes conexionistas. sus unidades no tienen de manera independiente un significado consideradas de manera aislada. sino que le asigna valores a los diferentes parámetros. pues unas son de índole estético. 4.. el Pandemonium depende enteramente de la programación que haya hecho el diseñador para el reconocimiento de caracteres. Las reglas son precisas para diseñar una arquitectura del procesador. Aunque también hay otras redes como la NETtalk que incluye representaciones locales. El Pandemonium carece de capacidad de aprendizaje. al tratar de simular este modelo en un ordenador es preciso concretar con precisión todos los valores cuantitativos que son ignorados en el modelo. 6.. Las redes conexionistas el grado de distribución de la información es mayor. como umbral. el Pandemonium tendría el aroma de los modelos conexionistas tradicionales. función de transferencia. son un modo de fijar como funciona una red especificando el modo en el que las unidades de la red se comportan.. En el Pandemonium. y la mayoría se deben a la falta de concreción de este modelo. Por tanto. El pandemonium requiere reglas para realizar el procesamiento. donde la información se representa de manera localista.

La NETtalk tiene tres capas interconectados por cerca de 20. etc. 26 codifican cada una de las letras del alfabeto ingles y las otras tres se encargan de la puntuación y los limites entre palabras. mientras que en el conexionismo es la red la que aprende a diferenciar unas letras de otras. En el conexionismo donde no existen reglas es en el procesamiento en si. Concebidas así las reglas. La capa oculta consta de 80 unidades. existen reglas tanto en el Pandemonium como en cualquiera de los modelos conexionistas. Dado que solo hay siete grupos. la función de activación.decir. la red no puede reconocer mas que siete caracteres como máximo de manera simultanea. . La capa de entrada esta formada por 203 unidades distribuidas en 7 grupos de 29 unidades cada uno. Terrence Sejnowsky y Charles Rosenberg presentaron en 1986 la red NETtalk. Las reglas así concebidas es la manera de especificar la estructura “material” que tiene de comportarse la red.4. es preciso delimitar los niveles de umbral. la función de transferencia.000 sinapsis. Por otra lado las reglas se pueden referir a como se realiza el procesamiento. De las 29 neuronas de cada grupo de la capa de entrada. etc. no en la estructura que permite dicho procesamiento. fonemas. acentos hiatos. En el Pandemonium el programador tiene que definir cuales son los criterios para diferenciar unas letras de otras. Las unidades de salida o motoras codifican las dimensiones fundamentales del habla. cuya finalidad era leer y hablar textos en ingles. 3. 8. o por líneas rectas y curvas. y esta constituida de la siguiente manera: 1. NETtalk: APRENDER A LEER EN INGLÉS. 2. La capa de salida la forman 26 unidades. en este sentido decir que no existen reglas es lo mismo que decir que no hay una regla escrita que permita diferenciar los caracteres que están compuestos por solo líneas rectas. 2.

y sin duda resulta mas eficaz para modelar la capacidad humana de detección de patrones que los modelos de plantillas y de análisis de características. simplemente disminuye le rendimiento. Degradación elegante: la destrucción de algunos elementos de la red no tiene consecuencias catastróficas en el rendimiento total. que van mejorando con el entrenamiento hasta llegar a textos inteligibles. Se realizo un entrenamiento que consistía en unas 50. en principio los resultados no eran buenos. influyen en la conducta. Una parte importante de esta disciplina es como las sustancias químicas. 2. Aumento de la eficacia: las primeras respuesta parecen los balbuceos de un bebe. mientras que las redes creadas en la neurociencia tratan de dar cuenta de los procesos puramente cerebrales. Pero también parece claro que la arquitectura y procesos del sistema nervioso (psiconeurología) también influyen en la conducta. sean endógenas o exógenas. Tras este entrenamiento lo maquina conseguía hablar con una exactitud del 95%.La red transforma los datos de entrada (las letras) en fonemas o sonidos. la mente o el cerebro. y que por tanto también deberían . un supervisor controlaba la corrección de respuesta de la red y modificaba los pesos mediante la regla delta generalizada (entrenamiento con propagación hacia atrás). Cuando nos adentramos en los postulados y tesis del conexionismo cabe preguntarse que es lo que esta teoría pretende explicar. Las propiedades citadas son las que cabria esperar de un sistema de procesamiento distribuido y paralelo. Con el término psicobiología nos referimos al enfoque que intenta dar respuesta al mundo de la mente y de la conducta a partir de elementos. La respuesta habitual es que las redes conexionistas se han diseñado para tratar de dar respuestas a los asuntos relacionados con la mente. REDES NEURONALES PARA EXPLICAR EL CONEXIONISMO.000 presentaciones de 1000 palabras del habla corriente de un niño. Resultan sorprendentes algunas semejanzas entre la NETtalk y la capacidad lingüística humana: 1. Dado que los pesos originales se establecieron al azar. estructuras y procesos biológicos. 3. 9. Capacidad de generalización: al presentarle nuevas palabras el sistema es capaz de leer y pronunciar con una exactitud del 78%.

parece que el conexionismo tiene como destino explicar una parte de la psicobiología. sino psiconeurología y sus descubrimientos pueden tener relevancia para la Inteligencia Artificial. La inteligencia artificial. 2. la idea de que es necesario comprender el funcionamiento de las estructuras nerviosas para dar cuenta de los procesos mentales... . solamente imitar competencias típicamente humanas para implementarlas en sistemas no biológicos como ordenadores y robots. percepción. Por otro lado. memoria. los Churchland. la vida mental no posee ningún tipo de regularidades que puedan dar lugar a una disciplina independiente de la biología. McCulloch y Pitts defendieron que las redes neuronales de los córtices auditivo y visual eran capaces de reconocer propiedades invariantes de un mismo patrón.. 2.) este enfoque no es psicología. así tenemos: 1. antes de lo que tradicionalmente entendemos por biología. En esta línea se incluyen las tesis de dos de los representantes mas destacados en la reflexión teórica sobre los valores y limites del conexionismo. Con este se quiere sugerir que desde el conexionismo se defiende la tesis de que lo mental no tiene estatuto propio. La regla de aprendizaje descubierta por Hebb quería descubrir el modo real en que se relacionan las neuronas en el cerebro para formar asociaciones estables entre ellas. que las redes neuronales del colículo superior (involucradas en el control del movimiento de los ojos) podían generar el patrón a partir de ejemplos de dicho patrón.las redes que se construyen no intentan emular el funcionamiento del cerebro. El conexionismo oscila entre las siguientes posiciones: 1.si se construyen redes que quieren ser files a los mecanismos y estructuras del sistema nervioso y se las utiliza para dar cuenta de competencias tradicionalmente atribuidas a la mente (lenguaje. El conexionismo parece ser una teoría que apela al cerebro para explicar competencias atribuidas tradicionalmente a la mente. En el momento actual disponemos de explicaciones biológicas para explicar multitud de fenómenos psicológicos.. La biología. se encuentra en los orígenes mismos del conexionismo y ha dado lugar a hipótesis que cierto apoyo experimental. Aunque merecería un análisis muy cuidadoso.formar parte de la psicobiología.

Bueno me parece una excelente idea que los hipopótamos tengan donde bailar.. deprimida. El hipocampo es el soporte físico de la memoria a corto plazo o memoria de trabajo y puede clasificar patrones y recuperar un patrón a partir de datos fragmentarios porque también es un ACAM.. 4.. triste. ese es mi color favorito.¿Josefa viste el Señor de los Anillos? . b. --------------La GLORIA dice: me dijo el doctor que me tomara 3 muestras de orina. . En ese mismo contexto se sitúan las teorías del cerebelo.¿Qué opinas sobre las hipotecas. MARIJOSE: ¿Sabes quién fue Juana de Arco? -pues.¡Le comunicamos que su avión viene demorado¡¡¡¡Hay qué lindo. y del neocortex defendidas por Marr: a. sabe horrible!!!! -------------.. dice que murió por heroína. furiosa. -------------.. El funcionamiento del cerebelo es semejante a las redes asociativas direccionales por contenido (ACAMs) y gracias a dicho funcionamiento los animales pueden realizar movimientos delicados y precisos. pero no le compré nada. -------------Contraseña en Facebook de la PEPA : "alegre.. Las representaciones que nos formamos de las clases y subclases se basa en el hecho de que el neocortex tiene una estructura y mecanismo similar al perceptrón. c..Sííí. -¿De dónde sacaste eso? -Pues del libro. del hipocampo. Una drogadicta. enojada" (por que le dijeron que eran mínimo 5 caracteres) --------------Señorita VENANCIA : ¿Qué opina usted del papanicolau? responde: Sinceramente me caía mejor el papa Juan Pablo segundo.3. -------------. Josefa? .. Taylor propuso las redes que llevan su nombre para explicar la memoria asociativa y afirmo que áreas de la corteza cerebral y el tálamo contenían esas redes. pero nada más me tomé 2.

"Auxilio.¿Qué pasa con el facebook? Me dice "su clave es incorrecta". ¿Le corto su pizza en 4 o en 8? . -------------Un cura en la iglesia dice: . -------------. Un señor se acerca y le pregunta. pero ahora ayúdeme. -------------Jugando a las escondidas.A sus órdenes. a lo mejor no fui ese día a clases. .Mmmmmm.. -------------Dice Josefa: . de coco... ..¿Qué opina usted sobre la gelatina? . -------------Señorita Josefa.Hoy confesaré a todas las devotas.. ¿cúando nos toca? -------------..De acuerdo.. me robaron mi camioneta"... 16.Estoy encerrada dentro de mi auto y me olvidé las llaves afuera. -------------Señorita Jesusa: . ¿Simón Bolívar murió en. .. -------------Josefa sale corriendo y grita: . En mi escuela sólo conocí la "Y " griega y la "I " latina.-------------... . tampoco soy tan bruta ¿no?. entonces pongo "incorrecta" pero ¡no abre!!!. 105?.."fermo".¿4 x 4? .Mire soy Josefa Díaz y necesito que me ayude a abrir las puertas de mi auto. Se levanta Josefa y pregunta: .... estás detrás de la puerta de vidrio.y las que vinimos en sandalias..¡Josefa!!!.En 4 nomás.. .Bueno en realidad no sé qué decir. ¿ A qué corresponde esta formula química H2O+CO+CO ...... pero la "G " latina nunca supe de ella. .Aló.A ver Josefa.. pues eso es agua.? ..Dígame Josefa. ¿Donde está usted? ..... no creo que me coma 8 pedazos...Bueno.

Sign up to vote on this title
UsefulNot useful