Está en la página 1de 13

Universidad de Concepcin Facultad de Ciencias Fsicas y Matemticas Departamento de Matemtica

Los Hacedores De Cerebro:

El Arte Del Pensamiento


Captulo 3

Integrantes

: Paulina Bustos Lpez Ada Escobar Pealoza Fabiola Espejo Burkart Gonzalo Millanao Vergara : Historia de la Matemtica II : Sr. Gustavo Avello Jofr : Pedagoga en Matemtica y Comp. : 1 de Abril del 2011

Asignatura Profesor Carrera Fecha

ndice

Contenido

Pgina

Introduccin

.....................................02

Desarrollo del Tema

..

03

Conclusin

..

...10

Bibliografa

..12

Introduccin

A travs del tiempo, la ciencia siempre a tratado de comprender los fenmenos que se producen en la naturaleza, para poder reproducirlos e utilizarlos para diversos fines, a modo de servicio para la humanidad. La Inteligencia Artificial (IA) es un campo de investigacin que naci y comenz a desarrollarse a mediados del siglo XX, con las esperanzas de conducirse de manera similar que otros procesos, de manera que los secretos de la inteligencia se revelaran en un tiempo no tan prolongado. Sin embargo, los avances en las investigaciones realizadas no han dado los frutos esperados inicialmente, en general, se ha trabajado en la creacin de complejos programas computacionales que por ser tan especficos resultan casi siempre intiles al momento en que la informacin del entorno sufre cambios. En el captulo 3: El arte de pensar , del libro: Los Hacedores de Cerebros , el autor nos describe la forma en que grandes cientficos como Stephen Grossberg y Rosenblatt entre otros han tratado de dilucidar el funcionamiento del cerebro, mediante la observacin del trabajo de las neuronas, consiguiendo resultados impresionantes que se acercan cada vez ms al objetivo principal. Una de las investigaciones que ms ha desviado la atencin de la visin tradicional de la IA, gira en torno a la creacin de redes neurales, programas o hardwares que han sido diseados para emular la forma en que se organizan y funcionan las Neuronas. Las primeras investigaciones con respecto a redes neurales se remontan a un siglo antes de la IA, aproximadamente, cuando el bilogo espaol Santiago Ramn y Cajal describi por primera vez la estructura de las neuronas y su asombrosa interconexin. Estas descripciones se han establecido como las bases para el estudio de las redes neurales, las cuales aunque no han sido aceptadas por toda la comunidad de la Inteligencia Artificial, si han logrado motivar a muchos cientficos en la bsqueda de una rplica cada vez cercana al cerebro humano. En el presente informe resumiremos lo expuesto en el captulo 3 del libro anteriormente mencionado, con el fin de poder entender de manera ms clara las distintas posturas que hay en la investigacin de la Inteligencia Artificial, con respecto a la eficiencia de las redes neuronales artificiales.

El Arte de Pensar

El cerebro y ART son seres del universo que poseen las capacidades de identificar, manejar informacin nueva, tener expectativas y concentrar su atencin en hechos importantes. El ART es un modelo de cmo opera el cerebro, de base computacional. Aprende igual que el cerebro, estudiando ejemplos, detectando patrones. Stephen Grossberg, define ART como un microcosmos de cognicin . En trminos formales es una red neuronal artificial. La red neural artificial es un programa computacional o dispositivo de hardware diseado para imitar la forma en que el cerebro se apoya en un vasto conjunto de clulas interconectadas llamadas neuronas, que actan como pequeos pero complejos conmutadores electrnicos. En los robots de Rodney Brooks, un conjunto de programas de comportamientos interactan para crear nuevos y ms complejos procederes. Adems la red neural que es nuestro cerebro crea comportamientos a partir de la interaccin de elementos relativamente simples, pero la complejidad de las interacciones es tan superior a la del sistema de Brooks que parece superfluo compararlas. Por lo tanto, el resultado de estas interacciones neurales no es un mero evitar obstculo, sino la totalidad del pensamiento humano. Por causa del abismo entre la complejidad del cerebro humano y la de un programa de control de un robot mvil diseado para no chocar con las murallas se produjo una inquietud en IA en la dcada de 1950, debido a la siguiente pregunta existe alguna razn vlida para creer que se puede potenciar el naciente enfoque conductista, para producir sistemas que puedan siquiera rozar el territorio de una inteligencia semejante a la humana? los cientficos solo haban producido programas para probar teoremas matemticos, que reconocan formas simples y estaban propensos a cualquier equivocacin. Segn la totalidad de los investigadores de la IA, la produccin de sistemas mas competentes eran simplemente cosa de afinar y ampliar el alcance de estos prototipos. Pero al igual que en el caso del robot constructor de torres de Minsky, sus sistemas sucumban ante la creciente longitud y complejidad de su cdigo de programacin. Existe una razn que evitara el problema de potenciacin anterior, este es la autoorganizacin que es la capacidad de un sistema para forjar un orden a partir de la aparente catica interaccin de elementos. Las investigaciones en redes neuronales artificiales podran ser consideradas con toda lgica una extensin de los esquemas conceptual y prcticamente ms simples adoptados por Brooks. Fue el bilogo espaol Santiago Ramn y Cajal quien estableci, un
3

siglo antes, las bases para los estudios de redes neuronales. Segn sus observaciones, de la clula neuronal salen un largo apndice llamado axn y una serie de finos tentculos ramificados, conocidos como dendritas, donde el punto de conexin se conoce como sinapsis . Cuando es estimulada, la neurona dispara , lo cual es una pulsacin elctrica que recorre el axn, donde la recogen muchas dendritas unidas a el en la sinapsis, envindola a distintas neuronas. Ramn y Cajal supuso que el pensamiento y la memoria surgan de estas conexiones interneuronales. Adems advirti que el cerebro estaba constantemente reconectndose, reforzando y debilitando distintas sinapsis en respuestas al aprendizaje y la experiencia. Donald Hebb en 1949, dio una explicacin al esquema de reconexin, una regla simple para esa auto programacin proponiendo si dos neuronas conectadas disparan al mismo tiempo, o casi al mismo tiempo, la conexin entre ellas se hace mas fuerte . Es decir, qu esta regla proporcionaba un esquema sencillo pero eficaz de aprendizaje: cuando las neuronas disparan repetidamente siguiendo un patrn, ste se transforma en un rasgo semipermanente del cerebro. Si las conexiones as formadas son de poca utilidad y resultan infrecuentes las descargas a travs de las sinapsis previamente reforzadas, la falta de estimulo har que estas se debiliten por si solas. Lo cual explicara que si no repetimos muchas veces una frmula ste se desvanecer en la memoria, pues el transcurso del tiempo debilita las conexiones. Por lo cual este esquema del aprendizaje se aleja de la nocin simplista segn la cual la informacin se almacena en neuronas individuales y la reemplaza por una idea ms sutil: la informacin se deposita y expresa en patrones de descargas entre muchas neuronas. A comienzos de la dcada de 1950 el extrao pero eficiente esquema de procesamiento de informacin del cerebro despertaba suficiente curiosidad en los cientficos como para intentar un modelo con circuitos electrnicos, aparatos que consisten en mas o menos una docena de nodos . Puede que el reconocimiento de patrones no haya parecido al comienzo un problema tan interesante, como lo es probar un teorema matemtico, pero de hecho es central en nuestra existencia. Asimismo gran parte de la resolucin de problemas es reconocimiento de patrones. Por ejemplo: los maestros de ajedrez a quienes general pero errneamente se considera pensadores altamente estructurados que van barajando lgicamente jugadas alternativas son tpicos reconocedores maestros de patrones: la disposicin de las piezas en el tablero casi instantneamente les hace ver otros modelos prometedores. Debido a la falta de algo semejante a la regla de Hebb, que pudiera ponerse en ejecucin en una red neural artificial y hacerla capaz de aprender que en 1959, Frank Rosenblatt, psiclogo de Cornell, diseo una red neural llamada perceptrn que poda
4

ser entrenada para ejecutar clasificaciones sencillas de patrones visuales, basadas en el insumo proveniente de unos pocos cientos de clulas electrnicas foto sensitivas. Posteriormente, el proceso de entrenamiento del perceptrn era una forma de programacin, y las disposiciones de pesos resultantes, un tipo de programa. El perceptrn represent una aproximacin completamente nueva a la IA. De hecho, aunque Rosenblatt y otros propulsores de la red neural no expresaron as sus motivaciones, estaban preparando el terreno para lo que seria el tercer principio de la IA basado en la naturaleza: la inteligencia es demasiado compleja para diseada a partir de cero, as es que demos marcha atrs con la ingeniera y sigamos el modelo de la naturaleza. En este caso, el modelo exiga una red neural. Gente como Minsky McCarthy y Feigenbaun, pensaban que la nica manera sensata de lograr la inteligencia de maquinas era descubrir un esquema formal para representar el conocimiento y el razonamiento, y luego programar este esquema en una computadora digital. Para estos lideres de la IA, la idea de que una maquina pudiera crear sus propias representaciones del conocimiento, su propia lgica a travs de las conexiones con peso, era un callejn sin salida. Hacia mediados de la dcada de 1960, Minsky y Papert decidieron que ya haban perdido suficiente tiempo, dinero y entusiasmo hundindose en un campo rival que, que segn crean no llevara a ninguna parte. El resultado fue un libro llamado Perceptrons: An Introduction to Computational Geometry. Un perceptrn u otras redes neurales artificiales, tambin pueden realizar procesamientos intermedios, mediante sus unidades ocultas. Los nodos de entrada constituyen lo que la red neural ve y los de salida son lo que la red hace o concluye ; en cierto sentido, los nodos ocultos representan la forma en que la red piensa acerca de lo que ve, la forma en que le da sentido a la informacin que ha ingresado, antes de actuar. Rosenblatt continu trabajando con el problema de entrenar redes neurales multicapas e hizo importantes progresos, pero de ah en adelante enfrent grandes dificultades para conseguir fondos y apoyo intelectual; muri en 1970, sin haber visto reivindicada su obra. A fines de la dcada de 1970 rebrot el inters en las redes neurales, pero el paso que en ltima instancia las hizo renacer se suele atribuir a John Hopfield, que en 1982 comenz a calibrar ciertas similitudes entre las redes neurales y los conjuntos de tomos. En 1984, el trabajo de Hopfield haba servido de inspiracin a la primera red neural multicapa que funcionaba y era entrenable, inventada por Terry Sejnowski y Geoffrey Hinton, llamada mquina de Bolzmann, la cul utilizaba una reorganizacin de los pesos reiterada, leve y aleatoria, para aproximarse gradualmente al estado de menor energa. El
5

siguiente avance en este campo conocido como la retropropagacin , fue descubierto originalmente en la dcada de 1970 por Paul Werbos y desarrollado de manera plena, a comienzos de los ochenta, por Hinton, David Rumelhart y Ronald Williams. La retropropagacin es esencialmente una versin del esquema de entrenamiento del perceptrn de Rosenblatt pero con una importante diferencia. El entrenamiento de una red neural de retropropagacin comienza con darle un patrn inicial de entrada, al que la red responde con una informacin de salida al azar, incorrecta. Ajustar la capa exterior de pesos es simplemente cosa de seguir la regla de entrenamiento del perceptrn, lo difcil es llegar a la primera capa de pesos. Para lograr tal ajuste, la red se hace correr hacia atrs . Esto es, en lugar que los nodos de entrada enven una seal a las unidades ocultas y que enseguida stas pasen una seal a los de salida, sucede lo opuesto: los nodos de salida envan una seal a las unidades ocultas, que retransmiten una seal a los nodos de entrada. Al igual que los perceptrones, las redes de retropropagacin demandan sesiones de entrenamiento absurdamente prolongadas y supervisadas por una persona; carecen de capacidad para absorber informacin y extraer conclusiones por s mismas. Mientras la mayora de los investigadores de redes neurales se volc a este campo en la dcada de 1980, Grossberg es uno de esos poco conocidos que contribuyeron a fundar esta rama y que nunca renunciaron a ella. Con su trabajo de ms de tres dcadas en teoras del cerebro y en inteligencia artificial, ha ido gradualmente construyendo un conjunto de modelos basados en redes neurales que parecen explicar algunos de los ms desconcertantes problemas del pensamiento; el resultado ha sido sistemas de inteligencia artificial que ven, se mueven y aprenden como lo hacemos los humanos. La principal diferencia entre el trabajo de Grossberg y la retropropagacin u otros tipos de redes neurales, es que l ha eliminado todas las condiciones simplificadoras que les permiten funcionar. La mayora de las redes neurales slo pueden manejar un nico conjunto de patrones invariable e incluso as, slo lentamente y supervisados de cerca por un entrenador. La clave para construir tal sistema es incorporar estrechamente una especie de circuito de realimentacin que permita a ste evaluar con rapidez su actuacin, reconocer desajustes y emprender de inmediato una accin correctiva. Grossberg se gradu con honores en la escuela secundaria Stuyvesant, ingres a la universidad de Dartmouth en 1957 donde desarroll su primer modelo de red neural cuando recin cursaba segundo ao, a este modelo lo llam la primera red neural de la era moderna . Luego continu sus estudios en Stanford, donde intent seguir sus investigaciones sobre redes neurales, pero nadie se manifest interesado en su empresa, por lo que termin por cambiarse a la universidad de Rockefeller, para continuar con su poco usual trabajo; se doctor pero an se senta marginado. Despus obtuvo un cargo
6

docente en el MIT, pero incluso ah no supieron que hacer con l ni con su obsesin con los modelos de comportamiento de redes neurales, fue all donde tuvo su nico encuentro con Papert, lugar donde posteriormente se le neg una ctedra titular, por lo que termin en la universidad de Boston donde naci el Centro de Sistemas Adaptables en 1981, con Grossberg como director; en 1988, tambin fue nombrado director de un nuevo departamento de sistemas cognitivos y neurales. Una poderosa razn para que l y sus redes no hayan recibido la atencin merecida puede atribursele a su extravagante personalidad, lo tildan de: enojn, arrogante, misterioso, de que se queja de que otros reciben crdito por su trabajo, vengativo, entre otros. Su excntrico comportamiento simplemente les da a muchos cientficos la excusa que parecen estar buscando para desechar su trabajo sin tener que realmente penetrar en l. Actualmente, est acostumbrado a la marginacin; y hasta puede que eso sea lo que lo mantiene a la cabeza cuando jvenes irrumpen abriendo nuevos territorios cientficos. Incluso es posible que su carcter erosivo lo haya salvado de representar el papel de fundador de la IA. Junto a Gail Carpenter, Grossberg cre el sistema ART, adaptive resonance theory (Teora de la resonancia adaptable) el cual surgi de su perdurable inters en lo que l llama dilema estabilidad - plasticidad . En las redes neurales, estabilidad se refiere a la capacidad de la red para aprender nuevo patrones sin perder su habilidad para recordar los antiguos y plasticidad es la capacidad de aprender con rapidez patrones nuevos e inesperados. Uno de los problemas claves para construir una red neural artificial con habilidades como las del cerebro, es que la plasticidad tiende a estar reida con la estabilidad; en cambio nuestros cerebros se las arreglan para no tener que elegir entre ellos. En su desempeo por disear un modelo que de solucin a este dilema, Grossberg estudi una idea propuesta por Helmholtz mas de cien aos antes, llamada inferencia inconsciente que sugiere que el cerebro tiende a percibir patrones de una manera muy semejante a como se espera percibirlos, basndose en aprendizajes anteriores, por ejemplo: si alguien dice la palabra venga y un ruido repentino ahoga el sonido de la e , normalmente seguiremos escuchando la palabra completa ya que el cerebro esperaba el sonido e . Grossberg tambin estudi el proceso de prestar atencin, l dice que si se presta atencin a las similitudes entre un patrn nuevo y uno conocido, y al ignorar las diferencias menores el cerebro poda reconocer uno sin tener que aprender las diferencias. Por supuesto, si se dieran demasiadas diferencias significativas entre el patrn y lo que esperamos de l, el cerebro podra categorizar uno diferente.
7

Fue en esta lnea de pensamiento que Grossberg y Carpenter concibieron en 1987 la red neural ART; que tiene cuatro componentes principales: una memoria de corto plazo para evaluar patrones de insumo, una memoria de largo plazo para almacenar categoras (al inicio est vaca), un subsistema de atencin para centrarse en rasgos importantes de los patrones de insumo, y uno de reorientacin para impedir que la memoria de largo plazo aprenda patrones sin importancia; se diferencia de otras redes al no depender de un supervisor externo que le diga si su conjetura fue correcta. En esencia ART presta atencin a las partes del patrn de insumo que le son familiares e ignora las que no lo son. Las normas utilizadas por el subsistema de reorientacin son ajustables; se puede disponer que ART sea extremadamente puntilloso (exigiendo que los patrones sean casi idnticos) o generoso (exigiendo que reas mnimas se superpongan). Si la superposicin no es suficientemente buena, el subsistema se reorientacin decide que ART no ha logrado una concordancia y comienza todo el proceso de nuevo. ART al igual que el cerebro, ofrece tanto plasticidad como estabilidad ya que puede aprender un nuevo patrn dado en categoras generales o especficas, organiza sus propias categoras, evala por si mismo sus conjeturas y lleva a cabo su propio aprendizaje. ART ha comprobado ser valioso para usos prcticos (reconocimiento de letras o imgenes y las bsquedas en bases de datos) por su capacidad de aprender de manera rpida y eficiente a reconocer patrones. Grossberg sostiene que usualmente ART arrasa con la competencia: otras redes de retro propagacin requieren 20.000 rondas de entrenamiento supervisado en cambio ART se ensea a si mismo en 5 rondas, con una precisin que en algunos casos emula el desempeo humano. Tambin ha comenzado a tener usos comerciales (en la identificacin de piezas de aeroplanos), y usos en un Centro Mdico de Nevada (donde se desarrolla un sistema para categorizar las condiciones relativas a la duracin de la permanencia del paciente). Grossberg en conjunto con sus asociados, intenta vincular entre s diversos modelos que ha desarrollado a lo largo de los aos, ha construido una serie de modelos que realizan cada uno de estos trucos, refirindose al control motriz aptitud que funciona tan sin esfuerzo, en la que ni pensamos, pero que requiere una serie de habilidades , (es la capacidad de humanos y animales para activar sus msculos de tal manera que pueden realizar tareas precisas y a gran velocidad), el problema est en cmo lograr que el mundo ideal de la planificacin opere con el de los movimientos y las fuerzas. A medida que Grossberg y sus colegas trabajan en la integracin de estos diversos sistemas, las simulaciones de sus computadoras se hacen ms y ms competentes para abordar un creciente conjunto de tareas. Los proyectos estn yendo ms all de las simulaciones de computadora hasta robots controlados por redes neurales. Por ejemplo,
8

Allen Waxman construy un robot que deambula alrededor de una pieza buscando ciertos objetos y evitando otros; y Eric Schwartz construy un pequeo robot con globos oculares giratorios que intenta reconocer la patente de un automvil en movimiento. Por supuesto, aunque Grossberg sea capaz de crear un modelo de red neural que logre modalidades de pensamiento de alto nivel, por s mismo ello no dar origen a un sistema capaz de acercarse siquiera al nivel de desempeo del cerebro. Un sistema tipo cerebro tendra que ser fenomenalmente preciso, en cambio las redes tipo ART requieren condiciones relativamente favorables para discriminar e identificar patrones sencillos y para ello deberan cubrir una amplia gama de capacidades que ni el mejor sistema ART, o ningn otro es capaz de asemejrsele en ninguna de estas reas menos aun manejarlas todas al mismo tiempo.

Conclusin Cuando hablamos de Inteligencia Artificial de inmediato viene a nuestras mentes la fantasiosa idea de los robots autnomos, que vemos por lo general en pelculas o historietas, sin embargo, mediante el anlisis que se puede hacer al leer los datos del libro Los Hacedores de Cerebros , podemos darnos cuenta de cuan alejada est la humanidad de llegar a construir de manera artificial una inteligencia de alto nivel; y probablemente sea sta la intencin del autor, al mostrarnos la gran brecha que hay entre lo que ha sido el objetivo desde el principio y la realidad de la Inteligencia Artificial. Muchos cientficos, matemticos, y otros estudiosos han invertido gran parte de sus vidas en la bsqueda de los secretos del funcionamiento del cerebro y el pensamiento, creando complejos programas, algoritmos, y otros sistemas como las redes neurales, con la intencin ya sea de predecir y anticiparse a los discernimientos del cerebro, o bien para simular la manera en que se lleva a cabo el pensamiento, la toma de decisiones, entre otras habilidades de la inteligencia de alto nivel. Al leer el libro Los Hacedores de Cerebros y ms especficamente el captulo 3, podemos comprender las diferencias abismales que an existen entre los programas computacionales y las redes neurales, y el cerebro humano, lo cual le brinda un gran sentido al ttulo del captulo: El Arte de Pensar , esto pues podemos ver cun asombroso y desconocido es el funcionamiento de las habilidades de Alto Nivel en el cerebro humano, las cuales de manera natural y espontnea logra superar con creces a cualquier trabajo realizado por los investigadores de la Inteligencia Artificial. En el presente informe hemos resumido la informacin que David H. Freedman presenta el captulo 3, del antes mencionado libro, pudiendo ver cmo el avance de la Inteligencia Artificial se ha dividido en dos ramas importantes, la tradicional, que busca acercarse a la inteligencia humana mediante la creacin de softwares complejos y especficos, y la otra que trabaja analizando redes neurales, y la retropropagacin. Adems mediante este informe pudimos conocer el sistema de red neural ms avanzado que existe, creado por Grossberg, quin ha logrado acercarse bastante al cerebro humano, mediante ART- sigla de adaptive resonance theory, teora de la resonancia adaptable-, pero que sin embargo todava tiene mucho que lograr. Finalmente, hemos visto cun difcil ha sido lograr construir un sistema que pueda realizar las mismas funciones que el cerebro, sobre todo hacer que estos sistemas cuente con la estabilidad y la plasticidad para acercarse al cerebro, lo cual nos hace concluir que en cuanto a la Inteligencia Humana, la naturaleza, por decirlo de algn modo, ha hecho un trabajo asombroso, dado la facilidad con que el cerebro humano realiza hazaas
10

de plasticidad, sin ningn esfuerzo; cmo el cerebro humano es capaz de aprender infinidad de cosas sin necesidad de borrar informacin anterior. Por esta razn es que probablemente se necesite muchos aos o dcadas de investigacin para lograr reproducir aquello que en los seres vivientes y en el cerebro humano especficamente suele ser tan cotidiano y simple.

11

Bibliografa

Freedman, David H. Los Hacedores de Cerebros. Santiago, Editorial Andrs Bello (1995).

12

También podría gustarte