Cibernética, cognitivismo y conexionismo: hombres y
máquinas
Dupuy (1996), en su libro "en los origenes de las ciencias
cognitivas", hace un registro y un balance de las famosas Conferencias Macy, que se realizaron entre 1943 y 1953, reuniendo regularmente un grupo heterogéneo de investigadores que “tenía como ambición edificar una ciencia general del funcionamiento de la mente” (p. 9). Pretendían pensar la mente con herramientas lógicas de modo que los seres vivos fuesen estudiados como “máquinas naturales”, es decir, lógicas. Y tambien pretendian viabilizar la construcción de máquinas lógicas que presentasen características inteligentes. En esas conferencias, a donde acudian los investigadores de las más diversas áreas — matemáticos, físicos, lógicos, fisiologistas, linguistas, psicólogos, antropólogos, economistas, sociólogos, y un único psicoanalista y neurologista de formación —, fueron formulados y desarrollados los conceptos de información, sistema, feedback, y más programación, automatización, comunicación, simulación, para citar solo algunos. Dupuy (1996) resume de manera inestimable el alcance de las contribuiciones de la cibernética a nuestra época:
Su projecto teórico [de la cibernética], ideológico y técnico
moldeó nuestra época como ningún otro. Ella... introdujo la conceptualización y el formalismo lógico-matemático en las ciencias del cerebro y del sistema nervioso; concibio la organización de las máquinas de procesamiento de información y lanzó los fundamentos de la inteligencia artificial; produjo la “metaciencia” de los sistemas, la cual dejó su marca en el conjunto de las ciencias humanas y sociales, de la terapia familiar a la antropología cultural; inspiró fuertemente innovaciones conceptuales en la economía, en la investigación operacional, en la teoría de la decisión y de la elección racional, en la teoría de juegos, en la sociología, en las ciencias de lo político y en muchas otras disciplinas; proveyó en el momento oportuno a varias “revoluciones científicas” del siglo 20 –, muy diversas, pues van de la biología molecular a la relectura de Freud hecha por Lacan –, las metáforas de que necesitaban para señalar su ruptura en relación a paradigmas establecidos. (p. 44)
Psicologia UsP, São Paulo, janeiro/março, 2009, 20(1), 11-30 1
La ciencia, que en aquel momento se constituía, se presenta aún hoy como interdisciplinar, reuniendo diferentes investigadores en torno de un objetivo aparentemente comun: lo de construir una ciencia fiscalista de la mente a partir de una nueva concepción de máquina. Todavia, para construir tal ciencia — dicha nueva — era necesario utilizar conceptos provenientes del domínio de la investigación de la mente. Se presentava, en ese momento, una grave cuestión. Conceptos como percepción, atención, memória, lenguaje, procesos creativos, etc., eran áreas de la psicologia, desde la psicología de las facultades wundtianas y habian sido alejados por ser considerados no científicos por los comportamentalistas. El projecto de una psicología que incluyera tales preocupaciones permanecía en la corriente gestaltista — Además, muy presente en el grupo inicial de las conferencias Macy, de la cual participaron psicólogos gestaltistas notables como W. Köhler, K. lewin y m. Wertheimer. Aquella época, los ciberneticistas necesitaban de esas conceptualizaciones a fin de poder lidiar con la cuestión del conocimiento: ¿como se conoce el mundo? ¿como un ser vivo constituye su capacidad de lidiar con las situaciones percibidas y memorizadas? Solamente asi sería posible construir algun artefacto que tuviese alguna característica “humana”. Tanto Dupuy (1996) como Varela et al. (1991) consideran fundamental el papel de mcCullogh (neuropsiquiatra) y Pitts (matemático) en la formulación de una “neurología de la mente”. Su artículo inicial data de 1943, con el título “A logical Calculus of the Ideas Immanent in Nervous Activity” (mcCullogh & Pitts, citados en Dupuy, 1996). Basados en la tesis de Turing, afirmaban ser, la mente, una máquina lógico-matemática encarnada en el organismo. El modelo de cerebro propuesto tenía la forma de una red neuronal, o sea, una red de conexiones entre neuronas tratados como calculadoras artificiales. Es interesante notar que los autores fueran corrigiendo y haciendo más complejas sus concepciones. Asi, ya en 1946, presentaron sus primeras ideas sobre redes aleatorias, capaces de funcionar con “ruido”, con los conceptos relacionados del papel del azar y del aprendizaje. Ya a partir de finales de la década del 50, en opocición al comportamentalismo que rechazaba el estudio de los estados mentales internos, comenzaba a adquirir relevancia el cognitivismo. Esa tendencia abogaba por la complejidad del estudio del comportamiento humano y el retorno de temas como la intencionalidad de los actos mentales y la consecuente responsabilidad del individuo frente a ellos. Turkle (1995) señala que al final de la década del 60, “la presencia del 2 PSICologIA E BIologIA: AlgumAS INtErSEçõES Flávia Sollero-de-CampoS e monah Winograd computador legitimó el estudio de la memoria y de estados internos en la psicología. Los ingenieros estaban usando términos mentalistas que los psicólogos ‘soft’ querían usar, pero habían aprendido que no eran científicos” (p. 128). Turkle (1995) se estaba referiendo a terminos como “objetivos”,“pensamientos” e “intenciones” que habian sido excluidos del léxico psicológico por los comportamentalistas. A partir de los numerosos desarrollos tecnológicos mencionados anteriormente, el movimiento cognitivista participó de la articulación de las nuevas áreas científicas que se proponían a crear artefactos que pudiesen simular el comportamiento mental racional. Tenemos, asi, psicología, filosofía de la mente, lógica, cibernética, teoría de la información, biología, física, química, linguística, buscando la integración necesaria para el desarrollo de una “máquina inteligente”, esto es, de computadores cada vez más sofisticados que pudiesen hacer una simulación del comportamiento humano. Más genéricamente, la ciencia cognitiva estudia la naturaleza de la relación mente/cerebro. Sin embargo, diferentemente de la psicología, ella comienza a desarrollar la concepción de que el modelo más viable para estudiar la mente/cerebro sería el computador, en la medida en que este sería capaz de reproducir algunas capacidades y funciones de la mente humana. Está, por tanto, interesada en utilizar procesos conputacionales e informacionales para entender los procesos cognitivos, o mejor, en usar conceptos computacionales para explicar la mente/cerebro. La fórmula “mente/cerebro” pertenece a las analogías hechas entre la mente y el computador. Asi, la mente seria análoga al software y el cerebro, al hardware y tal como el computador consiste en hardware e software, la persona consistiría en cerebro y mente (Dennett, 1985; Searle, 1998). Esa seria la Inteligencia Artificial (IA) fuerte, segun la denominación crítica de Searle (1998), destinado al fracaso en la medida en que rechaza la materialidad corporal característica de todo ser vivo. Si esa habia sido la orientación central de la Ciencia Cognitiva de los años 50 a los años 70, la década de 80 conoció una nueva tendencia, el conexionismo, que retomaba algunos conceptos de la cibernética. Anclado en el exito de investigaciones en el campo ya entonces denominado de neurociencia, el conexionismo tenía como una de sus prioridades simular el carácter autoorganizador del cerebro humano. Los investigadores utilizaron simulaciones en computador de redes neurales o de procesos biológicos. Crearon simulaciones con ‘neuronas’ artificiales o formas, ‘sinapsis’, etc., como se hacen simulaciones meteorológicas o de construcciones de edificios,
Psicologia UsP, São Paulo, janeiro/março, 2009, 20(1), 11-30 3
utilizandose varias herramientas matemáticas como las lógicas paraconsistentes o las lógicas nebulosas. En esa nueva tendencia, llamada de Inteligencia Artificial emergentista, tambien encontraba lugar el conocimiento más reciente de la neurociencia sobre la arquitectura neuronal: la existencia de redes neurales, el procesamiento de la información en paralelo, la influencia de los neurotransmisores sobre el funcionamiento cerebral. Turkle (1995) afirma que una analogia diferente con el cerebro fue fundamental para el conexionismo. Asi, la forma más adequada de construir una “máquina inteligente” seria simular el modo de funcionamiento cerebral. El haria las conexiones “bottom- up”(ascendientes), y en el “top-down” (descendientes): el sistema aprendería a través de una cantidad inmensa de diferentes conexiones y, en ese sentido, seria imprevisible y no determinista. El modelo conexionista no es construído sobre reglas, por ejemplo, para reconocer rostros humanos, pero “entrena” una red de neuronas artificiales que es “recompensada” al reconocer correctamente un rostro. El sistema en el cual ese procedimiento se basa es aquel donde no existe un único programa que rige todo el sistema. Por el contrario, se trata de un conjunto de “pequeños programas chamados ‘agentes’, cada uno con un conjunto pequeño y bien delimitado de reglas a seguir y un pequeño conjunto de datos en el cual basa sus decisiones” (turkle, 1995, p. 130). Em resumen, el conexionismo toma como modelo redes de neuronas formales y busca construir un sistema cognitivo pertiendo de elementos simples que puedan conectarse entre si a través de conexiones. Su concepción básica es que el pensamiento humano no procede por pasos lógicos, y si a través de la interacción entre micro unidades de información, de la cual emerge la solución de un problema. En una red conexionista, no se procede a la resolución de problemas por cálculos en sequências de pasos lógicos. Diversamente, se opera em paralelo, sin control central, por un efecto de las interacciones locales. Para el conexionista, la cognición emerge de estados globales en una red de componentes simples, con reglas locales que generan las operaciones individuales y reglas de cambio que generan los vínculos entre los elementos.
4 PSICologIA E BIologIA: AlgumAS INtErSEçõES Flávia Sollero-de-CampoS e monah Winograd