Está en la página 1de 19

 Corriente europea: Claude Levi-Strauss ( antropología) , Michel Faucault

( filosofía) y Jean Piaget.


 Los estructuralistas creían que los patrones de conducta humana
individuales o sociales se podían explicar a través de estructuras abstractas
de naturaleza lógica o matemática.

Jean Piaget (1896-1980).


 Estructuralista más importante en el ámbito de la psicología. Propuso la
epistemología genética para estudiar científicamente el conocimiento.
 Dividió el desarrollo intelectual de los niños, desarrollo cualitativo y no
cuantitativo, en cuatro etapas, cada una de ellas definida según un conjunto
específico de estructuras cognitivas lógicas, ya que consideraba que la
inteligencia no se desarrolla de forma cuantitativa (cantidad de
conocimiento), sino que son transformaciones cualitativas las que hacen
que un niño pase de una etapa a otra, son cambios de la estructura lógica
de la mente del niño.
 Noam Chomsky (gramática transformacional)
 intento de explicar el lenguaje en términos de estructuras formales
gramaticales (gramática universal innata).
 Estudio de la persona como ser social
Leon Festinger (1919-1989)
 Dentro de la psicología social, una de las teoría de gran influencia en los
años 50 y principios de los 60 fue la “Teoría de la disonancia cognitiva” las
creencias de una persona y a la interacción de dichas creencias, las cuales pueden encajar o
contraponerse unas a otras creando las disonancias cognitivas.
 La teoría del “New Look” en percepción
▪ Bruner
▪ enfoque psicoanalista de la percepción.
▪ la personalidad del perceptor y su marco social influyen sobre lo que el perceptor ve.
El estudio más conocido giraba en torno a la “defensa perceptiva” y planteó la
posibilidad de la percepción subliminal.
▪ Propuso una visión de la percepción en la cual el perceptor adoptaba un papel
activo, en lugar de ser un receptor pasivo de los datos sensoriales. Ejemplo: palabras
“tabú” u obscenas requieren periodos de exposición más largos que palabras
neutras.

▪ Defensa perceptiva: Una vez que hemos establecido nuestros modos característicos
de ver el mundo, tendemos a aferrarnos a estas características que llegan a
convertirse en "creencias" que nos permiten vivir y dotar de sentido al mundo. Por
eso son tan útiles las percepciones, ya que clasificamos y organizamos el entorno. Sin
embargo, esta defensa perceptiva que actúa como filtro, puede también reducir
nuestra capacidad para entender completamente a otra persona en una situación
dada.
INTELIGENCIA PROCESAMIENTO DE
ARTIFICIAL LA INFORMACIÓN
 A partir de la Segunda Guerra Mundial surgieron los
nuevos ordenadores digitales de alta velocidad, aportando
conceptos que parecían salvar el escollo del “fantasma” en
la máquina. Dos conceptos importantes :
 la retroalimentación informativa
 el programa del ordenador.
 Rosenblueth, Wiener y Bigelow articularon la retroalimentación
informativa como un principio general aplicable a cualquier tipo de sistema
propositito, mecánico o viviente.
 Ejemplo: Termostato conectado a la calefacción. Tiene el propósito
de mantener la casa a una determinada temperatura, cuando alcanza esa
temperatura se detiene la calefacción hasta que se modifica la temperatura
que vuelve a ponerse en marcha.
Los termostatos son máquinas conscientes cuya conducta es una
respuesta adaptativa al entorno y no hay ningún fantasma en el termostato.
Turing
 Definió el campo de la inteligencia artificial y el programa de
la ciencia cognitiva (pregunta fundamental: ¿pueden pensar
las máquinas?).
 Turing propuso plantear la cuestión más concretamente en
términos de un juego, “juego de la imitación” (prueba o test de
Turing).
 Test de Turing: Una persona interroga mediante un terminal de
ordenador a otros dos interlocutores; uno es humano y el otro un
ordenador, pero la persona que interroga no sabe cuál es cuál. El
juego consiste en hacer preguntas destinadas a distinguirlos. Turing
proponía que se considerase que un ordenador es inteligente si
consigue hacerse pasar por el ser humano en esta prueba ( si piensa
como una persona es inteligencia artificial)
 El término Inteligencia Artificial (IA) lo acuñó McCarthy.
 El objetivo de la IA es crear máquinas que desempeñen tareas humanas (
“IA pura”); pero hay otra versión (utilizada en psicología): simulación por
ordenador (más que emular al ser humano, el objetivo es imitarlo).
Broadbent
 los psicólogos deberían considerar todo lo que entra a través de los
sentidos como “Información” no como estímulos físicos.
 La arquitectura electrónica real de un ordenador (hardware), carece de
importancia porque lo que hace que un ordenador se comporte como lo
hace es su “programa” (software), por lo que las teorías cognitivas debían
fijarse no en el cerebro (para eso estaba la neurología) sino en la mente
humana (el software del ser humano).
 el objetivo de la psicología consistiría en especificar como el ser humano
procesa la información (la fórmula E-R se convierte en input –output).
La simulación del pensamiento

Newell, Shawh y Simon (1956) desarrollaron un programa


informático, “El Solucionador General de Problemas” (General
Problem Solver, GPS) para simular por ordenador la resolución
humana de problemas, proponiendo un acercamiento
cognitivo a la psicología (describir la conducta como un
programa informático). Por ejemplo la Torre de Hanoi

http://es.wikipedia.org/wiki/Torres_de_Han%C3%B3i
El hombre máquina
en los años 60 , los psicólogos terminaron aceptando el
paralelismo entre la persona y el ordenador, debido
principalmente a que era compatible con la tradición
mediacional de la psicología (Hull y Tolman). Los psicólogos
mediacionales aceptaban la idea de procesos mediadores entre
estímulos y respuestas (eslabones de unión r-e entre las
conexiones E-R observables).
Se acaba adoptando el modelo de procesamiento de la
información: El E de la formula E-r-e-R podía convertirse en
“entrada o input”, R en “salida o output” y la r-e en
“procesamiento de la información” (Ej.: trabajos de Atkinson y
Shiffrin, 1968 sobre el funcionamiento de la memoria).
LOS INFORMÁVOROS (Miller)
La Inteligencia artificial y la simulación por ordenador comenzaron a fundirse a
finales de los años 70, dando lugar a un nuevo campo (distinto de la psicología), la
Ciencia cognitiva, creando su propia revista “Cognitive Science”.

Según Miller, todos los sistemas de procesamiento de información, tanto humanos


como máquinas, operaban igual con los mismos principios.

Los objetivos de la ciencia cognitiva humana són dos:


- reducir la conducta compleja a elementos más simples
- reducir el pensamiento humano a neurofisiologia
Funcionalismo

La tesis básica del funcionalismo proviene de la programación informática. Para


poder predecir, controlar y explicar la conducta de un ordenador programado,
no es necesario conocer los procesos electrónicos implicados en su
funcionamiento. Lo que se necesita saber son las funciones computacionales de
nivel superior del sistema, es decir, puedo saber utilizar un programa sin
necesidad de conocer el funcionamiento interior del ordenador.

El funcionalismo simplemente extiende a los seres humanos la distinción


programa-ordenador. Los ordenadores utilizan un hardware para desarrollar
sus funciones computacionales y el funcionalismo afirma que las personas
utilizan un “wetware” para hacer lo mismo (la mente).
Funcionalismo

Conserva las virtudes de los enfoques de Hull y Tolman. Desde el punto


de vista del funcionalismo tanto Hull como Tolman tenían razón, pero
les faltaba el enfoque computacional para unificar sus intuiciones:
 Hull tenía razón al afirmar que los organismos son máquinas.
 Tolman estaba en lo cierto con su teoría de que los organismos crean
representaciones a partir de la experiencia.

La mente es un programa ejecutable: conociendo el “programa humano”


se puede predecir, controlar y predecir la conducta (Pinker, 2002).
 La intencionalidad
Según Dennett (uno de los creadores del funcionalismo): cuando jugamos al ajedrez
con un ordenador tendemos a tratarle como a un ser humano, atribuyéndole
disposiciones mentales (Actitud intencional). Las personas adoptamos esta actitud
intencional de forma natural hacia las personas, a veces hacia animales, y en
determinadas ocasiones hacia las máquinas. Pero lo que ocurre dentro del
ordenador, no es intencional. El programa no “quiere”, “teme” ni “intenta”,
simplemente realiza computaciones formales de patrones de unos y ceros, y
nosotros consideramos eso como conducta intencional.
 La prueba de Turing
Experimento “habitación china” de Searle: concluye que la persona que
está dentro de la habitación china se comporta igual que un ordenador. El
argumento de Searle demuestra que la prueba de Turing no es una medida
adecuada de la inteligencia porque la habitación china pasa esa prueba sin
entender absolutamente nada y su “modus operandi” es exactamente igual
que el de un ordenador.

Searle distingue entre:


 Versión débil de la Inteligencia Artificial (utilizar ordenadores
simplemente como instrumentos)
 Versión fuerte (suposición de que la simulación de la inteligencia “es” la
inteligencia).
¿Es verosímil el formalismo?

los ordenadores desarrollan una conducta simbólica (a diferencia de Searle),


podemos programarlos para que realicen multitud de funciones. Con esto la
“Comisión” estaba afirmando que cualquier cosa que hagan las personas es un
procedimiento formal o FORMALISMO.

En lugar de funcionar de forma computacional, los humanos parecen funcionar por


intuición, se nos ocurren soluciones para los problemas sin pensar. Pero un
ordenador como es un sistema formal, debe considerar todas las implicaciones de
sus actos para luego desecharlos. Escapar de este problema exige emoción, cosa
que los ordenadores no tienen.
Su líder fue David E. Rumelhart.
A principios de los años 80 aparece un nuevo “conexionismo” (recuerda a
Thorndike) a partir de
 Marr distingue tres niveles de computación: cognitivo (tarea), algorítmico
(programa informático) y de implentación (hardware). Para el enfoque simbólico, la
implementación de programas en un ordenador o un cerebro es indiferente:
inteligencia como manipulación de símbolos de acuerdo a reglas formales; pero para
sistemas conexionistas, sólo ocurre lo anterior a nivel consciente; pero hay también
un nivel intuitivo.
 Smolensky distingue entre el procesador consciente y como con la habilidad lo
convertimos en procesador intuitivo.
 Dennet propone un sistema híbrido (simbólico y conexionista): la conciencia es
una maquina virtual en serie (procesador consciente regido por símbolos y reglas)
implementada en la arquitectura en paralelo del cerebro (procesador intuitivo).
 Neurociencia cognitiva: avances en fisiología del cerebro se unen a teorías
simbólicas y conexionistasl concepto PDP (Procesamientos Distribuidos en Paralelo).

También podría gustarte