Está en la página 1de 9

1

Apunte de la cátedra UBA

LAS CIENCIAS COGNITIVAS: Nuevo paradigma


Prof. Ma. del Pilar Ferro

Un PARADIGMA es un conjunto de creencias implícitas o explícitas, aceptadas por acuerdo de la comunidad


científica, con postulados sobre los fenómenos que constituyen el objeto de estudio, los cuales ya no son puestos en duda.
Todo cambio de paradigma es revolucionario, no acumulativo.
El pensamiento psicológico de principio del siglo XX estaba hegemonizado por dos grandes corrientes: el
conductismo y el psicoanálisis.

El Conductismo
Los defensores de la primera corriente de pensamiento sostenían un punto de vista periférico del comportamiento.
Establecían que la conducta está compuesta de respuestas elementales y puede ser sucesivamente analizada por métodos
científico-naturales.
La conducta está así enteramente compuesta de secreciones glandulares y movimientos musculares, es decir,
reductible a procesos físico-químicos. De tal forma que siempre hay una respuesta inmediata de alguna clase a todo
estímulo, estableciéndose entonces un determinismo estricto de causa-efecto en la conducta.
Dado un estímulo se puede predecir la respuesta u, observando qué reacción tiene lugar, es posible predecir cuál
es el estímulo que la provocó. De esta forma niegan que para explicar un comportamiento hubiese que recurrir a procesos
centrales que intermediaran entre el estímulo y la respuesta.
El sistema nervioso animal cumple, entre otras, la función de recoger y procesar información del entorno. Este
procesamiento da lugar a una variedad de transformaciones internas en el organismo antes que éste produzca una
respuesta.
Esquemáticamente pueden distinguirse 3 posibles jerarquías en la complejidad de dicho procesamiento, del más
sencillo al más complejo comprenden:
1. Las acciones que derivan de automatismos
2. Las funciones vitales reguladas
3. Las que involucran procesos cognitivos superiores.
En cada uno de estos niveles el circuito que media entre el estímulo y la respuesta es más largo y menos directo,
está cada vez más interrumpido y resulta más arriesgado tratar de efectuar una correspondencia biunívoca entre uno y otra.
La primera jerarquía o nivel, y la más sencilla, es la de los automatismos y los reflejos (ej.: contracción pupilar ante
la luz). El flujo de información no puede tomar otro curso que el establecido y las respuestas están directamente ligadas a
los estímulos.
En organismos superiores ciertos reflejos pueden desaparecer con la maduración del individuo (ej.: reflejo de
succión).
En un 2do. Nivel, más complejo, se encuentran las funciones vitales reguladas. Las vinculaciones del sistema
nervioso con otros sistemas del organismo se constituyen en una parte importante de este nivel. Entre el grupo neuronal
aferente y el motor, se intercala una etapa de procesamiento en la que la medida de la acción desencadenada regula su
propia intensidad en los instantes subsiguientes.
El proceso puede descomponerse en 2 etapas:
1. El organismo encara una respuesta con el único dato del estímulo recibido
2. Esa respuesta junto con el estímulo son datos que se usan para elaborar otra respuesta más adecuada.
Cuando eso sucede se dice que hay un lazo de realimentación. Similar a lo que sucede con un termostato o con un
flotante que regula la entrada de agua a un tanque (ver ejemplo en artículo de Ciencia, Cibernética y Sistemas). Por
ejemplo: beber, comer o la actividad sexual son acciones reguladas por realimentación. En el caso de la sed el papel del
termómetro lo desempeña el riñón, que detecta la pérdida de líquido y envía una señal química. Esta consiste en una
enzima que actúa sobre las neuronas del hipotálamo encargado de producir la sensación de sed.
El tercer nivel corresponde a las conductas reguladas por las emociones y procesos cognitivos. En el caso de las
emociones profundas el hipotálamo participa como parte del sistema límbico y a través de copiosas vinculaciones con la
corteza cerebral. Actúa como elemento reforzador la memoria que, al sufrir constantes agregados y modificaciones , agrega
un elemento de plasticidad a todo el sistema.
Es teniendo en cuenta estos elementos que las explicaciones conductistas que pretendían establecer una
correspondencia universal y directa entre estímulos y respuestas se vuelven insuficientes pues, una vez que el estímulo
sensorial es traducido a señales sensoriales se desencadena un complejo procesamiento en el que interviene la evocación
de situaciones pasadas y la propia modificación de ese “archivo”. La conducta, tomada como el espectro de respuestas al
medio pasa a ser patrimonio de cada individuo, único como su historia y que no se comparte sino en aspectos muy
generales con los de otros individuos de su misma especie.

El Psicoanálisis
El psicoanálisis basa sus postulados en los procesos inconscientes antes que en los procesos conscientes, su
objeto de estudio es el inconciente.
Es así que los procesos cognitivos entonces son definidos como centrales por el conductismo y como conscientes
por el psicoanálisis.
2
Hacia mediados del siglo los XX los postulados del conductismo comienzan a ser cuestionados desde fuera y
dentro de la propia comunidad conductista, al mostrarse impotente para interpretar el comportamiento humano más
complejo.
El paradigma conductista estaba llegando a su fin.
Surge así un nuevo paradigma para explicar los fenómenos llamados centrales para unos, conscientes para otros y
que serían considerados ahora como fenómenos mentales, nos referimos al paradigma cognitivo.
Se desarrolla de un nuevo modelo para entender a los seres humanos: se propone ver a los seres humanos como
dispositivos de procesamiento de información y describirlos en los mismos términos que se utilizaba para describir
dispositivos de procesamiento de información más simple.
Se presta atención a los estados centrales, no observables, entre los estímulos y las respuestas manifiestas.
La ciencia (o ciencias cognitivas) “es el campo de investigación del conocimiento, humano y artificial integrado
por una amplitud interdisciplinar jamás conocida” (Tudela Garmendia). “Conjunto de actividades científicas cuyo objeto de
estudio es el conocimiento” (Damián Justo). Es el “campo multidisciplinario compuesto por la Inteligencia Artificial, las
neurociencias, la lingüística, la psicología cognitiva, la epistemología, etc. dedicado al análisis científico del conocimiento
en todas sus dimensiones. Sus aplicaciones constituyen las Tecnologías de la cognición. (Varela, 1990).
Esta tecnología de la cognición le brinda al hombre una nueva imagen de sí mismo, de su mente. La imagen de una
maquinaria que maneja representaciones simbólicas o subsimbólicas y de forma automática produce efectos que se
parecen mucho al pensamiento humano. Se pone énfasis en el estudio de todos los sistemas inteligentes, sean naturales o
artificiales.
En el desarrollo de estas ideas ha tenido fundamental importancia la llamada “metáfora computacional” : la
comparación entre cómo trabaja la mente humana y los procesos que realiza una computadora en su funcionamiento,
especialmente en lo que se refiere a su estructura básica y a su software.
“Con el tiempo, el antiguo modelo estímulo-respuesta llegó a ser sustituido en la línea principal de la psicología por
la idea central de procesamiento de información, que implica atención selectiva, representaciones de bases de datos (...) y
otras cosas análogas. Muy pronto intervinieron la metáfora y luego la tecnología del control central y rutinas ejecutivas (...)
Hoy día, las cuestiones de este orden se han hecho corrientes, no sólo en psicología cognitiva, sino en las teorías del
desarrollo, en la producción y comprensión del lenguaje y sobre todo en la psicología aplicada (...) se da una curiosa ironía
que no escapará a esta labor (...) procedía del reciente campo de la computación y fue resultado del esfuerzo llevado a
cabo para describir cómo se puede crear comportamiento inteligente en máquinas (...) aprendimos que el comportamiento
complejo no es inherente al lenguaje mecánico de la computadora, sino a los programas que construimos para guiar sus
operaciones (...) La fuente de la inteligencia de la máquina es la potencial capacidad del que crea el programa. Lo singular
de la mencionada ironía es que, forzosamente, proyectamos nuestras propias características en la máquina y a partir de
esta proyección hemos sido por fin capaces de inferir lo que supone ser inteligente. La computadora, que fue primero una
pantalla de proyección, llegó a ser finalmente un espejo para el hombre” (Bruner, 1982).
La ciencia cognitiva surge de una combinación de diferentes disciplinas académicas y comprende una gama muy
amplia de campos intelectuales, en comparación con otras disciplinas académicas.
La teoría de la comunicación aportó la idea de retroalimentación (feed-back) Tolman afirma que el cerebro “se
parece mucho más a una torre de control que a una de esas antiguas centralitas telefónicas. Los estímulos a los que se
permite pasar no están conectados con las respuestas que se emiten mediante sencillas conexiones directas”.
Además de la idea de retroalimentación las investigaciones cibernéticas trajeron una analogía del ser humano como
manipulador de símbolos, como transmisor y elaborador de información y como sujeto que debe usar esa información para
conocer y para tomar decisiones.
Varios autores coinciden en reconocer que la misma surge entre los años 1955 y 1960 e incluso lo sitúan más
precisamente en el año 1956 a raíz de celebrarse un simposio sobre la ciencia de la información en el Instituto Tecnológico
de Massachussets (MIT) donde se reunieron por primera vez varios pensadores de diferentes disciplinas que iban a
desempeñar un papel fundamental en el surgimiento de la ciencia cognitiva.
La teoría de la información junto con la ciencia de la computación fueron estimuladas por los desafíos prácticos de
la 2da. Guerra Mundial que los enfrentaba a la necesidad de mejorar su conocimiento de cómo codificar, decodificar,
comprender y transformar la información transmitida.
Los avances en el procesamiento de la información y en la computación artificial proporcionaron a los
investigadores de varios campos nuevos recursos intelectuales para pensar de manera formal y rigurosa en los procesos
cognitivos. Proporcionaron una nueva terminología para los teóricos en psicología, permitiéndoles pensar en términos como
algoritmos, buffers de información, embotellamiento de flujo, bucles de retroalimentación, programas, etc, vocabulario propio
de las ciencias informáticas.
Se comenzó a considerar al ser humano como poseedor de una inmensa base de datos permanente (memoria a
largo plazo) y un sistema transitorio (memoria a corto plazo o de trabajo) que le permitía manipular momentáneamente una
cantidad limitada de información, independientemente de su paso al almacén a largo plazo.
Para manejar dicha información el sujeto debía disponer de algo parecido a los programas de computadora. Es
decir, una serie de instrucciones o procedimientos que le permitieran tomar decisiones y resolver problemas más o menos
complejos, desde hacer sumas de dos dígitos hasta decidir la fecha de su casamiento. Estos programas debían tener la
suficiente generalidad como para ser aplicados a un amplio conjunto de situaciones similares.

LA METAFORA COMPUTACIONAL
Cuando los científicos utilizan una metáfora no lo hacen de igual forma que se usa en la vida cotidiana, para ellos
toma el valor de un modelo que permite diseñar hipótesis y supuestos acerca de procesos que no son evidentes para la
experiencia directa. Se están valiendo de un modelo del cual toman una serie de ideas básicas para comprender un
conjunto de fenómenos que, de lo contrario, carecerían de sentido.
3
La metáfora del ordenador (a veces llamada analogía) es un modelo general utilizado por quienes pertenecen al
campo de las ciencias cognitivas, más allá de las diferencias de conceptualizaciones que se manifiestan en su seno. De
hecho, con el tiempo, han surgido críticas importantes representadas por las visiones narrativas y conexionista, que son sus
sucesoras.
Propone que la mente humana y el ordenador son sistemas de procesamiento funcionalmente equivalentes.
Ambos son capaces de resolver situaciones complejas y se presentan como típicamente representativos de la inteligencia,
ya fuera ésta natural o artificial.
Se constituye así en un nexo entre la psicología y la cibernética que amplía el enfoque de los problemas relativos a
las funciones mentales y llevó a desdibujar los límites de la categoría de los “objetos con mente”.
Uno de los objetivos centrales del uso de la metáfora es poder comprender cómo el ser humano adquiere el
conocimiento. Esta adquisición consta de procesos básicos que son similares tanto en el ser humano como en el
ordenador.
En ambos casos existe un sustrato físico: el cerebro en el ser humano y el hardware en el ordenador. También
ambos poseen un software: la mente en el caso humano (donde podemos distinguir contenido y estructura) y los programas
para la computadora.
El software es algo similar a las estructuras mentales debido a que los contenidos son comparables a la información
que se introduce en el ordenador.
(Ver Modelos procedurales y declarativos, Apunte Rehab. Comp. y T.C.C.)

El desafío de Alan Turing


Alan Turing fue un matemático quien en 1950 publicó el artículo Computing Machinery and Inteligence, que dio lugar
a la conocida y famosa Metáfora del Ordenador. Este autor planteó lo siguiente: “Supongamos que en lugar de hacer
especulaciones subjetivas sobre qué es pensamiento, hacemos una prueba objetiva.
El test consiste en crear una situación en la que una persona hace preguntas a seres que están en otra habitación y
a los que no puede ver ni tocar. El método para hacer las preguntas puede consistir en dárselas escritas a un mensajero
que se encarga de llevarlas hasta la habitación donde están los seres interrogados y de traer de vuelta las respuestas
dadas por esos seres, escritas en papeles.
Supongamos que esos seres son dos: un hombre B y una máquina A. Si quien formula las preguntas fuera incapaz
de distinguir a través de las respuestas recibidas, al hombre B, al que interroga sobre sus pensamientos, de la máquina A, a
la que pregunta sobre los suyos, podríamos decir que tanto el hombre como la máquina piensan.”
Siguiendo esta línea de razonamiento Turing entonces plantea que si la máquina imita perfectamente al hombre en
sus manifestaciones cognitivas, por qué no decir también que “piensa”. En realidad este desafío que nos propone Turing
debe entenderse como una metáfora. Una metáfora lo suficientemente profunda que fue capaz de movilizar el pensamiento
dominante hasta ese momento, provocando una verdadera revolución que llevó a la creación de diversos enfoques dentro
del campo de las ciencias cognitivas.
La metáfora quedó expresada de la siguiente forma: La mente es al cerebro lo que el software es al hardware.
Fueron varios los esfuerzos por explicar este planteo dando lugar al surgimiento de diferentes enfoques marcando
ciertos matices conceptuales. Aquí sólo haremos referencia a los primeros en surgir y que se conocen como las dos
versiones de la analogía del ordenador y han dado surgimiento a dos disciplinas prácticamente independientes pero
interconectadas.
1.- La versión fuerte representada por los defensores más ortodoxos quienes aceptan la analogía en un sentido
totalmente literal, dando lugar al sub-paradigma de la Computación sobre Representaciones y teniendo su aplicación en los
trabajos de Inteligencia Artificial. Consideran abiertamente los pensamientos humanos como cómputos en sentido cabal.
2.- La versión débil cuyos seguidores aceptan la analogía sólo como metáfora. Utilizan el lenguaje computacional
como inspirador teórico sin someterse a todas las implicancias que marca la analogía. Se trata del sub-paradigma del
Procesamiento de la Información.
Se apoyan en la investigación empírica del comportamiento inteligente humano para contrastar directamente en los
sujetos sus teorías y es así como elaboran sus interpretaciones teóricas.
Esta interpretación dio lugar al surgimiento de la Psicología Cognitiva.
Retomando la metáfora podemos apreciar que se establecen varias analogías diádicas en una sola:
1.- La relación mente-cerebro con software y hardware
2.- La mente análoga al software
3.- El cerebro análogo al hardware.

1.- La primera de estas analogías es la más básica y es el sentido sobre el cual debe ser interpretada la propuesta
de Turing.
Constituye una primera aproximación del funcionalismo que es el sostén filosófico sobre el que se desarrollaron
las investigaciones del campo de la Inteligencia Artificial. El funcionalismo sostiene que lo esencial de la mente está en la
estructura causal de los estados mentales, en su estructura y lógica de funcionamiento, en su estructura funcional y no en
la base neurofisiológica que la implementa físicamente.
A partir de 1980 cobra fuerza otra perspectiva: el conexionismo. Estudia modelos abstractos del funcionamiento
cerebral (simulados por computadora) y postula un nuevo tipo de representaciones: “representaciones distribuidas en
paralelo”. La información, que hasta el momento se consideraba contenida en los símbolos, se plantea que está presente
en la distribución de las conexiones entre elementos de una red neuronal y en la fuerza de esas conexiones.

2.- La analogía mente-software es la que ha tenido mayores consecuencias en los desarrollos teóricos y empíricos
de la psicología cognitiva.
4
Al utilizar el razonamiento por analogía se intenta generalizar algún conjunto de propiedades de un dominio A a un
dominio B, siempre que:
- Haya argumentos que apoyen tal generalización
- El dominio A sea más comprensible que el dominio B
- Esa generalización sea susceptible de algún tipo de comprobación.
Es así que, el hacer análoga la mente al software, permite a los psicólogos cognitivos entender el funcionamiento de
la mente a través de la comprensión de los procesos del funcionamiento de los ordenadores, donde cuentan con
herramientas de análisis más confiables que la introspección.

3.- La tercera de las analogías -cerebro-hardware-, es muy discutible y resulta difícil de sostener debido a las
diferencias de estructura entre el cerebro y las computadoras.
En síntesis, la analogía del ordenador incluye tres sentidos que implican diferentes cosas, de los cuales sólo dos se
sostienen; uno desde la Inteligencia Artificial y el otro desde la Psicología Cognitiva.
Para Turing las máquinas pueden pasar con éxito su test por poseer una propiedad que las define esencialmente,
son universales, capaces en potencia de computar cualquier algoritmo bien definido, cualquier procedimiento efectivo.
El hecho que actualmente hay determinados cómputos que no pueden realizar no es relevante para el planteo de
fondo de Turing ya que él no se refiere a los ordenadores materiales sino a una máquina abstracta de carácter universal.
Turing sostiene que mientras los pensamientos de las personas puedan entenderse como resultantes de
procedimientos efectivos (de algoritmos bien definidos) podrán ser imitados por una máquina que tiene dos características
esenciales, ser muy simple y universal.
Esta máquina abstracta había sido ya imaginada por este autor, quien la describió en un artículo considerado un
clásico de la teoría de la computación, en el año 1936.
Esta máquina abstracta y universal es antecesora de las actuales computadoras ya que la misma funcionaba
separando instrucciones y datos, empleaba un código binario y tenía estados discretos. Estas características son recogidas
posteriormente por John von Neumann quien las aplica a materiales físicos concretos, creando la que puede considerarse
primera versión de las actuales computadoras.
Se puede decir, entonces, que un ordenador puede entenderse como una realización física de la máquina universal
de Turing.

Implicancias de la analogía
Aceptar la analogía en forma literal nos lleva a plantearnos diferentes implicancias:
1.- Suponer que las operaciones mentales que realizan los seres humanos pueden ser descritas como algoritmos
bien definidos.
2.- Ubicarse en un nivel de descripción puramente funcional
3.- Considerar el procesamiento de información llevado a cabo por los seres humanos como estrictamente
secuencial.
4.- Provocar una disociación teórica entre dos entidades: la mente fenomenológica y la mente computacional.

Veamos más detalladamente este punto. La psicología cognitiva concibe a la mente como un sistema de
procesamiento de la información. La información durante el proceso mental sufre procesos computacionales (recorre
estructuras representacionales, se recodifica, etc.).
La mente así postulada es una mente computacional.
En la medida que los seres humanos no nos damos cuenta de esos procesos significa que en su gran mayoría son
inconcientes.
Tenemos entonces lo que podemos denominar: mente fenomenológica -conjunto de los procesos concientes- y
mente computacional -conjunto de procesos inconcientes-
El problema surge cuando la psicología cognitiva construye casi todas sus teorizaciones a partir de la noción de
causalidad mental y, por la naturaleza misma de la noción de computabilidad, es en la mente computacional donde se
ubican las causas. Por lo tanto la mente fenomenológica (procesos concientes) tiende a quedar fuera de las teorizaciones
de la psicología cognitiva, la conciencia queda reducida a una espectadora de las computaciones mentales y eso constituye
un problema: “problema mente-mente”, el de la relación entre la mente computacional y la mente fenomenológica.

PSICOLOGIA COGNITIVA
Dentro de las Ciencias Cognitivas, la psicología cognitiva se ocupa de estudiar las estructuras y procesos
psicológicos comprometidos en nuestro conocimiento del mundo y de nosotros mismos.
Es el estudio científico de los procesos cognitivos que realiza la mente humana para conocer su entorno y que
pueden estar relacionados directa o indirectamente con el comportamiento.
Por lo tanto puede hablarse en dos sentidos del término cognitivo:
1.- Estudio específico de los llamados procesos intelectuales de mayor o menor complejidad -percepción,
atención, memoria lenguaje y razonamiento-. “Intenta entender la naturaleza de la inteligencia humana y
cómo piensan las personas” (Anderson).
2.- Orientación general para estudiar aspectos del comportamiento de los seres humanos.
“El análisis científico de los procesos mentales y estructuras de memoria humanos con el fin de comprender la
conducta humana” (Mayer). Cabe aclarar que este autor utiliza el término memoria como sinónimo de conocimiento.
5
En síntesis: la cognición y el comportamiento.
La analogía o metáfora del ordenador es usado por muchos psicólogos cognitivos en sus aspectos funcionales, no
físicos. Se pretende disponer de un modelo que permita diseñar hipótesis y supuestos precisos acerca de procesos que no
son obvios para la experiencia directa.
Desde este punto de vista funcional, tanto la computadora como la mente, codifican, almacenan, recuperan y
operan con inputs. Ambos procesan información, aunque no se considera una identificación cualitativa de ambos tipos de
procesamiento.
Horward Gardner, en 1985, ha utilizado la expresión “presupuestos centrales y características estratégicas” para
referirse a los supuestos fundamentales, los metapostulados, de la psicología cognitiva.
Señala que la misma se caracteriza por cinco rasgos fundamentales:
1.- Enraizamiento en los problemas filosóficos básicos
2.- Tendencia a mantener relaciones interdisciplinarias
3.- Establecimiento del nivel de análisis en el estudio de las representaciones
4.- Escasa importancia y consideración de la influencia del afecto, el contexto, la cultura y la historia en el
conocimiento humano.
5.- Influencia mayor o menor del ordenador como metáfora del conocimiento humano.
Se postula la existencia de un nivel de representación compuesto por símbolos, reglas, imágenes; todo lo que
encontramos entre lo que ingresa (input) y lo que egresa (output) de nuestra mente.
Se trata de representaciones mentales que no se pueden considerar como un solo tipo de cosas, sino como un
nombre que podemos utilizar para referirnos a muchos tipos diferentes de almacenamiento de información accesible.
Muchas representaciones aparentemente unitarias tienen múltiples restricciones a nivel neurológico: por ej. una función
aparentemente básica como el reconocimiento de objetos está mediada por múltiples vías neurológicas separables
También se establece, con diferente grado de aceptación, que para comprender la mente humana es esencial
utilizar la metáfora del ordenador.
Disminuye el énfasis sobre aspectos como los afectos y emociones, las variables históricas y culturales, aunque
cada vez son más quienes sostienen dentro de la disciplina que las variables afectivas, culturales y contextuales son
imprescindibles para mostrar una visión acabada del conocimiento humano.
Expresan la importancia de la utilidad de los estudios interdisciplinarios con la gran esperanza que surja, finalmente,
una ciencia cognitiva unitaria y unificada.
Cabe destacar que todas estas convicciones no son unánimemente aceptadas en la comunidad científica.
El nivel de explicación que interesa a la psicología cognitiva es el que tiene relación con dos cuestiones esenciales:
1.- la estructura del sistema computacional
2.- las operaciones básicas que realiza la mente humana.

1.- Con respecto al primero la psicología cognitiva toma los modelos básicos de los diferentes sistemas de
almacenamiento de información de las computadoras:
a) memoria RAM (transitoria, de capacidad limitada, no supone su permanencia en el sistema) comparable a la
memoria humana a corto plazo.
b) memoria ROM (permanente, mucha mayor capacidad). Comparable a la memoria humana a largo plazo.
Ambas memorias (RAM-ROM) y en ambos casos (en el sistema natural y en el artificial – hombre o máquina-) no
son almacenes de información que sólo tienen una relación de contiguidad sino que presentan una estrecha relación, de
manera que los programas que se usan en la primera (RAM) determinan la manera en que recibe y puede guardar la
información la segunda (ROM) y, de acuerdo a cómo ha sido almacenada esa información en la ROM, le resultará más
sencillo a la RAM recuperarla para poder utilizarla.
Cabe aclarar que si bien se toma esta comparación a grandes rasgos, la psicología cognitiva ha venido sosteniendo
la existencia de tres “almacenes” o fases con respecto a la memoria: sensorial, a corto plazo y a largo plazo e incluso se
llega a hablar de un correlato neurológico diferente entre las mismas. En esta oportunidad no ahondaremos en el tema.

2.- En relación a la segunda, toma la idea de programa y de procesamiento de información en serie o sucesivo y
no en paralelo o simultáneo.
El término programa es tomado en el sentido de dar cuenta de un “plan general” que preside la organización de la
cognición y el comportamiento humano, de cómo los seres humanos jerarquizamos y organizamos nuestras cogniciones y
acciones para dar las soluciones adecuadas.
En general, un programa suele definirse como la descripción detallada de los pasos que sigue un sistema de
conocimiento, sea de tipo natural o artificial, para alcanzar un determinado objetivo. No es una secuencia rígida sino que
incluye múltiples posibilidades que vienen dadas por decisiones que se van tomando en las diferentes alternativas
ofrecidas.
Por ejemplo, la aparentemente sencilla actividad de caminar requiere un “programa motor” que la haga posible y el
cual no es una yuxtaposición de pequeños elementos sino que cada pequeño movimiento está insertado en movimientos
más amplios y esto hace que haya una jerarquía que incluye bucles, retroacciones y demás conceptos tomados de la
programación computacional.
Los seres humanos estamos dotados de diferentes “programas” para realizar las distintas actividades de nuestra
vida: para organizar nuestro estudio y los momentos de descanso, para alimentarnos, para seducir a otras personas, para
ser fieles a nuestras convicciones, etc. En todos ellos utilizamos una táctica y una estrategia y, en la medida en que ambas
existan, estamos hablando de programas, más allá del grado de complejidad que tengan.
6
Si no tuviéramos programas nos veríamos superados por la cantidad de información nueva que tendríamos que
procesar. Si para cada ocasión no contáramos con un programa previo, la actividad sería tan desbordante que nos
paralizaría. (Ver Planificación Cognitiva)
La inmensa mayoría de ellos permanecen al margen de nuestra conciencia. Precisamente una de las tareas de la
psicología cognitiva es tratar de elaborar programas que simulen la cognición humana, de la cual la conciencia es sólo una
parte. Por ejemplo: si no sabemos qué operaciones mentales realizamos los seres humanos cuando leemos, la elaboración
de un programa constituye la elaboración de una teoría que permita diseñar un modelo de la actuación de la mente humana
al respecto. En gran cantidad de casos la conciencia impide el conocimiento de los procesos cognitivos porque muchas
veces éstos se transforman en acciones automatizadas.
Si se consiguen diseñar en la computadora programas que realicen algo igual o parecido a lo que hace la mente
humana, programas que simulen la cognición humana, dichos programas se convierten, entonces, en teorías defendibles
sobre el conocimiento humano.
Este planteo no significa que la experimentación no siga cumpliendo un papel importante sino que se verá
complementada con los aportes que brinda la simulación en la computadora.

INTELIGENCIA ARTIFICIAL
El deseo de construir máquinas inteligentes podemos encontrarlo ya en las antiguas civilizaciones como Grecia.
Aunque este interés existía desde hace varios siglos sólo pudo lograrse cuando se dispuso de una detallada comprensión
de los procesos inteligentes, lo que se facilitó por el crecimiento de la psicología cognitiva por sobre el conductismo. La
habilidad técnica para construir máquinas capaces de ejecutar esos procesos complejos, que surge con el desarrollo de las
computadoras digitales.

Diferentes Modelos: Simulación e Inteligencia Artificial


Los modelos de simulación son los utilizados por los psicólogos cognitivos y, como se señalara anteriormente, lo
que se pretende es elaborar un programa de computadora que sea una buena teoría psicológica para lo cual se mantiene
una mayor dependencia de los datos empíricos procedentes de las sujetos humanos.
La Inteligencia Artificial (IA) también se propone construir un programa de computación que cuando se ejecute
produzca un comportamiento “inteligente” análogo al humano en tareas comparables. La diferencia es que como objetivo se
plantea que los programas funcionen satisfactoriamente.
El programador de IA está interesado en simular el comportamiento inteligente humano, pero antepone la eficacia a
la plausibilidad psicológica en sus programas.
En principio, no pretende que el programa reproduzca todos los parámetros relevantes de la conducta humana (por
ej. tiempo de reacción, tipo de errores, etc.), por esto no realiza estudios previos ni se interesa por los existentes. Los
programas de IA no son teorías psicológicas aunque se apoyan en algunas reflexiones intuitivas sobre la conducta
inteligente humana.
Los temas tratados por científicos de ambas corrientes son coincidentes e implican una conexión interdisciplinar. En
algunos casos la inteligencia artificial produce programas que tienen valor de “antimodelos” para la psicología cognitiva y, en
otros casos, puede tomar de ésta última conceptos que tienen relevancia en sus trabajos.

¿Pueden pensar las máquinas?


La respuesta a esta pregunta ha contado con adeptos y detractores, pero más allá de esto no se puede negar “que
ha hecho avanzar enormemente la comprensión que en la actualidad tenemos de la mente humana.” (Mateo, 1995)
Hasta no hace muchos años el cálculo se consideraba una aptitud exclusivamente humana pero en la actualidad
muchos afirmarían que es, de hecho, una actividad mecánica. En la medida que las computadoras desarrollen habilidades
cada vez más sofisticadas (que en la actualidad consideramos exclusivas de los seres humanos) ¿éstas también podrán
considerarse en el futuro como de naturaleza mecánica?
Hay dos formas de considerar este planteo:
- ¿Las máquinas se están volviendo inteligentes ya que logran hacer actividades consideradas exclusivamente
humanas, ó
- Muchos de nuestros procesos intelectuales son de naturaleza mecánica?.
Tal vez estas posiciones pueden conciliarse si aceptamos que se puede describir algo e, igualmente, seguir
considerándolo inteligente.

El desarrollo de la Inteligencia Artificial


Haremos un recorrido cronológico que nos mostrará cómo fue avanzando el pensamiento científico y cuáles fueron
los aportes que se sumaron desde diferentes áreas para finalmente dar origen a esta nueva disciplina y los avances que se
fueron sucediendo dentro de su propio seno.
Los autómatas del siglo XVII y XVIII ejecutaban acciones interesantes pero no desempeñaban actividades
intelectuales: se limitaban a realizar movimientos prescriptos por mecanismos de relojería.
Los esfuerzos para utilizar máquinas para los problemas intelectuales comenzaron seriamente con el desarrollo de
las calculadoras automáticas ya que el cálculo se consideraba una aptitud intelectual humana.
Shannon sabía que los sistemas lógicos podían reducirse a proposiciones verdaderas o falsas y que podían
representarse y procesarse íntegramente mediante los estados de encendido-apagado de los interruptores eléctricos. Esta
línea de pensamiento dio origen a una nueva disciplina: la teoría de la información.
7
Postuló que toda información, sin importar sus contenidos, podía desglosarse en dígitos binarios (0, 1) y
representarse y procesarse por medio de máquinas.
La teoría de la información junto con la aparición de las computadoras eléctricas ayudó a establecer los cimientos
para el desarrollo de las actuales computadoras digitales, cuyas posibilidades siguen desafiando las ideas sobre el
funcionamiento cognitivo.
Otros científicos realizaron aportes que se sumaron a estos y contribuyeron a sentar las bases de trabajos
posteriores en este campo. Lashley sostenía que en actividades complejas, como la interpretación de instrumentos
musicales, se requerían acciones simultáneas y una secuencia de movimientos que sugieren una planificación avanzada y
representaciones o mapas mentales.
El lingüista Naom Chomsky siguió este camino para pensar en el lenguaje y la sintaxis. En 1956 presentó un ensayo
en el que establecía las bases para definir el lenguaje con la precisión de la matemática. Describió reglas –sintácticas y
lógicas- que operan cuando creamos oraciones y sostuvo que esas reglas reflejaban los mecanismos psíquicos
fundamentales subyacentes a nuestra capacidad de hablar. Su obra permitió comprender el procesamiento del lenguaje y
además sentó las bases para las computadoras que podrían generar y/o entender el lenguaje.
También en 1956, George Miller realizó un aporte fundamental para la comprensión de los procesos cognitivos. En
su ensayo: “El mágico número 7 + ó - 2: algunos límites en nuestra capacidad de procesamiento de la información” sugiere
que existen limitaciones en la capacidad de procesamiento de la información de los seres humanos, la memoria a corto
plazo sólo es capaz de retener 7 piezas de información.
Comienzan a representarse los mecanismos del procesamiento de la información humana como diagramas de flujo,
modalidad utilizada por los ingenieros en programación.
El año 1956 no sólo fue el de la publicación de los importantes trabajos Chomsky y de Miller sino que también
puede considerarse el año del surgimiento de la programación en inteligencia artificial.
Del Congreso al que aludiéramos al comienzo de estas notas salieron quienes podemos considerar los “padres” de
la inteligencia artificial: John McCarthy, Marvin Minsky, Alan Newell y Herbert Simon.
En ese congreso se presentaron programas para jugar a las damas y al ajedrez, Minsky habló de un programa
para probar los teoremas de Euclides.
Newell y Simon mostraron su programa el “Teórico Lógico”, que podía demostrar teoremas matemáticos, aunque
en realidad fue creado para simular la resolución de problemas humanos y no para generar demostraciones. Para esto se
recurrió a la técnica de análisis de protocolos. Un protocolo es un registro de la verbalización de los pensamientos de las
personas mientras resuelven problemas. Este método los ayudó a descubrir en qué pensaban las personas, qué buscaban
y por qué realizaban determinadas acciones. Luego plantearon hipótesis sobre las heurísticas implícitas en los protocolos
de los sujetos de estudio y las incluyeron en su programa. Luego estudiaron las diferencias para la resolución de problemas
entre el enfoque humano y el de la computadora y lograron refinar el programa.
Este trabajo les permitió desarrollar un nuevo programa: el Solucionador General de Problemas (SGP, un
programa que simula el pensamiento humano, como ellos mismos lo llamaron) que dividía a los problemas en metas y
submetas.
Este programa refleja una idea típica de la época: la resolución de problemas comprendía gran parte del
pensamiento humano (o su totalidad).
Su aplicación tuvo éxito cuando se utilizó en rompecabezas y el ajedrez, pero resultó menos universal de lo que
esperaban. Finalmente llegaron a la conclusión de que no sólo el programa tenía limitaciones para resolver problemas, sino
que era inadecuado caracterizar al pensamiento humano exclusivamente en el aspecto de la resolución de problemas.
Posteriormente John McCarthy hizo su aporte para la comprensión de los procesos inteligentes. Propuso una
versión de un experimento de psicología animal: el problema del chimpancé y la banana. En el test clásico se encierra a un
chimpancé en una habitación en la que hay una banana colgada del techo. El mono debe darse cuenta de que, para
alcanzarla, debe apilar varias cajas que hay en la habitación y luego trepar por ellas.
El programa de computadora reformuló este planteo convirtiéndolo en “el robot y la caja”. Sobre una plataforma
hay una caja, que está fuera del alcance de un robot sin brazos que tiene un “ojo” constituido por una cámara de video. La
solución, para la cual el robot no estaba programado, exige que éste empuje un bloque con forma de rampa hasta la
plataforma y luego deslizarse por ella hasta alcanzar la caja. Esta tarea aunque parezca trivial requería establecer y resolver
muchas submetas.
Este programa permitía demostrar claramente habilidad para resolver problemas. Sin embargo aún podría objetarse
que este tipo de problemas es de naturaleza mecánica o, en el mejor de los casos, aceptar la presencia de inteligencia pero
considerarla equivalente a la de un simio.
Para contestar a este tipo de críticas muchos investigadores intentaron definir y emular habilidades que
distinguieran a los seres humanos. Es así que se comienza a trabajar sobre el lenguaje natural.
Una de las razones que impulsaban a ocuparse de este tema era el deseo de crear computadoras que pudieran
usar el lenguaje natural pues así se daría la apariencia de una inteligencia superior. Además se suponía que sería más fácil
dar instrucciones verbales a una computadora que escribir programas.
Algunos programas desarrollados a comienzos de 1960 parecían poder llevar a cabo conversaciones inteligentes.
Un buen ejemplo de ello es el programa Eliza, que imita la forma de conversación de un psicoterapeuta rogeriano.
Si bien este programa da la sensación de estar conversando con una persona -debido a la forma como procede- si
no logra reconocer alguna palabra clave en una oración da una respuesta a partir de una lista de respuestas neutrales,
llevando a la conversación a un callejón sin salida. Además es incapaz de reconocer el absurdo. Carece de una
comprensión real de la conversación como del contenido de cualquier tema. Estos defectos demostraron que la verdadera
capacidad de responder preguntas exige que las respuestas se basen en el conocimiento de las condiciones reales del
mundo y no sólo en el análisis gramatical de las preguntas.
Como el comprender el sentido de una palabra es una tarea muy grande y compleja se apeló a reducir mucho el
tema de conversación para obtener los resultados deseados.
8
Uno de los primeros programas que lo lograron fue el Student que podía responder a problemas de álgebra de nivel
de escuela secundaria. Su limitación se mostraba al no poder responder a otros temas que no fueran los planteados
algebraicamente ni ser capaz de reconocer la naturaleza absurda de un problema.
En 1972 se propone crear un programa que pudiera contestar una variedad mucho mayor de problemas con
soluciones no matemáticas y que pudiera comprender qué era posible y qué no lo era. Para lograr el objetivo fue necesario
limitar el alcance de la actividad, es así que se creó un “mundo” muy reducido constituido por varios cuerpos geométricos y
un robot llamado Shrldu para manipularlos.
Sin embargo, los detractores de la IA seguían haciendo escuchar sus críticas, en especial objetaban la imposibilidad
de crear programas que resolvieran “problemas reales”. En respuesta a esos sarcasmos los científicos de la IA empezaron a
ocupar de sistemas que pudieran “razonar, hacer sugerencias tentativas y aconsejar sobre cursos de acción en campos
como la medicina, la química, los negocios y la ingeniería” (Campbell, 1989). Se plantearon que para resolver problemas
complejos se necesitaba el nivel de conocimientos de un experto humano. Surgen así los sistemas expertos o sistemas
basados en los conocimientos.
Uno de los primeros programas de este tipo fue el Heurística DENDRAL. Resultó útil para determinar la estructura
de moléculas orgánicas y ayudó a desentrañar los secretos de antibióticos, feromonas y hormonas.
Quedó así demostrado que los programas heurísticos con conocimientos aumentados podían aplicarse a resolución
de problemas prácticos, lo cual fue aplicado a problemas que iban desde la geología hasta la medicina.
Sin embargo surgieron problemas a la hora de recolectar y codificar la información: era una tarea sumamente
tediosa y difícil, los expertos (quienes daban los datos para hacer las bases de conocimiento) no siempre conocían
acabadamente los temas y las reglas con las que operaban eran inexactas.
El problema mayor lo constituyó el que los sistemas expertos podían brindar respuestas en sólo un campo acotado
de actividades y, a veces, había fragilidad en los resultados pues eran incapaces de reconocer incongruencias. Por ej.: si se
le daba la descripción de un coche oxidado, la fragilidad de un sistema de diagnóstico médico podía llegar a la conclusión
que sufría de sarampión.
Los seres humanos descubrimos con facilidad problemas de este tipo recurriendo al “sentido común”. Entonces la
pregunta era: ¿cómo pueden aprender “sentido común” las computadoras? Para poder dar una respuesta, será necesario
que previamente consideremos cómo pueden aprender, en general, las computadoras. Para lograr crear una computadora
que pudiera aprender se diseñó un sistema basado en las estructuras de las neuronas, surgen así las redes neuronales
también llamadas modelos conexionistas o modelos de procesamiento distribuido en paralelo.
Una Red Neuronal es un programa computacional avanzado que, como el cerebro humano, puede aprender y
realizar inferencias a partir de la información almacenada (experiencia). Al procesar simultáneamente (en paralelo) múltiples
operaciones, son capaces de resolver problemas relativamente complejos. (Ver Informe sobre redes neuronales)
Estos modelos permiten que, en lugar de darle a la computadora un programa para que lo ejecute, ahora se la
“entrena” para que obtenga un resultado deseado, sin darle instrucciones concretas sobre cómo lograrlo. La técnica más
difundida que se ha utilizado es la retropropagación y con ella se han entrenado redes para que pudieran reconocer voces,
textos manuscritos, diagnosticar enfermedades oculares y jugar al backgammon.
Esta técnica de enseñanza es muy simple y se la puede automatizar con facilidad. Permite que la computadora
comience a ser capaz de autoprogramarse. La desventaja que presenta es que, al autoprogramarse, no queda claro cómo
desempeña sus tareas realmente una red.
Dentro de las limitaciones que presentan las redes neuronales podemos señalar que sólo pueden aprender tareas
que tienen resultados bien definidos, después de practicarlas miles de veces. Por ej. serían incapaces de diseñar una casa.
Para solucionar estos inconvenientes se pensó en combinar los sistemas de autoprogramación con estructuras de reglas
como las usadas en el Solucionador General de Problemas (SGP). De esta manera una máquina podría aprender y recurrir
al sentido común. Estos son los objetivos de investigación de un proyecto que se ha denominado CyC.
En 1984 se comenzó a construir una base de conocimientos de “sentido común” que contaría con unos cien
millones de axiomas que abarcan una inmensa variedad de cosas que la mayoría de los habitantes de todo el mundo
occidental sabe.
Las reglas y metarreglas pueden brindar mucha ayuda para interpretar la información. En la comunicación humana
cumple un papel importante el contexto: dónde y acerca de qué se da la comunicación y este aspecto también es
contemplado por Cyc a quien se está entrenando para que genere su propia información nueva mediante el estudio y
análisis de lo que ya sabe y se lo está programando para el razonamiento analógico, como el que solemos usar los seres
humanos.
Actualmente los sistemas de inteligencia artificial suelen ser híbridos que combinan la mejor forma de resolución de
problemas, las bases de conocimiento y otras técnicas.
Un ejemplo de esto es Soar que, según Newell que es uno de sus autores, representa una Teoría Unificada de la
Cognición. Incluye resolución de problemas, toma de decisiones, memoria, aprendizaje, lenguaje, motivación, emoción,
imaginación y el sueño.
En primera instancia el programa enfrenta el problema como un novato, lenta y metódicamente, por ensayo y error.
Luego, con la experiencia, aprende las resoluciones casi instantáneas que son características en los expertos que
comprenden la estructura del problema. Por ej. lo que en un comienzo le había llevado 1.731 pasos para resolver,
posteriormente, con la experiencia, lo logró en sólo 7 pasos.
Este sistema es el más abarcador para explicar la inteligencia humana y demostrar su equivalente funcionamiento
en los sistemas de inteligencia artificial.
9
¿Otras metáforas?
En la actualidad la metáfora computacional no es la única visión general que se utiliza desde las ciencias cognitivas.
A partir de 1985 se ha producido una profunda grieta en la fortaleza metafórica de la analogía del ordenador, surgiendo dos
vertientes:
Por un lado la corriente “conexionista”, de la que ya hemos dado cuenta anteriormente, que postulan la metáfora
basada en el paralelismo mente-cerebro y, por otro, surge la “narratividad” que construye sus metáforas fijándose en otras
“máquinas” que no son físicas, sino culturales.
Esta última postura significa un replanteo radical ya que no sólo considera que el conocimiento se genera en un
contexto social y cultural, sino incluso que dicho conocimiento es en realidad un producto social.
Sostienen que la forma más elemental de cualquier conocimiento consiste en las historias que contamos y nos
cuentan.
La metáfora que proponen plantea que la mente humana no es como una computadora (funcionalismo) o como un
cerebro (conexionismo) sino como una función generadora de historias.
Se postula que esta capacidad narrativa humana es algo que debe pertenecer a la dotación innata humana y por
eso aparece en todos los contextos, para contar historias no hace falta leer ni escribir y es una actividad que la humanidad
ha venido realizando desde sus primeros tiempos.
La inteligencia artificial ha sido criticada desde sus comienzos. Sus oponentes sostenían que ninguna máquina, que
ninguna sustancia material podía ser inteligente. Sin embargo es indiscutible que las computadoras actuales se están
desempeñando bien en campos que hasta hace poco se consideraban exclusivos de los seres humanos.
Muchos investigadores se apresuraron a afirmar que las máquinas se estaban volviendo inteligentes, sus opositores
sostuvieron que la conducta de las máquinas no indica que éstas sean inteligentes pues la lista de procesos que pueden
desempeñar sigue siendo de naturaleza mecánica.
La última palabra aún no está dicha. Queda aún mucho por investigar y demostrar. Tal vez, tal como sostienen
Gardner, Kornhaber y Wake “la resolución del conflicto entre estas dos perspectivas será posible cuando aceptemos que la
posibilidad de hacer una descripción detallada de una conducta inteligente y, quizá, modelarla mecánicamente, no impide
que la llamemos inteligente”.

También podría gustarte