Documentos de Académico
Documentos de Profesional
Documentos de Cultura
Lecciones de Psicologia Cognitiva Humberto Fernandez PDF
Lecciones de Psicologia Cognitiva Humberto Fernandez PDF
Humberto Fernández
Universidad Abierta Interamericana
Fernández, Humberto
Lecciones de psicología cognitiva. - 1a ed. 2a reimp. - Buenos Aires: Universidad Abierta
Interamericana, 2013.
215 p. ; 24x18 cm.
CDD153
1. Introducción
del mundo exterior sobre el cual se ejerce la función perceptual, por ejemplo, en el caso de
la visión, el paisaje sobre el que posamos nuestra, vista o, en el caso de la audición, la música
proveniente del CD que acabamos de colocar en la compactera. El estímulo proximal, por
el contrario, es ni más ni menos que la energía física en contacto directo con nuestros re-
ceptores sensoriales. Así, en el caso de la visión, el estímulo proximal es la luz que, al impac-
tar sobre la superficie fotosensible de la parte posterior del ojo, forma la imagen retiniana
o, en el caso de la audición, las ondas de sonido que impactan sobre la membrana basilar
ubicada en el oído interno. El último componente del proceso perceptual, el percepto, es la
representación mental y, por lo tanto, interna del objeto distal hacia el cual se dirige la activi-
dad perceptual del sujeto. En la Figura 1.1 se proporciona una representación esquemática
de los elementos constituyentes de la percepción-
Figura 1.1
La percepción visual y sus componentes
12
Lecciones de Psicología Cognitiva
explicar alguno de los fenómenos más básicos de su campo por caso, las ilusiones ópticas,
las constancias perceptuales, la profundidad visual, el reconocimiento de formas. ¿Por qué
se producen ilusiones, esto es, percepciones de objetos inexistentes? ¿Qué mecanismos
explican la estabilidad de nuestro mundo perceptual? En otros términos, ¿por qué razón, a
pesar de las extraordinarias variaciones en la estimulación proximal, las propiedades de los
objetos distales (color, forma, tamaño, etc.) permanecen relativamente invariantes o cons-
tantes para el perceptor? ¿Por qué percibimos la tercera dimensión siendo que la imagen
retiniana, base de la percepción visual, es bidimensional? ¿Por qué vemos formas relativa-
mente bien definidas en el campo perceptual cuando la entrada sensorial no es más que una
masa informe de puntos retinianos diversamente estimulados?
Por otro lado, la complejidad del proceso perceptual se torna evidente en cuanto se
trata de reconstruir o modelar teóricamente la cadena de procesamiento que, comenzando
con la llegada de la energía física apropiada culmina con la formación —en la mente— de un
percepto o representación del estímulo que desencadenó el proceso perceptual.
En las Figuras 1.2, 1.3 y 1.4 se ilustran, respectivamente, el fenómeno de las ilusiones
perceptuales, las constancias y la profundidad visual.
Figura 1.2
La percepción humana: fenómenos básicos
I. Ilusiones visuales
13
Humberta Fernández
Figura 1.3 a
La percepción humana: fenómenos básicos
II. Constancias perceptuales
14
Lecciones de Psicología Cognitiva
Figura 1.4
La percepción humana: fenómenos básicos
III. La profundidad visual
Aún cuando no existe una respuesta unánime a la pregunta de Koffka, las distintas y
variadas alternativas de solución pueden encarrilarse en torno de dos grandes líneas de teo-
rÍ2ación. Éstas difieren en un punto fundamental: la consideración de la percepción como
un proceso indirecto o bien, directo.
Por un lado, quienes adhieren a la primera posición, por lejos la más antigua,2 sostienen
la idea de que la percepción es un proceso mediante el cual el sujeto construye una repre-
sentación mental de los estímulos distales del mundo físico combinando la información
actual, las sensaciones provenientes de Jos órganos sensoriales, con aquella proveniente
de sus expectativas y conocimientos previos. Vale decir, para los teóricos indirectos, la in-
formación sensorial sería de por sí insuficiente para explicar la percepción por lo que ésta
debería complementarse con lo que conocemos acerca del mundo y, así, a resultas de esta
combinación interactiva de sensaciones actuales y conocimientos previos, es como sería
posible llegar a percibir el mundo físico del modo en que lo hacemos.
Por otro lado, los adherentes a la percepción directa consideran que la información que
llega a los sentidos es por sí misma suficiente para especificar las propiedades de un objeto
2 En efecto, el enfoque indirecto abreva en la tradición del empirismo inglés y su doctrina de la tabula rasa.
Berkeley, un conspicuo representante de esta tradición formuló en 1709 una teoría de la visión que sirvió de
base para el concepto de 'inferencia inconsciente' propuesto por Helmholtz en 1866 en su trabajo sobre óptica
fisiológica. En el ámbito psicológico, la visión indirecta de la percepción se remonta a Titchener (1909) quien,
en su 'teoría del contexto', expuso el concepto de que las sensaciones constituían el núcleo de toda experiencia
perceptual. El enfoque directo, por el contrario, se remonta al aporte de la Escuela de la Gestalt la cual, re-
chazando de plano la posición de Titchener, asumió las experiencias perceptuales lo son siempre de formas y
configuraciones más no de sensaciones elementales como quiera que se combinen.
15
Humberto Fernández
distal y, por lo tanto, para explicar la percepción del mismo tal como ocurre en nuestras
interacciones con el mundo. Esto es, para estos teóricos, para que la percepción efectiva de
un estímulo tenga lugar, simplemente el sujeto debe recoger la información presente en la
señal sensorial por lo que no se requiere de ningún procesamiento mental de dicha señal,
como tampoco de ninguna inclusión de conocimientos previos en el acto perceptual.
Estas concepciones antitéticas de la percepción subyacen de un modo u otro en la ma-
yoría de los enfoques teóricos desarrollados hasta el presente siendo necesario, en punto
a lograr una cabal comprensión del fenómeno perceptual, un esfuerzo de síntesis que, a la
par que reconozca la riqueza de la información presente en los receptores sensoriales, dé
cabida a la ingente cantidad de información acumulada en memoria. Después de todo, la
percepción de un objeto no se agota solamente en él reconocimiento de su forma y otras
de sus propiedades sino también, en la adscripción de un significado a aquello que impacta
en la superficie de nuestros órganos sensoriales y, obvio es decirlo, la adscripción de una
interpretación a la evidencia sensorial demanda claramente la participación de la informa-
ción almacenada en memoria.
Entre los representantes contemporáneos de estos enfoques se destacan, por el lado
indirecto, Gregory (1980) y su concepto de la percepción como hipótesis y, por el lado di-
recto, Gibson (1950,1966) y su enfoque ecológico. En un cierto sentido, podría afirmarse
que Marr (1982/1985), con su teoría computacional de la visión, vendría a configurar una
suerte de punto de equilibrio entre estos enfoques contrapuestos por cuanto asume que
en la visión temprana se realiza una considerable cantidad de tareas de procesamiento de
la información sin el concurso de información conceptual almacenada en la memoria, que
sólo viene a intervenir en las etapas finales de la percepción visual.
En los Cuadros 1.1a y 1.1b se esquematizan los enfoques directo e indirecto de la per-
cepción.
Cuadro 1.1a La percepción: ¿un proceso directo
o indirecto?
16
ljicáones de Psicología Cognitiva
17
Humberto. Fernández^
18
lecciones de Psicología Cognitiva
tral de la luz reflejada por un objeto lejano tiene un predominio mayor de ondas largas y,
por ello, a medida que se alejan del observador, los objetos tienen a adquirir un tinte más
azulado. Con la distancia, amén de este cambio en el tono, las imágenes retinianas de los
objetos distantes pierden definición, esto es, son más borrosas y con menos contraste y
brillo. Luego, este cambio en los parámetros de brillantez, nitidez y tinte que se produce
en la percepción de los objetos a medida que se alejan del observador, vienen a funcionar
como indicadores de distancia: visión detallada, contrastante y bien matizada para objetos
cercanos; visión más borrosa con predominio de tonos azules para objetos lejanos.
Desde el enfoque indirecto, se supone que el perceptor combinando la información
proporcionada por éstas y otras claves; puede lograr una intuición o estimación respecto de
la distancia a la que se encuentra un cierto objeto. Una vez calculada la distancia, la cons-
tancia de tamaño viene a lograrse ponderando dicha distancia por el tamaño de la imagen
retiniana correspondiente al estímulo distal respectivo. En orden a lograr una mejor com-
prensión de esta cuestión, resulta necesario introducir el concepto de ángulo visual, el cual,
siendo subtendido por un objeto a una determinada distancia, viene a proporcionar una
medida del tamaño de la correspondiente imagen retiniana.
El ángulo visual es el ángulo que, con vértice en el ojo del observador, tiene por lados
las líneas que van al extremo inferior y al extremo superior del objeto. Por caso, para un
objeto de 1.00 metro de largo ubicado a 2.00 metros del observador, la tangente del ángulo
subtendido sería igual a 1.00/2.00, o sea, .50. Luego, computando el correspondiente arco
tangente se tiene que, en el caso presente, el ángulo formado ascendería a 26.55°. Pero,
¿cuál es la importancia de este concepto? Pues bien, el punto es que, desde este enfoque se
supone que el perceptor lograría la constancia (de tamaño) aplicando inconscientemente la
siguiente fórmula: "Tamaño percibido = tamaño retiniano x distancia". En el ejemplo pre-
sente, si el observador logra una correcta estimación de la distancia, el tamaño del objeto
percibido sería de un metro. Si, a la sazón, dicho objeto se ubicara a unos cuatro metros
y el observador computara correctamente dicha distancia, su tamaño debería permanecer
constante asumiendo que, en la mente del perceptor, el cálculo inconsciente antes aludido
tiene lugar. En las Figuras 1.5 y 1.6, se ilustran los conceptos implicados en esta explicación
de las constancias perceptuales.
19
Humberto Fernández
Figura 1.5
La constancia de tamaño I; el concepto dé ángulo visual
El ángulo visual es una medida del tamaño »¡e la imagen rétiniana. A los
efectos de su cálculo, resulta necesario computar el cociente entre la altura real
del objeto y la distancia a la que el mismo se encuentra del observador. Esto da
como resultado la tangente de dicho ángulo con lo que, computando su
inversa, se tiene el tamaño del ángulo en grados. Así, un estímulo de 1.80
metros de altura situado a 2,00 metros del observador, genera un ángulo á
cuya tangente es 1.80/2.00 o sea, . 90. La inversa de dicha tangente da un
ángulo de 41.99°.
20
Limones de Psicología Cognitiva
Figura 1.7
La constancia de tamaño según Gibson
21
Humberto Fernández
Claramente, las coincidencias conceptuales entre estas dos tradiciones que, a lo largo de
los años, dominaron el panorama teórico de la percepción son, a todos los efectos, inexis-
tentes lo cual, ciertamente, complica en gran medida la tarea de encontrar una explicación
completamente aceptable del fenómeno de las constancias perceptuales gracias al cual,
nuestras interacciones con el medio resultan extraordinariamente bien logradas.
22
Lecciones de Psicología Cognitiva
vador estático o al que se le impide moverse, que usualmente recibe un conjunto de estímu-
los generalmente breves). En una palabra, las ilusiones serían fenómenos completamente
alejados de la percepción ordinaria.
Figura 1.8
Gregory y la ilusión de Müller-Lyer
Por cierto que esta tesitura es en extremo' radical. En primer lugar, las ilusiones no son
un fenómeno absolutamente inusual en nuestra vida cotidiana: ¿Acaso no percibimos que
las ruedas de un vehículo giran en una 'dirección opuesta' a la éste que se mueve? ¿Acaso,
en ocasiones, no percibimos en el horizonte un 'espejo de agua' por otro lado, inalcanzable
mientras conducimos en la ruta en un día soleado? ¿Cómo pudo haberse 'doblado' la caña
de pescar al ser introducida en el agua? En segundo lugar, la interesantísima revisión de
Nieder (2002), además de poner en evidencia que animales de las más diversas especies
(mamíferos, aves, insectos) pueden procesar contornos ilusorios, avanza en la idea de que
esta habilidad bien puede entenderse como parte de un 'mecanismo anti-camuflaje' por
el cual los predadores pueden llegar a detectar objetos —esto es, eventuales presas— que se
presentan como parcialmente ocluidos o enmascarados en la escena visual. Luego, como
bien señala este autor, no es correcto entender la detección de contornos ilusorios como
un mero artefacto del procesamiento visual.
Por su parte, los psicólogos gestaltistas que, originariamente se valieron de una ilusión,
el mítico fenómeno phi o del movimiento aparente3 (Wertheimer, 1912), para oponerse a
la concepción empirista de la percepción como sumatoria de sensaciones y recuerdos, van
a explicar las ilusiones apelando a su teoría del isomorfismo psicofísico según la cual, el in-
greso de los datos sensoriales daría como resultado la formación de un campo eléctrico en
el cerebro el cual, por la propia dinámica de las fuerzas que lo componen, tendería a asumir
3. En los inicios de sus investigaciones perceptuales, el fundador del movimiento guestaltista, Max Werthei-
mer (1912), observó que dos puntos de luz colocados a cierta distancia que, alternadamente, se prendían y se
apagaban, generaban en el sujeto la impresión de un único haz de luz en movimiento. A esta impresión de
movimiento aparente, Wertheimer la bautizó con el nombre de fenómeno phi.
23
Humberto Fernández
Esta teoría es, por lejos, la más antigua de todas remontándose al siglo XVIII, época en
la cual, el filósofo empirista británico, Berkeley, postulara el concepto de que la percepción
de la tercera dimensión no podía ser sino producto de la experiencia, habida cuenta de la
bidimensionalidad de la imagen retiniana, el estímulo (próximo) de la visión. En concreto,
Berkeley (1709/1980) proponía que las sensaciones visuales generadas por un objeto a
cierta distancia del perceptor eventualmente se asociaban con las sensaciones kinestésicas
producidas por los movimientos de brazos y piernas acaecidos en los intentos de querer
asir el objeto distante y, además, con las sensaciones producidas por los movimientos de
acomodación y convergencia del cristalino que ocurren automáticamente para mantener
en foco el objeto. Con el tiempo, la sola visión del objeto a determinada distancia del pre-
ceptor, evoca en él el recuerdo de las experiencias kinestésicas anteriores. Estos recuerdos
vienen a complementar las sensaciones visuales actuales -una imagen retiniana de tales
o cuales características- de modo que el sujeto puede llegar a inferir a qué distancia
se encuentra el objeto de marras. En suma, la percepción de la distancia viene a ser el
resultado de combinar sensaciones visuales y recuerdos de sensaciones anteriores.
Estas ideas sirvieron de base a la formulación por parte de Helmholtz (1866/1962) del
concepto de 'inferencia inconsciente' como mecanismo crítico productor de las percep-
24
Lecciones de Psicología Cognitiva
clones ordinarias: como resultado de la experiencia pasada, inferimos que las sensaciones
presentes significan que nos encontramos en presencia de tal o cual objeto a tal o cual dis-
tancia. A partir de estas consideraciones, se ve claramente el importante papel que juegan
las expectativas y conocimientos previos en la estructuración de un percepto: éste es la
resultante de una combinación interactiva de sensaciones e información pasada.
En el momento actual, esta concepción es defendida por Gregory (1980) quien asume
que, en lo esencial, la percepción comporta un proceso de formación de hipótesis respecto
de lo que representa la entrada sensorial. Es más, para este autor, percepción e hipótesis
forman un todo indivisible por cuanto en el acto perceptual lo que en sí se experiencia son
las hipótesis (Gregory, 1983).
Un problema crítico que, en principio, afecta esta concepción es la falta de una expli-
cación consistente de la cuestión de la veracidad perceptual. En efecto, si la percepción es
cuestión de hipótesis e inferencias, cabe preguntarse cómo es posible la percepción verídi-
ca, esto es, que todos percibamos fidedignamente el mundo, a pesar de (presumiblemente)
partir de conocimientos previos, expectativas y demás, por lejos, no uniformes para todos
los perceptores (cf. Gordon, 1989).
Este modelo liderado por los psicólogos de la Escuela de la Gestalt surgió, en su mo-
mento, como reacción a la idea de que las sensaciones constituían la materia prima de la
percepción. En opinión de estos autores,' la mente poseería innatamente la capacidad de
captar directamente formas y configuraciones sin necesidad de ningún tipo de enlace aso-
ciativo entre elementos más primitivos como las sensaciones y los recuerdos. Esto significa
que el contenido de las experiencias perceptuales lo constituirían, desde el principio, unida-
des organizadas —'gestalts' en el argot propio de esta escuela- y no manojos de sensaciones
aisladas. Así, como se dijo anteriormente, en el fenómeno phi, lo que el sujeto percibe es
una luz en movimiento y no dos puntos de luz estáticos.
La idea de que el campo fenoménico de la percepción lo constituyen las gestalts y no
una sumatoria de elementos aislados, reconoce como fundamento la tesis del isomorfismo
psicofísico (Koffka, 1935) según la cual, ante un objeto distal de tal o cual forma, se gene-
rarían en el cerebro campos electro-químicos análogos en forma a dicho estímulo externo
por lo que, por caso, uno percibiría un objeto cúbico directamente como tal puesto que en
la corteza visual se formaría un campo eléctrico de forma más o menos cúbica. Luego, en
este enfoque y gracias a la doctrina del isomorfismo psicofísico, la percepción volumétrica
sería posible a pesar de la bidimensionalidad de la imagen retiniana y sin el concurso de la
información almacenada en la memoria. Por cierto que dicha doctrina, aunque nuclear en la
concepción gestáltica de la percepción, no resulta sostenible a la luz de los conocimientos
actuales sobre el funcionamiento del cerebro. Además, ya una investigación temprana lle-
vada a cabo por Lashley, Chow y Semmes (1951) puso evidencia que los supuestos campos
25
Humberto Fernández
Figura 1.9
La percepción: ¿construcción o totalidad?
Percepto Campo cortical (isomórflco
Percepto
Estímulo distal:
Una campana
26
Lecciones de Psicología Comitiva
Gibson (1950, 1966), el principal propulsor de este enfoque, supone que la percepción
es básicamente una respuesta del organismo ante un estímulo ambiental y no un acto cons-
tructivo de la mente. Esto significa que el sujeto percibiría en forma directa y, también, verí-
dica el mundo sin necesidad llevar a cabo ningún procesamiento mental del input estimular
sea bajo la forma de un proceso de construcción de hipótesis o de derivación de conclusio-
nes (inconscientes). El fundamento de esta concepción reside en la idea de que los objetos
distales y sus propiedades tendrían correlatos específicos en el ámbito de la estimulación
proximal los cuales, a la par de reflejar cómo es el mundo físico, vendrían a constituir el
determinante principal de la percepción. Así, en cada situación perceptual particular, los
estímulos distales vendrían a generar pautas específicas de estimulación proximal las que, a
su vez, determinarían la formación de perceptos particulares.
En el caso particular de la percepción visual, esta forma de abordar el fenómeno per-
ceptual vendría a implicar que en la imagen retiniana en tanto que proyección óptica del
mundo debería de ser posible encontrar los estímulos físicos responsables de la percepción
de las formas, las constancias, la profundidad y demás.
Así por ejemplo, sea el caso paradigmático de la profundidad visual. Ya se ha señalado
que para el enfoque construcüvista, explicar la percepción de la tercera dimensión era una
cuestión sumamente problemática por cuanto la retina, al ser una superficie plana, no podía
generar una 'sensación de profundidad', por lo que resultaba necesario complementar las
sensaciones visuales con otras provenientes de otras fuentes. Bajo la premisa de que éste
no era el caso, Gibson se dio a la tarea de descubrir, en la propia imagen retiniana, cuáles
podrían ser factores responsables de la percepción de la profundidad visual encontrando
la respuesta buscada en el hecho de que la estructura de la propia imagen retiniana varía en
función del grado de inclinación de la superficie sobre la que el perceptor posa su vista.
En concreto, cuando una superficie se encuentra en posición frontal con respecto a
la línea de visión, su proyección óptica en la retina viene a dar por resultado una imagen
completamente uniforme en el sentido de que los puntos retinianos estimulados que la
conforman se encuentran perfectamente equidistantes entre sí. Empero, a medida que la
superficie se inclina alejándose del observador, su proyección óptica genera una distribu-
ción no uniforme de puntos retinianos en el sentido de que la distancia entre los mismos
disminuye progresivamente en función del ángulo de inclinación de la superficie. Esta par-
ticular pauta de estimulación denominada por Gibson con el nombre de 'gradiente de den-
sidad de textura', constituiría tanto el estímulo para la percepción de la profundidad visual
cuanto un correlato de la tercera dimensión del mundo físico. En las Figuras 1.10a y 1.10b
se proporciona una representación esquemática del abordaje gibsoniano al fenómeno de la
profundidad del mundo visual.
27
Humberto. Fernández
Figura 1:10a
La percepción de la tercera dimensión
Figura 1.10b La
percepción de la tercera dimensión
28
Lecciones de Psicología Cognitiva
29
Humberto Fernández
En los primeros años de vigencia del paradigma cognitivo, surgieron unos cuantos
modelos teóricos tendientes a explicar cómo ocurría el proceso de percepción de formas
y objetos. Estos modelos tenían en común la idea de que reconocer un objeto implicaba
un proceso de apareamiento o emparejamiento entre el input perceptual y una cierta re-
presentación o modelo del mismo almacenado en la memoria de largo plazo.
Uno de estos primeros modelos que alcanzó cierta popularidad, en aquel entonces, es el
conocido con el nombre de Pandemónium (Selfridge, 1959). Según este modelo, el proceso
de reconocimiento de un estímulo es llevado a cabo, en etapas sucesivas, por una serie de
unidades de procesamiento o 'demonios'.
El primer lugar, un 'demonio de imagen', una suerte de copia mental del estímulo ex-
terno, retiene las características sensoriales del input estimular. Luego, los 'demonios de
características' analizan la señal sensorial en busca de características elementales como, por
ejemplo, en el caso de las letras del alfabeto, líneas horizontales, ángulos agudos y otros
rasgos por el estilo y, cada vez que detectan en la imagen estas características, el demonio
respectivo se activa. A continuación, un 'demonio cognitivo' que compila las características
distintivas de cada input sensorial analiza los mensajes emitidos por los demonios anterio-
res y, ante cada característica compilada que se encuentre presente en la señal sensorial,
se activa hasta un cierto punto, siendo el nivel de activación proporcional al número de
características encontradas. Por último, un 'demonio de decisión' analiza el nivel global de
activación de los distintos demonios cognitivos y decide si el estímulo externo es o no, por
caso, una determinada letra en función de si el correspondiente demonio cognitivo concen-
tra o no el más alto grado de activación de entre todos los demonios actuantes frente a un
determinado input estimular.
El problema que presenta este modelo reside en la dificultad de definir lo que se entien-
de por 'característica elemental' en el caso de formas y objetos perceptuales más complejos
que las letras y otros estímulos estructuralmente simples. Además, el modelo en sí resulta
insatisfactorio por cuanto uno puede percibir sin dificultad objetos y formas novedosas
para las cuales, en principio, no habría disponibles demonios cognitivos. En la Figura 1.11
se proporciona una representación esquemática de este enfoque.
30
ljicdones de Psicología Cognitiva
Figura 1.11
La percepción como detección de características
Aquí se asume que la percepción de formas comporta una serie de estadios de procesamiento
en cuyo transcurso actuarían un conjunto de unidades de procesamiento o "demonios9. Estos
estadios son: (a) los demonios de imagen vienen a preservar la señal sensorial por un cierto
período de tiempo; (b) los demonios de características, se activan en cuanto detectan un rasgo
específico en dicha señal; (c) los demonios cognitivos que compilan las características críticas
de un input específico, se activan más cuanto mayor sea el número de características
detectadas y, por último, (d) un demonio de decisión decide, sobre la base del nivel de
activación de los demonios cognitivos, qué patrón estimular se tiene enfrente.
En cierto sentido, podría decirse que el antiguo debate sobre la naturaleza de la per-
cepción, si ésta es un proceso indirecto o directo, encuentra en el enfoque computacional
de Marr (1982/1985) un punto de relativo equilibrio en el sentido de que el mismo, como
acertadamente lo señala Sternberg (1999), a la par de reconocer la riqueza de la informa-
ción sensorial, valora la importancia que tienen el conocimiento previo y la experiencia en
el proceso perceptual.
Al igual que Gibson (1950, 1966), adalid del enfoque directo, para Marr el problema
capital de la percepción visual consistía en elucidar cómo es que el perceptor puede lograr
una descripción válida y estable del mundo -esto es, un 'cuadro' más o menos fiel de la
escena que tiene frente a sí en el que se encontrarían adecuadamente especificados los ob-
jetos distales y sus propiedades de forma, volumen, distancia, etc.- a partir de sensaciones
visuales continuamente cambiantes.
Así también, al igual que los teóricos indirectos, para Marr el reconocimiento efectivo
de un objeto comporta la participación de la ingente cantidad de conocimientos que, sobre
el mundo, el perceptor tiene almacenados en su mente.
Empero, a diferencia de Gibson, Marr considera que la percepción comporta un pro-
ceso de recuperación de las propiedades del mundo a partir de los niveles de luz que inci-
31
Humberto Fernández
den sobre cada punto de la retina: el sistema visual operaría derivando estas propiedades
mediante sucesivas computaciones perceptivas que tomarían como input inicial las inten-
sidades relativas de los diferentes puntos retinianos estimulados y no, como en el enfoque
gibsoniano, simplemente extrayendo de un modo directo dichas propiedades a partir de
sus respectivos correlatos presentes en la imagen retiniana. Para que se entienda bien, en el
enfoque marriano, la visión tridimensional sería el resultado de un complejo procesamiento
de la imagen retiniana empero, en Gibson, la tercera dimensión estaría ya presente en la
imagen retiniana (a través de sus correlatos) v el perceptor solamente tendría que reparar
en ella o 'recogerla' desde allí.
Asimismo, a diferencia del enfoque indirecto, Marr asume que la estimulación proximal
es lo suficientemente rica como para permitirle al sistema visual producir una visión tri-
dimensional fiable del mundo, esto es, generar una descripción geométrica acertada de la
escena que, a la sazón, el perceptor tenga frente a "sí y ello con independencia de cualquier
conocimiento de alto nivel que éste tenga acumulado en su memoria. El punto es que, re-
cién cuando el perceptor tenga que proceder a la identificación efectiva de un objeto como
siendo 'ésto' o 'aquello' otro, dicho conocimiento habrá de resultar de utilidad. Esto quiere
decir que, para Marr, el sistema visita] puede ya tempranamente obtener una descripción
válida de las propiedades físicas de una escena visual pero, para que tenga lugar la 'com-
prensión cognitiva' (Sternberg, 1999, p. 136) del input estimular o, lo que es lo mismo, la
percepción propiamente dicha, se requeriría del concurso de la información almacenada:
una forma dada se percibiría como tal o cual objeto o una escena visual se codificaría como
tal o cual situación, en la medida en que la descripción geométrica generada por la visión
temprana encaje en el sistema de categorías o de significados del perceptor. En los Cuadros
1.2a, 1.2b y 1.2c, se presenta una relación comparativa de los enfoques indirecto y directo y
su respectivo contraste con la visión marriana de la percepción.
Cuadro 1.2a
Marr: un punto de equilibrio entre los enfoques directo e indirecto
32
Lecciones de Psicología Cognitiva
Cuadro 1.2b
Marr: un punto de equilibrio entre los enfoques directo e indirecto
33
Humberto Fernández
Cuadro 1.2c
Marr: un punto de equilibrio entre los enfoques directo e indirecto
¿En qué consiste, en definitiva, la propuesta de Marr? A los efectos de ponderar ade-
cuadamente el enfoque desarrollado por este autor, resulta necesario puntualizar que sus
esfuerzos teóricos se encontraban encaminados primordialmente a descubrir cómo es que,
en el acto de ver, el sistema visual puede proporcionar un 'cuadro' relativamente fiel del
mundo externo. En otros términos, Marr pretendía explicar la visión a la cual él entendía
como el proceso que permite al observador descubrir, a partir de imágenes del mundo ex-
terior, "lo que está [allí] presente y dónde está" (Marr, 1985, p. 15).
En lo esencial, la propuesta de Marr asume como tesis básica la idea de que el sistema vi-
sual, a partir de la imagen inicial de una escena dada, tiene que k reconstituyendo progresi-
vamente sus propiedades geométricas —esto es, las formas de los objetos que la componen
así como su disposición en el espacio— de modo de lograr primeramente una descripción
fidedigna de lo que está allí para luego, adscribirle una determinada interpretación. El con-
cepto de reconstitución de la geometría de una escena alude al hecho de que, en el proceso
de la visión, el observador recuperaría la estructura tridimensional del mundo a partir de
una imagen plana del mismo.
A este respecto, por un lado, obsérvese la diferencia con los gibsonianos para quienes
las propiedades de los objetos distales (forma, volumen, etc.) son directamente extraídas
de la imagen visual a partir de sus correspondientes correlatos retinianos y, por el otro, la
diferencia con los constructivistas para quienes dichas propiedades están directamente au-
34
Lecciones de Psicología Cognitiva
4 En punto a lograr una comprensión cabal de este enfoque particular cabe puntualizar que, en el área de la
visión artificial, que es el ámbito metodológico elegido por Marr para explicar cómo se produce la percepción
visual, el punto de inicio del proceso lo constituye una imagen digitalizada de la escena visual, esto es, una matriz
óptica formada por una distribución de puntos luminosos -pixels- de intensidad variable (cf. Monserrat, 1998;
Reales Aviles, 1997). En principio, esta matriz inicial es transformada por aplicación de funciones u operadores
matemáticos definidos en otra de mejor resolución en la cual, por caso, se pueden distinguir los contornos pri-
mitivos de una figura. Luego, otro operador más complejo se aplicaría a esta matriz derivada que, al mejorar aún
más su resolución, tornaría posible la identificación de una forma tridimensional específica. En una palabra, la
imagen o matriz óptica inicial es procesada matemáticamente de modo que la información allí presente (relativa
a la disposición de las estructuras tridimensionales en el mundo) se hace cada vez más explícita. En el enfoque
marriano, se supone que el cerebro estaría implementando una serie de algoritmos matemáticos análogos cuya
operatoria traería aparejado la formación, en la mente, de las representaciones perceptuales características de la
percepción humana ordinaria.
35
Humberto Fernández
Cuadro 1.3
La visión según Marr
Proporcionar al observador una descrip-
Propósito ción del mundo.
Reconstruir la geometría básica de un a
escena visual -formas y distancias de los
Proceso elementos componentes- a partir de una
imagen plana.
(i) -Esbozo Primario o Esbozo 2 D'
Etapas (ii) 'Esbozo 2 m D'
(iii) 'Modelo 3D'
Figura 1.12a
Marr y las etapas de la visión
36
Lecciones de Psicología Cognitiva
Figura 1.12b
Marr y las etapas de la visión.
En términos generales, puede decirse que la teoría de Marr en sí misma constituye una
descripción detallada de cómo un sistema que pretende ver puede computar o derivar una
imagen tridimensional del mundo a partir de una distribución plana de puntos luminosos
de intensidad variable. La cuestión es hasta qué punto los algoritmos matemáticos que, de
hecho, un sistema artificial emplea para lograr una descripción exacta de una escena visual
son, de hecho, implementados por el cerebro. Además, en el caso de que efectivamente
lo fueran, quedaría todavía un problema a resolver y es el siguiente: ¿cómo es que un
percepto verídico de una escena en tanto que estructura psíquica o representación mental
propiamente dicha, se deriva de un 'modelo 3 D' en tanto que producto de algoritmos de
cómputo biológicamente implementados en el cerebro? Esta cuestión, por cierto, remite
a un problema psicológico capital que es la relación 'mente-cuerpo'. ¿Es acaso el mundo
fenoménico de la percepción un (mero) epifenómeno de las computaciones que el cerebro
efectúa a partir de la matriz óptica inicial de una escena dada? Es esta una cuestión todavía
abierta y, en extremo, controversial.
8. Comentados Finales
37
Humberto Fernández
tesis de que para percibir el mundo no se requiere de ningún tipo de actividad inferencial de
la mente, viene a ubicarse en la antípoda del indirecto, por cuanto éste viene a sostener que,
debido a que la entrada sensorial es marcadamente pobre, resulta imperativo algún tipo de
procesamiento cognitivo de la misma a efectos de lograr encontrar un patrón consistente
en el caótico mar de sensaciones cambiantes. Por esta razón, resulta encomiable el esfuerzo
de Marr el cual, en lo esencial, pretende reconocer la riqueza de los datos sensoriales a la par
de incorporar, en el proceso perceptual, aunque quizás un tanto tardíamente, influencias de
tipo conceptual, las cuales, por cierto, son innegables y, como resulta obvio, se basan en la
enorme masa de conocimientos y experiencias acumulados en la memoria de largo plazo.
38
Lecciones de Psicología Cognitiva
39
Humberto Fertlánde^
Cherry (1953) fue el primero en explorar lo que, a partir de él, se conoció con el nombre
de 'efecto de la fiesta de cóctel'. Este efecto aludt 'al hecho de que, cuando un sujeto se
encuentra en presencia de múltiples mensajes simultáneos, puede llegar a atender selecti-
vamente un mensaje determinado ignorando el resto de los mensajes concurrentes. A este
fin, divisó lo que se dio en llamar el 'paradigma del seguimiento o sombreado' del cual se
proporciona una representación esquemática en la Figura 2.1. Este paradigma consiste
en presentar al sujeto experimental —mediante auriculares— dos mensajes simultáneos en
forma dicótica, esto es, un mensaje para cada oído, con la consigna de repetir palabra por
palabra uno de dichos mensajes, el relevante, e ignorar por completo el otro, el irrelevante.
Figura 2 1
El filtro atencional y sus paradigmas de investigación
I. El sombreado o seguimiento
Los hallazgos de Cherry pueden resumirse como sigue: con respecto al mensaje relevan-
te, los sujetos eran perfectamente capaces de repetirlo y, también, de recordar su contenido
aún en la circunstancia de que ambos fueran producidos por una misma voz y, con respecto
al mensaje irrelevante, los sujetos, a pesar de no poder recordar en absoluto su contenido
40
Lecciones de Psicología Cognitiva
41
Humberto. Fernández
Figura 2.2
El filtro atencional y sus paradigmas de investigación.
II. La amplitud de memoria dividida
Figura 2.3
El Filtro Rígido (Broadbent)
42
Lecciones de Psicología Cognitiva
'de caoba' provenientes del canal no atendido luego de escuchar y repetir las palabras 'sen-
tados alrededor de una gran mesa' por el canal atendido. Estos hallazgos y otros de similar
tenor, llevaron a Anne Treisman (1960) a flexibilizar la forma de actuar del filtro en tanto
que mecanismo selector de los inputs sensoriales.
Así, en la óptica de Treisman, el filtro, en lugar de bloquear el acceso de los inputs no
seleccionados a las instancias superiores de procesamiento, se limitaba a atenuar el nivel
de señal de los mismos de modo que, eventualmente, algunos de éstos podían llegar a ser
reconocidos por el sujeto.
En lo esencial, amén de un filtro atenuante, esta autora propone la existencia de un
'diccionario mental' en el cual se almacenarían las respectivas representaciones de los inputs
estimulares. Según el modelo, para que el sujeto se percate de un input dado, resulta necesa-
rio que su representación interna se active con la llegada del //^///estimular correspondiente
y sobrepase un umbral mínimo de reconocimiento. Este umbral se supone que varía de
ítem a ítem e inclusive, en el caso de un mismo ítem, puede llegar a variar en función de las
expectativas que, en un momento dado, desarrolle el sujeto. ítems tales como nuestro pro-
pio nombre u otros asociados con inputs importantes para el sujeto pueden tener umbrales
permanentemente bajos y otros, en cambio, pueden llegar a bajar de forma temporaria su
umbral por razones contingentes (expectativas, creencias, intereses, etc.). Así, un determi-
nado input externo puede ser reconocido por el sujeto a pesar de no ser seleccionado por el
mecanismo de filtro debido a que su nivel de señal, aunque atenuado por dicho dispositivo,
es suficiente para sobrepasar su (natural o momentáneamente) bajo umbral de reconoci-
miento. En la Figura 2.4 se esquematiza el modelo de Treisman.
Figura 2.4
El Filtro Atenuador (Treisman)
• Ítem activado
Ítem no
43
Humberto Fernández
El filtro atenuante de Treisman aún cuando flexibiliza la forma de actuar del filtro, al
atenuar en lugar de bloquear los inputs no seleccionados, no cambia lo sustancial del modelo
de Broadbent que es su carácter precategorial o el criterio en virtud del cual se produce la
selección de solamente uno de los múltiples inputs concurrentes. Grey y Wedderburn (1960)
pusieron en duda este criterio1 al demostrar que sus sujetos experimentales, bajo un para-
digma de atención dividida, agrupaban los mensajes entrantes según un criterio semántico
y no por canal sensorial. Así, los ítems "ratón-2-queso" recibidos por el oído izquierdo en
simultáneo con "8-comer-5" por el oído derecho, fueron agrupados por categoría semántica
en la forma de {(ratón, comer, queso) (2, 8, 5)} y no por canal de recepción como sería el
caso de {(ratón, 2, queso) (8, comer, 5)}. Esta clase de hallazgos dio pábulo a la idea de la
existencia de un mecanismo selector de carácter 'postcategorial', por cuanto analizaría no
sólo las características sensoriales sino también, laa propiedades semánticas de los inputs
estimulares. El primer modelo desarrollado en la literatura que incorpora un filtro de estas
características fue desarrollado por Deutsch y Deutsch (1963). Este modelo, poco consis-
tente desde el punto de vista conceptual, a su vez, fue enriquecido por Norman (1968) con
su concepto de pertinencia.
44
Lecciones de Psicología Cognitiva
mular así seleccionado. En la Figura 2.5 puede apreciarse un esquema ilustrativo del modelo
de pertinencia.
Figura 2.5
El modelo de pertinencia (Norman)
Este modelo postula que cuando los inputs sensoriales (P, Q. ...) ingresan al sistema cognitivo se produce:
la activación de sus respectivas representaciones internas (/?, <7, ...) almacenadas en una base de
conoGimientos semánticos más o menos permanente. A su vez, dichas representaciones pueden activarse
endógenamente a través de un mecanismo de pertinencia el cual es sensible a la información que circula
por el procesador central. XSti filtro selector, opera a continuación evaluando el nivel de activación total
alcanzado por los ítems componentes -de labase de datos. Aquel ítem que, en un momento dado, concentre
el mayor nivel de activación -é% en él diagrama- será seleccionado por el filtro e ingresará al procesador
central donde recibirá un procesamiento; adicional de carácter mas consciente. El resto de los ítems-/?, /" y
S. en él diagrama-no serán seleccionados amenos que incrementen su respectivo nivel de activación.
Si bien es cierto que este modelo asume correctamente, aunque de un modo implícito,
la idea de una mente como un sistema activo (y no meramente reactivo) de procesamiento,
a la postre, sus predicciones resultan empíricamente indistinguibles de las generadas por
el modelo de filtro atenuante por lo que, en los hechos, no resultó una alternativa teórica
genuina (cf. Reed, 1992). Así, se dirá con Norman, que un determinado input ‘j' habrá de
ser seleccionado en la medida en que resulte pertinente al sistema en un momento dado o,
alternativamente con Treisman, que dicho input habrá de ser seleccionado en la medida en
que, para la ocasión, resulte importante.-
La controversia respecto a la naturaleza operativa del filtro atencional, excluyentemente
pre o postcategorial, pretendió zanjarse mediante la postulación por parte de Johnston y
Heinz (1978) de un filtro de naturaleza más flexible que, según las circunstancias lo deman-
dasen, podría efectuar una selección ya sobre la base de las propiedades sensoriales de los
inputs estimulares o ya sobre la base se sus propiedades semánticas. La demostración por
parte de Neisser y Becklen (1975) de que, con mensajes de carácter visual, también les era
posible a los sujetos seleccionar uno de entre múltiples mensajes concurrentes contribuyó a
socavar la idea de la existencia de un filtro en tanto que mecanismo cognitivo que regularía
el ingreso de información a la mente. En efecto, estos autores mostraron a sus sujetos expe-
rimentales en forma binocular dos escenas visuales superpuestas o bien, en forma dicóptica
una escena por un ojo y la otra por el otro, y observaron que los mismos podían -al igual
que en los experimentos de escucha dicótica de Cherry (1953)- monitorear perfectamente
bien uno de los mensajes e ignorar el otro. El punto es que parece poco atinado suponer
45
Humberto Fernández
que el hombre haya desarrollado un mecanismo filtro para el tratamiento de inputs visuales
superpuestos o dicópticos, por lejos, infrecuentes, cuando no inexistentes, en el ámbito de
la percepción ordinaria y habitual (cf. de Vega, 1984).
La falta de acuerdo en torno a la cuestión de la naturaleza operativa última del filtro, si
pre o postcategorial, sirvió de acicate para la búsqueda de nuevas formas de conceptualizar
el fenómeno atencional. Es así como en los inicios de la década del setenta (de la centuria
pasada) surgió el concepto de que la atención, en lugar de concebirse como una estructura
de una hipotética cadena de procesamiento, podía entenderse mejor como un recurso o
capacidad de la mente que se pondría en juego cada vez que ésta ejecuta o lleva a cabo
actividades de diverso tenor.
Los modelos de recursos que reconocen como antecedente el trabajo pionero de Kah-
neman (1973) proponían concebir la atención no como un engranaje más de la cadena del
procesamiento humano de la información sino, más bien como una capacidad o recurso
mental propio del procesador que, a la manera de un insumo energético, vendría a 'consu-
mirse' a medida que aquel lleva a cabo las actividades cognitivo-motoras que le son propias.
En los Cuadros 2.1a y 2.1b st presenta una relación comparativa de los enfoques de la
atención como filtro versus de la atención como recurso.
A diferencia de los modelos de filtro en los cuales se hacía hincapié en las vicisitudes
de un hipotético proceso de selección de inputs estimulares destinado a impedir la sobre-
carga de un mecanismo central de procesamiento, en los modelos de recursos, el énfasis
está puesto en la habilidad del procesador para realizar varias tareas al mismo tiempo. ¿De
qué depende esta habilidad? Bajo la perspectiva de la atención como capacidad, la clave del
asunto reside en la noción de disponibilidad de recursos: en la medida en que las actividades
o tareas que el procesador debe llevar a cabo en un momento dado, no excedan el quantum
de recursos disponibles, es posible que tales tareas se desarrollen de manera eficiente, esto
es, sin la comisión de errores o sin que se produzca interferencia mutua. Esto supone que
cada tarea o actividad demanda una cantidad de recursos mínima para ejecutarse de un
46
Lecciones de Psicología Cognitiva
modo óptimo y que, en tanto el suministro de recursos por parte del procesador no baje
de esa cota mínima, la ejecución simultánea y perfecta de varias tareas es, en principio,
esperable.
Cuadro 2.1a
La Atención: ¿un filtro selector o un recurso mental?
Parámetros de contrasta- Modelos de Filtro Modelos de Recursos
ción
La atención se asume como La atención se asume como
una estructura o mecanismo un recurso mental que se
Concepción de base de procesamiento encargado 'consume' en el curso de la
de la selección de informa- ejecución de cualquier tarea
ción estimular. o actividad cognitiva.
La ejecución de tareas concu-
La recepción de inputs esti- rrentes:
mulares: Básicamente, se intenta
básicamente, se intenta eluci- elucidar cuál es el consumo
dar sobre qué bases se produ- atencional de la distintas
Foco de estudio ce la selección de los inputs actividades cognitivas y las
sensoriales y qué aspectos se condiciones que llevan a
procesan de los inputs que no una automatización de las
resultan seleccionados. mismas.
47
Humberto, Fernández
48
Lecciones de Psicología Cognitiva
Figura 2.6
Ejemplo:
Tarea A: Conducción vehicular en simulador bajo condiciones de trafico de intensidad
variable
Tarea: Detección de una señal sonora determinada en el curso de un raensaje radiofónico
Expectativa teórica:
Desde el modelo de Kahneman» se supone que a medida que se incrementa el nivel de
dificultad de la tarea primaría, ¿sta tendría que absorber una mayor cantidad de recursos
atcncionales. De allí que, al haber menos capacidad disponible para la ejecución enciente
de la tarea secundaría., la tasa de errores en dicha tarea tendría que sufrir algún incremento.
Gráficamente^, estas expectativas podrían representarse de la siguiente manera:
Figura 2,7
La atención como un recurso mental (Kahneman)
Ün este modelo, la; atención se concibe como una capacidad o recurso mental que debe1 asignarse a las
estructuras cognitívas involucradas en la ejecución ele las tareas ó actividades que, en un momento dado,
requieran del concurso del procesador. En la medida en que la demanda de recursos por parte de dichas
tareas no exceda el quantum de recursos disponibles, él modelo predice qué dichas tareas se podrán ejecutar
sin interferirse unas a otras. La interferencia se produciría en el. caso de que una actividad absorba más
capacidad dejando a la o las otras actividades con menos recursos que los necesarios para su procesamiento
eficaz.
49
Humberto Fernández
es así como surgieron una serie de enfoques teóricos alternativos tales como, por ejemplo,
el modelo Navon y Gopher (1979).
En este modelo, por lo demás, bastante complejo, se parte de la idea central de que el
sistema cognitivo contaría con múltiples recursos específicos y no con una única fuente de
insumos atencionales. Vale decir, desde esta perspectiva, se asume que el sistema cognitivo
contaría con varios 'depósitos' de recursos y no con un único 'pool' genérico e inespecífico.
La idea es que cada tarea requiere para su ejecución eficiente de varios de estos recursos
por lo que, en una situación de doble tarea, es de esperar que se genere una interferencia
en la medida en que ambas tareas consuman y saturen los recursos provenientes de un
mismo/wo/atencional. Si este no es el caso, vale decir, si la demanda de recursos específicos
compartidos por ambas tareas no excede el quantum disponible, por más que se produzca
un incremento efectivo en el nivel de dificultad de la tarea prioritaria, no es dable esperar
ningún tipo de interferencia. En la Figura 2.8 se proporciona un esquema comparativo de
los enfoques unitario y múltiple de la capacidad atencional.
Figura 2.8
La atención: ¿uno o múltiples recursos?
Panel A. En el modelo de Kahneman, habría Un único pool de recursos atencionales los que se
distribuirían entre las múltiples tareas o actividades concurrentes. I-a interferencia entre éstas tareas
ocurriría solo en el caso en que las mismas demandasen más capacidad que la disponible.
Panel B. En los modelos de recursos específicos (Vg: Navon y Gopher, 1979) habría múltiples fuentes
de recursos atencionales -o:, j0, 77, ...- y. cada tarea. para su realización eficaz, requeriría de un quantum
óptimo de récursos provenientes de algunas de estás diversas Fuentes. En la medida en que dos tareas
saturen una de estas fuentes se producirá interferencia entre ambas. En él ejemplo, si la demanda
conjunta de recursos *β* por parte de A V K excede la cantidad disponible sf». producirá interferencia.
Los modelos de recursos, al igual que los de filtro, comulgaban con la idea de que la
atención era una propiedad fundamental de la mente que se concebía ya como una ca-
pacidad o recurso cognitivo, ya como una estructura o mecanismo de procesamiento de
la información. En cualquier caso, para ambos enfoques, la atención tenía una realidad
psíquica innegable. Una aproximación radicalmente diferente fue propuesta por Neisser
50
Lecciones de Psicología Cognitiva
51
Humberto Fernández
Figura 2.9a
La atención en perspectiva 'esquemática' (Neisser)
52
Lecciones de Psicología Cognitiva
En: la perspectiva de Weisser, dos tareas complejas pueden ejecutarse bien, de forma simultánea y
consciente, en la medida en que con la práctica, se hayan desarrollado pautas de destrezas apropiadas,
A medida que el entrenamiento avanza, el conocimiento procedural (y declarativo) involucrado en la
ejecución combinada de dichas tareas, se irá integrando en esquemas de memoria particulares. En lo
sucesivo:, una vez consolidados dichos esquemas, éstos pasarán á controlar las operaciones cognitivo-
motoras implicadas en la ejecución de las tareas de marras. En el gráfico, al principio (Situación
Inicial), los esquemas en cuestión no se han desarrollado lo suficiente por lo que se producen
interferencias. Empero, cuando los esquemas ya se han consolidado (Situación Final), la ejecución
alcanza un nivel óptimo.
Está fuera de toda duda el hecho de que nuestras capacidades mentales nos permiten
llevar a cabo acciones coordinadas sobre el medio, lo cual, ciertamente, implica inhibir ciertos
cursos de acción contraproducentes cuando no inocuos, como así también, orientar nuestro
comportamiento hacia metas relevantes conforme a nuestras expectativas e intereses.
El punto es: ¿qué sistema de nuestra mente es el encargado de que actuemos en sintonía
con las demandas del medio y nuestros propios deseos y motivaciones? Claramente, este
tipo de planteamientos no encuentra una respuesta adecuada en el marco de los modelos
clásicos de selectividad y capacidad atencional y, tampoco, en el esquema de Neisser. Este
último, a pesar de mantener que los esquemas (momentáneamente) activos guían la explo-
ración perceptual y permiten, en la medida en que se encuentren adecuadamente desarro-
llados, la realización eficiente de una tarea, no obstante falla en proporcionar una descrip-
ción adecuada de la forma en que los putativos esquemas intervienen en dichos procesos.
En la década del ochenta del siglo que pasó, se desarrollaron una serie de modelos teó-
ricos que, precisamente, asumieron como hipótesis central la idea de que la atención puede
ser considerada genuinamente como un sistema o mecanismo de control de la acción.
Entre éstos, se destaca el desarrollado por Norman y Shallice (1986), por cuanto reconoce
distintos niveles de control de las acciones y, así también, distintos sistemas de control. El
modelo no se restringe únicamente a acciones físicas sino que también abarca a acciones o
procesos que pueden tener lugar en el interior de la mente. En el primer caso, un ejemplo
puede ser la acción de detenerse frente a un semáforo y, en el segundo, el planificar las ac-
ciones del día en el curso de la ducha matinal.
53
Humberto Fernández
El presente modelo admite que las acciones llevadas a cabo por el sujeto pueden
ser de tres tipos:
A) Completamente automáticas. Son acciones rutinarias que, bajo la forma de
destrezas o hábitos, se desarrollan prácticamente sin que el sujeto llegue a
percatarse conscientemente de las operaciones o procesos implicados. A
consecuencia de su práctica habitual, se van generando en la memoria una serie de
estructuras cognitivas, los 'esquemas de acción', que vienen a compilar los tipos de
respuestas que resultan apropiadas frente a estímulos específicos. Estas estructuras,
en el marco del presente modelo, reciben el nombre de 'unidades de esquemas de
control' por cuanto, en definitiva, tienen por cometido controlar que la acción se
ejecute de modo preciso. Se supone que las acciones controladas por esquemas
son automáticas por cuanto, no sólo no requieren de control consciente para su
ejecución, sino también, porque se disparan directamente en presencia del estímulo
específico. Por su naturaleza automática, pueden ser llevadas a cabo de modo
simultáneo con otras actividades sin que se produzcan interferencias indeseadas.
Un ejemplo prototípico de este tipo de acciones lo constituye la conducción de
automóviles. Cuando el conductor desarrolla los esquemas apropiados, hace
todos los movimientos propios del manejo (embragar, poner cambios, acelerar,
etc.) sin apenas tener conciencia de los mismos a la par que, sin ningún
tipo de problemas, puede realizar otras actividades (escuchar radio, departir con su
interlocutor, preparar mentalmente su agenda del día, etc.).
B) Parcialmente automáticas. Las acciones habituales llevadas a cabo por el
sujeto gracias a la activación de sus respectivos esquemas pueden, en ocasiones,
entrar en conflicto. Por ejemplo, ante el estímulo específico, 'El semáforo en verde',
el conductor normalmente pone en marcha su vehículo. Pero, ¿qué puede suceder
si, en ese mismo momento, escucha el silbato del vigilante de la esquina?
Normalmente, al activarse los esquemas respectivos, las acciones bajo su control se
disparan automáticamente por lo que, para estas circunstancias especiales, resulta
necesario que el sistema arbitre los medios para evitar tan drástica incoordinación de
las acciones. Desde el modelo bajo consideración, se supone la existencia
de un componente de control que tendría el cometido de seleccionar uno de los
esquemas activados de modo que sólo ése pueda plasmarse en una acción concreta.
Este componente es el denominado 'dirimidor de conflictos'. La mediación de este
sistema tiene lugar en forma relativamente automática de modo que el sujeto no
se involucra en un proceso de deliberación o reflexión consciente respecto de qué
acción acometer. Simplemente, sobre la base de un conjunto de reglas incorporadas
a través de la experiencia, el dirimidor da prioridad a un esquema en desmedro del
otro. Las acciones que se ejecutan gracias a la mediación de este sistema, por
cuanto no se disparan directamente por la presencia de su estímulo específico,
bien puede caracterizarse como no totalmente automáticas. En el ejemplo dado,
el conductor simplemente se queda detenido frente al semáforo verde sin que,
para ello, deba reflexionar hondamente sobre el asunto.
C) Deliberadamente controladas. Es claro que un sistema que solamente
cuente con un repertorio de acciones rutinarias no puede resolver situaciones
complejas para las que
54
Lecciones de Psicología Cognitiva
no dispone de los esquemas apropiados. Habida cuenta de que el ser humano es tremen-
damente competente en este tipo de contingencias, resulta en extremo plausible asumir
que éste debe disponer de un sistema que le permita sortear con éxito problemas nuevos y
complejos. En estas circunstancias, desde el modelo propuesto por estos autores, se asume
que entra en funciones una unidad cognitiva compleja y altamente sofisticada: el 'sistema
supervisor atencional. Este sistema, por un lado, se supone que viene a proporcionar un
mayor nivel de activación o de inhibición a los esquemas momentáneamente activos en
función de si éstos resultan o no adecuados a las demandas de las tareas en curso (o a las
circunstancias presentes). Por otro lado, si las circunstancias lo requieren, este sistema viene
a asumir el control ejecutivo de las acciones, planificando su curso general y monitoreando
su ejecución de modo de corregir eventuales errores en el proceso. Puesto que las activida-
des de esta unidad ejecutiva se asumen como plenamente conscientes, las acciones llevadas
a cabo bajo su supervisión, de suyo que deben considerarse absolutamente voluntarias y
deliberadas. Un ejemplo hipotético en el que se revelaría la actuación de este sistema su-
pervisor podría ser el siguiente: Un postulante para un empleo frente a un entrevistador
particularmente hostil bien puede llegar, no solo a inhibir conductas contestatarias sino
también, exhibir conductas y actitudes de signo positivo hacia dicho sujeto. Es claro que
dicha forma de proceder resulta absolutamente funcional a los objetivos del postulante:
agradar al entrevistador para maximizar sus posibilidades de conseguir el empleo. Desde el
punto de vista del presente modelo, se supone que dicho objetivo fue elaborado a nivel del
sistema supervisor, el cual, además, tendría el cometido de monitorear el comportamiento
frente al entrevistador de modo de direccionar las acciones (gestos, posturas, habla, etc.)
hacia el fin propuesto.
A partir de esta triple caracterización de las acciones, puede verse que el modelo propone
que éstas pueden llegar a controlarse mediante la actuación de dos dispositivos diferentes: el
diritnidor de conflictos, para el caso de acciones más rutinarias, y el sistema supervisor para
el caso de que se requiera la implementación de acciones nuevas o de mayor complejidad.
En suma, el modelo propuesto tiene la ventaja de explicar cómo es que se lleva a cabo
el proceso de control de la acción y, así también, cómo es que al fallar dicho proceso puede
dar lugar a la aparición de errores. Por poner un ejemplo, bien puede ocurrir que al salir
de la oficina usted tome el camino habitual para dirigirse a su hogar y no el que pretendía
para poder comprar un repuesto para la computadora. El esquema 'regresar al hogar' se
dispara automáticamente al salir de la oficina a la hora acostumbrada y, puesto que no fue
oportunamente inhibido, usted desafortunadamente deberá esperar otro día para realizar
el trámite pendiente que, quizás, por no ser demasiado importante, fue dejado de lado. Por
otro lado, el modelo se ensambla perfectamente con la propuesta de Baddeley (1990) res-
pecto de la arquitectura de la memoria operativa. En ésta, como se verá, un componente
crítico para el funcionamiento eficiente de dicho sistema es el 'ejecutivo central', el cual, en
cierto modo, puede ser asimilado al sistema supervisor. En la Figura 2.10 se proporciona
una representación esquemática de este modelo.
55
Humberto Fernández
Figura 2.10
La atención como mecanismo de control
En el marco de este modelo, se supone qué estímulos específicos disparan esquemas de acción
particulares los que, una vez activados, habrán de controlar que se lleven a cabo secuencias
apropiadas de respuestas. Cuando se disparan esquemas incompatibles, el dirimidor de conflictos
será el encargado; de seleccionar, en función <de las prioridades de procesamiento: del sistema, qué
esquema prevalecerá a fin de evitar posibles incoordinaciones en las respuestas del sujeto. En
situaciones nuevas o complejas, interviene el supervisor atencional el que, no sólo viene a regular el
nivel de activación de los esquemas sino también, promueve la Formación de nuevas y más eficientes
pautas de respuesta.
6. Comentarios Finales
56
Lecciones de Psicología Cognitiva
57
III. La memoria humana: su composición y funcionamiento
1. Doctrina filosófica según la cual en el curso de la experiencia se forman estructuras mentales complejas por
asociación entre ideas y sensaciones elementales.
Humberto Fernández
En pos de lograr una medida de retención no contaminada por los conocimientos y ex-
periencias pasadas, Ebbinghaus utilizó, como material experimental, sílabas sin sentido con-
formadas por un trío de consonante, vocal y consonante (por ejemplo, TOR, COX, etc.).
A efectos de medir el recuerdo de dicho material, Ebbinghaus desarrolló el siguiente para-
digma, conocido con el nombre de 'método de los ahorros': sirviendo él mismo como sujeto
experimental, se tomó la ardua tarea de estudiar una lista de estas silabas hasta cumplir con el
criterio de aprendizaje por él prefijado consistente en repetirlas dos veces consecutivas en el
mismo orden dado. Luego de un intervalo de demora variable, desde una hora a varias horas
e inclusive días, Ebbinghaus trataba de re-aprender la lista hasta cumplir con el criterio de
aprendizaje original ¿Cuántos ensayos de re-aprendizaje requería para cumplir con el criterio
de aprendizaje prefijado? En el supuesto caso de que el número de ensayos de re-aprendizaje
fuera menor que el número de ensayos que insumió el aprendizaje original, esta diferencia
bien podría atribuirse al hecho de que el sujeto conservaría en su memoria al menos parte de
la información original relativa al material estudiado.
Una medida del recuerdo para dicho material puede establecerse, precisamente, en tér-
minos de cuánto se ahorra el sujeto ui número de ensayos o tiempo de estudio al intentar
aprender la lista nuevamente. Así, por ejemplo, si la primera vez la memorización perfecta de
la lista le insumió cuarenta ensayos y, luego de un intervalo de demora de una hora, el sujeto
necesita de sólo diez ensayos de re-aprendizaje, éste se ahorró treinta ensayos con respecto al
aprendizaje original de cuarenta ensayos lo cual, en términos porcentuales, equivale a un 75%
de ahorro, con lo cual, podría inferirse que en su memoria se conservaría una gran parte de
la información correspondiente a la lista de estudio. El proceso de cómputo del puntaje de
ahorro se ejemplifica en el Cuadro 3.1.
Cuadro 3.1
Ebbinghaus y el método del ahorro: Un ejemplo
Ahorro logrado luego de 40 ensayos de aprendizaje inicial
60
Lecciones de Psicología Cognitiva
Debe quedar claro que, a medida que se requieran más ensayos de re-aprendizaje, habrá
menos ahorro y, en consecuencia, es de suponer que se habría producido un mayor olvido
del material estimular. Para comprender mejor este punto, si este sujeto hipotético, al cabo
de 5 horas de demora, tuvo que emplear veinte ensayos de re-aprendizaje, tomando como
punto de referencia los cuarenta ensayos iniciales, en términos absolutos se ahorró veinte
ensayos lo que equivale a un ahorro del 50%. Graneando los respectivos valores de ahorro
logrados luego de diferentes intervalos de demora, se obtendría ni más ni menos que la
famosa 'curva del olvido' de Ebbinghaus. Una representación esquemática de esta curva se
proporciona en la Figura 3.1.
Figura 3.1
Ebbinghaus y la curva del olvido
Sin duda alguna, las críticas hacia Ebbinghaus referidas a la falta de validez ecológica
de sus experimentos son ampliamente atinadas. En efecto, los materiales empleados por
este autor son por completo ajenos al empleo de la memoria en contextos cotidianos.
Sin embargo, y a pesar de estas limitaciones, nadie puede negarle el mérito de haber de-
mostrado en forma pionera que una función superior de la mente, en el caso presente, la
memoria, podía abordarse experimentalmente. Además, con su intuición de que hay en la
mente información o 'ideas' que, a pesar de que no puedan ser recuperadas de un modo
consciente, afectan nuestros pensamientos y conductas actuales fue, asimismo, un precur-
sor del concepto de 'memoria implícita' o inconsciente tan en boga en la investigación
básica contemporánea. Específicamente, obsérvese que en el paradigma del re-aprendizaje,
el sujeto, luego de un intervalo de demora, aún cuando no logre recordar deliberadamente
la lista de sílabas sin sentido, sin embargo, tarda menos tiempo o ensayos en re-aprenderla
61
Humberto Fernández
62
Lecciones de Psicología Cognitiva
Es claro que poco y nada de la naturaleza reconstructiva del recuerdo podría ponerse en
evidencia con las sílabas sin sentido de Ebbinghaus. Por esta razón, Bartlett puso especial
cuidado en que su material estimular resultara plenamente significativo para sus sujetos ex-
perimentales. De hecho, sus estímulos experimentales consistentes de fragmentos de prosa,
historias, etc. guardaban cierto parecido con los materiales que los sujetos podían encontrar
en la vida diaria como, por ejemplo, en las fábulas escolares, en las noticias del periódico,
etc. Presentándoles estos materiales a sus sujetos por una única vez y luego, en diversos
momentos del tiempo, pidiéndoles que relaten lo que recuerden de los mismos, es como
Bartlett encontró apoyo empírico para su concepción del recuerdo como reconstrucción.
Sucede que, en las sucesivas reproducciones de las historias o textos dados, de ahí el
nombre de 'reproducción serial' con el que Bartlett bautizó a su paradigma experimental
para el estudio de la memoria, este autor encontró que los sujetos no sólo proporcionaban
versiones cada vez más reducidas de la versión original sino que, además, le introducían de
modo sistemático una serie de modificaciones. Estas modificaciones, en sí mismas eviden-
ciaban, en la perspectiva del recuerdo como reconstrucción, los intentos de los sujetos por
hacer 'encajar' las historias en sus esquemas mentales previos y tornarlas así más compren-
sibles y lógicas.
A título de ejemplo, he aquí algunas de las mentadas modificaciones que Bardett encon-
tró con su método de la reproducción serial:
a) Omisiones: los sujetos tienden a omitir detalles o partes de la historia dada que, plau
siblemente, por sus esquemas culturales no pueden asimilar o comprender bien.
b) Racionalización: pasajes o partes del texto que, plausiblemente carecen de sentido
para el sujeto, son transformados mediante el añadido de nueva información. Por ejem
plo, en el famoso texto de "La guerra de los fantasmas" -una historia típica de la cultura
indo-americana y, con toda probabilidad, ajena a los esquemas culturales de sus sujetos
occidentales- un pasaje referido a que 'algo negro salió de su boca' se convirtió en 'echar
espuma por la boca', por cierto más cercano a la experiencia de sus sujetos.
c) Transformación de detalles: palabras y nombres poco familiares para los sujetos, son
sustituidos por otros más familiares o cercanos a su propia experiencia.
Bartlett con su defensa del concepto de que la memoria debe estudiarse en contex-
tos más cercanos a la vida real fue, sin dudas, un precursor de la idea de que los estudios
experimentales deben preocuparse por alcanzar un grado aceptable de validez ecológica.
Además, con su concepto de que para explicar un fenómeno psicológico —el comporta-
miento mnémico, en este caso— es necesario postular estructuras mentales fue, asimismo,
un precursor de lo que varios años después se daría en llamar la 'revolución cognitiva' en
63
Humberto Fernández
Cuadro 3.2a
Ebbinghaus y Bartlett: Un contrapunto
Cuadro 3.2b
Ebbinghaus y Bartlett: Un contrapunto
64
Lecciones de Psicología Cognitiva
Asodacionista Ecológico
Enfoque / Contraste (Ebbinghaus (Bartlett)
65
Humberto Fernández
66
Lecciones de Psicología Cognitiva
Figura 3.2
La memoria: una capacidad 'transversal' de la mente
67
Humberto Fernández
¿Cómo funciona nuestra memoria? Desde luego que uno puede responder a esta pre-
gunta adoptando, por razones de preferencias teóricas o de otra índole, diferentes puntos
de vista o, más apropiadamente hablando, niveles de análisis. Así, por ejemplo, se puede
responder a esta cuestión desde un plano neurobiológico, identificando las estructuras cor-
ticales asociadas a la función mnémica así como los procesos neuroquímicos que subyacen a
ella. O bien, por caso, es posible centrarse predominantemente en las características psi-
cológicas de la memoria en tanto que estructura o proceso de la 'mente' o del 'organismo'
situándose, así en un plano psicológico de explicación o descripción. Las comillas pretenden
resaltar el hecho de que, dentro de este último plano, es posible inclinarse por modelos
teóricos mentalistas o no-mentalistas. Los primeros, predominantemente identificados, hoy
por hoy, con el denominado paradigma cognitivo en Psicología y, los segundos, con la
tradición asociacionista del estímulo-respuesta en alguna de sus variantes.
Asumiendo que los distintos niveles de análisis pretenden abordar dimensiones diferentes
de un mismo fenómeno y que, además, los conceptos explicativos propios de cada nivel no
son necesariamente reducibles entre sí, aquí se abordará el estudio de la memoria desde una
perspectiva básicamente psicológica y mentalista. Desde este punto de vista, responder a la
pregunta que inquiere acerca de cómo funciona la memoria lleva, a su vez, a tratar de
elucidar una serie de interrogantes más puntuales y críticos tales como, por ejemplo:
a) ¿Cómo se forma esa gran base de datos de la mente que es la memoria?: El problema
de la adquisición de la información.
b) ¿Es la memoria una estructura unitaria de la mente o no?: El problema de la natura-
leza unitaria o múltiple de la memoria.
c) ¿Cómo se representa la información en la memoria, esto es, bajo qué códigos se
'inscribe' la información en la mente? ¿Un código visual, verbal, o, quizás, abstracto?:
El problema de la organización de la información en la memoria.
d)¿Cómo es que los datos del pasado se actualizan en el aquí y ahora?: El problema de
la recuperación de la información.
e) ¿Cómo y por qué es que a veces nuestra memoria falla?: El problema del olvido.
f) ¿Es acaso posible que en la mente haya información disponible que, por alguna u otra
razón, no resulte accesible a la conciencia?: El problema de la memoria implícita o de
las relaciones entre la memoria y la conciencia.
g) ¿Cuál es el destino que la mente reserva a nuestros recuerdos personales?: El prob-
lema de la memoria autobiográfica.
68
Lecciones de Psicología Cognitiva
Desde los inicios del estudio científico de la memoria, dos figuras relevantes de la cien-
cia psicológica como Hermán Ebbinghaus y William James intuyeron la existencia de varias
memorias en la mente.
Ebbinghaus2, en su famoso trabajo sobre la memoria (datado en 1885) distinguía, por
un lado, entre formas (i) voluntarias e (ii) involuntarias de recuerdo en las cuales, las experi-
encias pasadas retornaban a la conciencia ya por un simple acto de la voluntad, ya de forma
completamente espontánea y, por el otro, (iii) casos de recuerdo en los cuales dichas expe-
riencias, a pesar de permanecer ocultas a la conciencia -esto es, no ser reconocidas como
parte del pasado del sujeto— afectan (o se expresan) en el curso actual del pensamiento o de
la conducta. Ejemplos: (i) en un acto deliberado y por las ra2ones que sean, me propongo
traer a la mente el nombre de mi primera maestra y, en unos instantes, si tengo éxito en la
recuperación, su nombre aparecerá en mi mente; (ii) camino a la oficina, veo a un grupo
de escolares en su primer día de clases y, espontáneamente, vienen a mi mente imágenes
y recuerdos de mi primera infancia y, en esta corriente de pensamientos, se representa
vividamente en mi conciencia el rostro de mi primera maestra y 'una voz interior' repite
su nombre y, por último, (iii) una observación —rescatada por Schacter (1987)— del famoso
psicólogo suizo Edouard Claparéde (1873/1940) respecto de una paciente amnésica que
rehusó estrecharle la mano luego de que una vez, él accidentalmente la pinchara con un al-
filer. Es razonable suponer que en este caso, la huella mnémica correspondiente al episodio
del pinchazo se preservó en la mente de la paciente quien, por su carácter amnésico, no lo
puede recordar (conscientemente) y, sin embargo, el conocimiento de dicho episodio afecta
su comportamiento actual pues, de hecho, evita extenderle la mano a Claparéde.
James,3 en su clásica obra del año 1890, Principios de Psicología', al establecer —mediante
sus siempre mentadas observaciones introspectivas de la mente— la distinción entre una
'memoria primaria' (transitoria) y una memoria 'secundaria' (permanente) se erigió en el
2. H. Ebbinghaus (1850-1909). Filósofo alemán enmarcado en la tradición asociacionista. Se lo considera el
padre de la Psicología de la Memoria por haber sido pionero en el estudio experimental de dicho fenómeno
psicológico.
3. W James (1842-1910). Figura prominente de la psicología norteamericana que, con su visión de la mente
como un órgano biológico que lleva a cabo funciones tales que promueven al máximo las posibilidades de
adaptación del organismo a su ambiente, contribuyó al establecimiento de la tradición funcionalista en ese
país. Entre sus obras, ‘Principios de Psicología' (1890/1989), se destaca como un clásico en la Historia de la
Psicología.
69
Humberto Fernández
70
Lecciones de Psicología Cognitiva
6. El modelo-multi-almacén: Antecedentes
Desde una perspectiva histórica, bien puede afirmarse que las intuiciones de James
sobre la existencia en la mente de una memoria transitoria y otra más permanente, las
ideas de Broadbent sobre cómo es que se lleva a cabo el procesamiento humano de la
información y, asimismo, una serie inconexa de fenómenos empíricos conocidos por
aquella época, sirvieron como 'caldo de cultivo' para la emergencia de una estructura
conceptual que, a modo de síntesis, hiciera posible una explicación comprehensiva de
todo ese cuerpo de elementos. La teoría multi-almacén de la memoria propuesta por
Atkinson y Shiffrin (1968) bien puede considerarse una tal estructura de síntesis. Pre-
vio al abordaje de esta teoría, resulta pertinente tratar con cierto detalle los fenómenos
empíricos antes aludidos. Estos son: el 'fenómeno Sperling', base empírica del almacén
sensorial postulado por el modelo; el descubrimiento de que pequeñas cantidades de
información se olvidan rápidamente luego de distracciones momentáneas, evidencia que
sirvió para abonar la presunción de una memoria transitoria en la que las huellas mnémi-
cas decaerían sólo con el mero paso del tiempo y, por último, el efecto de posición serial,
71
Humberto Fernández
fenómeno que revelaría la existencia de los otros dos almacenes postulados, el de corto y
el de largo plazo.
El mítico 'fenómeno phi' o impresión del movimiento aparente con el que Max Wert-
heimer diera origen a su famosa 'Escuela de la Gestalt' o, también, el menos famoso 'ex-
perimento infantil' de 'escribir (con una varilla incandescente) nuestro propio nombre en
los confines de nuestro 'laboratorio' -un simple cuarto oscuro-, son ambos instancias del
fenómeno de persistencia visual de la información sensorial.
Este fenómeno se conocía desde hacía mucho tiempo. De hecho, ya en 1740 según
referencia Baddeley (1990), el científico sueco Segner midió, con una tecnología muy ru-
dimentaria, una brasa atada a una rueda en movimiento, la duración de dicho fenómeno
estimándola en cien milisegundos. Aunque conocido, su naturaleza intrínseca (¿perceptual?,
¿mnémica?) recién pudo clarificarse cuando, dos siglos después, un estudiante graduado de
Harvard, George Sperling (1960) en tren de preparar su tesis doctoral, se abocó a investigar
la cuestión de cuánta información puede captar la mente en exposiciones estimulares suma-
mente breves. Basándose en manifestaciones de sus sujetos experimentales en el sentido
de que ellos, durante las breves exposiciones taquitoscópicas del material estimular a que
eran sometidos en el curso de sus experimentos, podían captar la totalidad de los estímulos
pero luego, no los podían recordar, Sperling diseñó el famoso 'Paradigma del Informe Par-
cial vs. Informe Global' para explorar la cuestión de si el comprobado recuerdo deficiente
del material estimular debía atribuirse a una memoria deficiente o, por el contrario, a una
percepción deficiente. En suma, la cuestión a dilucidar era la de si los sujetos recordaban
poco porque captaban poco o, a pesar de captar la totalidad de los estímulos presentados,
recordaban poco por que las huellas mnémicas correspondientes a tales estímulos tenían
una vida muy corta y, en consecuencia, los sujetos se olvidaban rápidamente.
¿En qué consiste el paradigma ideado por Sperling? Sencillamente, este investigador
presentó taquitoscópicamente (durante cincuenta milisegundos) una matriz de 4x3 ele-
mentos -letras o números- y, luego de un intervalo determinado de tiempo, se pedía a los
sujetos que reportaran o bien la totalidad del material estimular (Condición de Informe
Global), o bien sólo una parte del mismo (Condición de Informe Parcial). Para indicar
cuál de las tres filas de la matriz los sujetos debían recordar, Sperling utilizó tres sonidos
diferentes, uno para cada fila. Así, luego de concluida la exposición y a un cierto intervalo
de tiempo, un cierto sonido indicaba qué fila debían reportar. Esto significa que los sujetos
no sabían de antemano cuál era la fila sobre la que versaría su recuerdo.
Los resultados obtenidos, cuando se les pedía a los sujetos que recordasen lo visto en
la matriz inmediatamente después de concluida la exposición, fueron los siguientes: bajo
la condición de informe global, los sujetos reportaron tres o cuatro ítems de los doce
que contenía la matriz empero, en la condición de informe parcial, los sujetos reportaron
72
Lecciones de Psicología Cognitiva
73
Humberto Fernández
Este registro mnémico primitivo, por sus características precategoriales y por interve-
nir muy temprano en el procesamiento de la información, fue bautizado, años después,
por Neisser (1967), en su famoso libro Cognitive Psychology, con el nombre de 'memoria
sensorial icónica'. Estudios posteriores aportaron evidencia con respecto a la existen-
cia de un registro mnémico análogo al icónico que vendría a capturar información de
carácter auditivo. Esta memoria, sensorial en carácter, fue bautizada por Neisser con el
nombre de 'memoria ecoica'. De un modo plausible, habría así también registros sen-
soriales equivalentes en otras modalidades sensoriales tales como la háptica, gustativa,
etc. Los hallazgos de Sperling sirvieron de base para el desarrollo posterior del modelo
multi-almacén el cual asume que las memorias sensoriales constituirían el eslabón inicial
en la cadena del procesamiento humano de la información y una de las tres estructuras
de memoria de la que dispondría la mente humana. En las Figuras 3.3 y Figura 3.4 se pro-
porcionan, respectivamente, una representación esquemática del paradigma experimental
de Sperling y de sus hallazgos principales
Figura 3.3
El paradigma de Speling
74
Lecciones de Psicología Cognitiva
75
Humberto. Fernández
ítems. Sucede que, en el paradigma estándar, preguntando luego de cada ensayo qué letras
se recuerdan, los sujetos en ensayos posteriores ya saben que se explorará su memoria y,
por lo tanto, pueden ingeniárselas para repetir mentalmente los ítems sobre los que luego
se les interrogará. En experimentos posteriores, realizados en la década del ochenta (del
pasado siglo), se exploró el recuerdo del material presentado sólo en los últimos ensayos
de una larga serie, encontrándose una duración sustancialmente menor a la reportada por
los Peterson. Se entiende, los sujetos no estaban acostumbrados (en los ensayos previos) a
que se testee su memoria por lo que no se veían tentados a efectuar algún tipo de repaso
mental sobre los ítems dados. Así, minimizando el factor repaso, la duración de las huellas
se acorta. Este es el precisamente el resultado que obtuvo Muter (1980), mediante la modi-
ficación antes apuntada, del paradigma estándar de Brown-Peterson.
¿Cuál es la razón de tan marcada transitoriedad en el recuerdo? En la interpretación
teórica que los Peterson dieron a sus resultados, la razón estriba en que las huellas mnémi-
cas que hacen posible el recuerdo se desvanecen rápidamente con el paso del tiempo y, por
lo tanto, el sujeto no puede recuperar la información pertinente por haberse evaporado su
registro mnémico respectivo.
Esta teoría del decaimiento o desvanecimiento automático de la huella propuesta por
estos investigadores se convirtió en un competidor teórico de peso frente a aquella otra,
en boga por aquel entonces, la teoría de la interferencia. Según (una de la varias versiones
de) esta teoría se diría que el olvido debería atribuirse no a que las huellas mnémicas (de
estímulos o eventos pasados) se desintegran con él mero paso del tiempo sino más bien,
al hecho de que dichas huellas no pueden discriminarse fácilmente como resultado del in-
greso de nueva información. Así, se dirá que la recuperación de un ítem resulta interferida
por la presencia en memoria de otros ítems de información siendo la interferencia mayor,
cuanto más semejantes sean los ítems entre sí.
En opinión de los Peterson, esta teoría no podía aplicarse a sus resultados puesto que
la semejanza entre el material estimular —trigramas— y el material distractor —números— era
más bien escasa. Así, en la visión teórica de estos investigadores, sus resultados experimen-
tales estarían respaldando la idea de dos estructuras o sistemas mnémicos independientes:
una memoria temporal (a corto plazo) en la que el olvido se produciría por el decaimiento
automático de las huellas de memoria y otra, permanente (a largo plazo) en la el olvido sería
la resultante de un proceso de interferencia.
Aún cuando pronto los teóricos de la interferencia efectuaron una reinterpretación,
en sus propios términos, de los hallazgos de los Peterson, el concepto de olvido por de-
caimiento automático de la huella sirvió para reavivar, sobre bases experimentales y no
meramente introspectivas, la vieja hipótesis de James sobre la existencia en la mente de
una memoria dual. Precisamente, este 'revival’ del concepto de memorias múltiples
vino a cristalizarse años después con el planteo multi-almacén de Atkinson y Shiffrin.
De ahí la importancia del paradigma de Brown y Peterson del cual se proporciona una
representación esquemática en las Figuras 3.5 y 3.6.
76
Lecciones de Psicología Cognitiva
Figura 3.5
El paradigma de Brown-Peterson
Ensayo i-esimo
Figura 3.6
La distracción y el olvido
77
Humberto Fernández
Este efecto conocido ya, según refiere Ruiz Vargas (1994) desde fines del siglo XIX,
recuperó la atención de los investigadores de la memoria en el marco de la polémica desa-
tada por los hallazgos de los Peterson respecto a la existencia o no de múltiples memorias
en la mente.
¿En qué consiste el efecto o fenómeno de posición de serial? Simplemente, este efecto
alude al hecho de que dados una serie o lista de ítems no relacionados como por ejemplo,
números, letras o palabras inconexas y que superen el 'número mágico' de siete descu-
bierto por Miller (1957)4, la probabilidad de recuperar desde la memoria dichos ítems es
una función de la posición que los mismos ocupan en la serie. En concreto, en una tarea
de recuerdo libre -aquella en la cual el sujeto debe evocar en el orden que desee los ítems
de la lista-, los primeros y los últimos ítems de la serie se recuerdan mejor que aquellos que
ocupan una posición intermedia. Estos efectos de la posición inicial y final de los ítems
reciben el nombre de efectos de primacía y de recencia, respectivamente. La representación
gráfica de las probabilidades de recuerdo asociadas a cada posición en la serie se conoce
con el nombre de curva de posición serial cuyos tramos iniciales y finales definen las zonas
de primacía y de recencia, respectivamente. En la Figura 3.7 se proporciona una represen-
tación esquemática de la curva de posición serial para una lista (hipotética) de n ítems de
información.
Figura 3.7
La curva dé posición serial
4. George Miller, uno de los pioneros de la 'revolución cognitiva' en Psicología, publicó en 1957 un célebre
artículo sobre las peculiaridades de la mente como mecanismo procesador de información. En dicho trabajo,
cuyo título traducido es El mágico número siete más o menos dos, se puso de manifiesto que la mente no puede retener
de modo inmediato más que una cantidad limitada de 'paquetes' de información ('chunks'). Dichas cantidad
ascendería precisamente a ése ' número mágico' de siete.
78
Lecciones de Psicología Cogmtiva
Figura 3.8
El modelo dual de Waugh y Norman (1965)
La explicación de la curva de posición serial de acuerdo con este modelo puede expre-
sarse en los siguientes términos:
• Efecto de primacía. A medida que los ítems de la lista van ingresando a la memoria pri-
maria, el sujeto sabedor de que su memoria para dichos ítems va a ser testada en lo inmedi-
ato, tiende a repetirlos para su mejor recuerdo posterior. Debido a la limitada capacidad de
este dispositivo de memoria, los ítems iniciales tienden a beneficiarse con un mayor número
de repeticiones. Así, por ejemplo, sea la lista formada por los ítems 'a, b, c, d,..., n'. Hasta
la llegada del ítem b, el sujeto tiene tiempo de repetir para sí el ítem a —primera repetición de
a-. Una vez ingresado el ítem b y hasta la llegada del ítem c, el sujeto repetiría la secuencia
'a - b' -segunda repetición de a y primera de b-. Una vez que ingresa el ítem d, el sujeto
podría repetir la secuencia 'a - b - c' -tercera repetición de a, segunda de b y primera de
79
Humberto Fernández
c—. Así, hasta la llegada de un nuevo ítem, el loop de repetición se ejercitaría sobre
los ítems precedentes hasta que llega un momento en que, por la limitada
capacidad de la memoria primaria, el beneficio de la repetición no puede
extenderse más allá de un cierto número de ítems. Como se ve, con esta mecánica,
son los ítems iniciales los que recibirían un mayor número de repeticiones.
Según el modelo, cuanto mayor sea el número de repeticiones de un ítem,
mayor será su permanencia en la memoria primaria y mayores serán sus
probabilidades de transferencia a la memoria secundaria desde donde,
teóricamente, se recuperarían cuando el sujeto acomete la tarea de libre recuerdo
generando así la zona de primacía de la curva de posición serial. En definitiva, la
repetición impide la desaparición de un ítem y maximiza su probabilidad de
transferencia a una memoria más permanente haciendo más probable su recuerdo
posterior lo cual se pondría de manifiesto en el denominado efecto de primacía.
• Efecto de recencia. Una vez terminada la lista, los últimos ítems de la serie
se encontrarían todavía 'circulando' por la memoria primaria por lo que serían
fácilmente accesibles cuando el sujeto acomete de modo inmediato la tarea de
recuerdo libre. La mayor accesibilidad de estos ítems finales permitiría una
alta tasa de recuperación de los mismos al momento del recuet jo, generando así
la zona de recencia de la curva de posición serial. En definitiva, la sola
permanencia de los ítems en la memoria primaria lleva a un incremento de la
probabilidad de recuerdo de los mismos lo cual se traduce en el denominado
efecto de primacía.
80
Lecciones de Psicología Cognitiva
. Figura 3.9
Eliminación de los efectos de posición serial
Pues bien, luego de este paneo por los antecedentes críticos que coadyuvaron a la for-
mulación por parte de Atkinson y Shiffrin del modelo multi-almacén de memoria, llegó la
adentrarse en lo que el mismo propone.
81
Humberto Fernández
Figura 3.10
El Modelo Modal de Memoria (1968)
En una primera etapa, los inputs estimulares hacen su ingreso al sistema cognitivo me-
diante una serie de almacenes sensoriales en los cuales quedan registrados según la modali-
dad de origen, esto es, la información visual ingresa a un almacén sensorial visual también
llamado -como se precisó anteriormente- memoria irónica, la información auditiva hace
lo propio a través del almacén sensorial auditivo o memoria ecoica y así siguiendo con el
resto de las modalidades (háptica, gustativa, etc.). En virtud de presuponer la existencia de
registros sensoriales específicos para cada modalidad, este modelo también se lo conoce
como modelo modal de memoria. La particularidad de esta etapa inicial es que, en su seno,
el procesamiento de la información estimular se ejecuta en paralelo en los distintos alma-
cenes sensoriales. Vale decir, ante un input estimular complejo con múltiples características
visuales, auditivas, etc. o varios inputs de diferente tenor sensorial cada uno, los registros
sensoriales actúan en paralelo, esto es, simultáneamente, sobre las distintas características
sensoriales del input complejo o capturando, cada uno por separado, a los distintos inputs
según su modalidad.
La(s) memoria(s) sensoriales) —MS— presentarían las mismas características del registro
visual primitivo estudiado por Sperling. Esto es, conforme al modelo modal, la memoria
sensorial es un almacén mnémico de (i) capacidad ilimitada aunque de (ii) escasa persis-
tencia temporal en la cual se efectúa fugazmente un (üi) registro pre-categorial de la infor-
mación estimular siendo (iv) su función, la de retener por un corto período de tiempo los
múltiples y variados patrones de información estimular que, de forma continua, impactan
82
lecciones de Psicología Cognitiva
En esta segunda etapa, sólo una fracción de la información sensorial ingresa a un dis-
positivo mnémico que, como el anterior, reviste un carácter transitorio aunque un poco
más duradero. Es dispositivo recibe el nombre de Almacén de Corto Plazo (ACP) o Me-
moria de Corto Pla2o (MCP) Aquí, se continúa con el procesamiento de la información es-
timular con miras a evaluar su pertinencia para el sistema en su conjunto y, eventualmente,
decidir su transferencia a un sistema de almacenamiento de carácter más permanente. La
particularidad de este estadio de procesamiento es que, en su seno, la información estimular
se analiza de un modo serial. Vale decir, se procesaría un solo ítem por vez.
La MCP de acuerdo con el modelo modal presentaría una serie de características fun-
cionales distintivas las cuales se habrán de consignar en lo que sigue.
(i) Capacidad limitada. En consistencia con los hallazgos empíricos resultantes de la
aplicación del procedimiento conocido como amplitud de memoria,6 el número absoluto
de estímulos no relacionados que somos capaces de recordar de modo inmediato asciende,
aproximadamente, a siete paquetes o chunks de información, el famoso 'número mágico'
con que Miller (1956) etiquetara las limitaciones de procesamiento de la mente. Un chunk'
es un pieza unitaria de información cuya integración es una resultante de la aplicación
de los conocimientos adquiridos por el sujeto en el curso de su experiencia. Así, en una
lista aleatoria de letras de nuestro alfabeto, la unidad de información es la letra individual,
en cambio, en una lista de palabras no relacionadas, la unidad es la palabra como tal que,
obviamente, puede comprender más de una letra.
(ii) Duración limitada. Conforme con los resultados logrados con el paradigma de Brown-
Peterson, se estima que la permanencia de la información en esta memoria de limitada ca-
pacidad es, asimismo, limitada. Las estimaciones en cuanto a su duración establecidas por
los Peterson ascienden aproximadamente a 18 segundos. (Otros investigadores, en cambio,
efectuando un control más sutil de la variable 'repetición o repaso mental' de la información
la estimaron entre 2 y 4 segundos). Como quiera que sea, la persistencia temporal de la infor-
6. Según referencia Baddeley (1990), la técnica de amplitud de memoria fue inventada por un maestro de escuela
londinense, Joseph Jacobs, quien interesado en medir la capacidad mental de sus alumnos les presentó una secuencia de
ítems para su recuerdo inmediato posterior. De ensayo en ensayo, la secuencia se alargaba hasta el punto en que el sujeto no
podía repetir la secuencia en forma correcta. El punto en el cual el sujeto acierta un 50% de las veces se le dio en llamar
'amplitud de memoria' que indicaría, precisamente, capacidad absoluta de retención de nuestra memoria.
83
Humberto Fernández
mación estimular en el seno del ACP sería bastante mayor que la que se obtiene en
MS.
(iii) Formato de la información o estructura de la información almacenada. En un
primer momento, se supuso que el ACP, en lugar de conservar, como los registros
sensoriales una réplica literal ("copia fotográfica") de los estímulos externos,
preservaba la información en un formato de tipo acústico-articulatorio. Esta
aseveración se apoyaba en resultados experimentales referidos al así llamado
fenómeno de confusión acústica. Este fenómeno, investigado sistemáticamente por
Conrad (1964), consiste en ló siguiente: cuando uno debe recordar de modo
inmediato y en el orden dado una serie de estímulos presentados visual o auditiva-
mente, por un breve período de tiempo, como por ejemplo y para simplificar, las
letras "B, Q, ..." o las palabras "Marco, Estrella, ...", sucede que los errores en el
recuerdo sistemáticamente se inclinan por estímulos con propiedades acústicas y/o
articulatorias semejantes. Así, en el ejemplo dado, si el sujeto no recuerda que la
letra "B" o la palabra "Marco" fue presentada, creerá erróneamente que se presentó
la letra "T" o la palabra "Parco". Así, el sujeto confunde un estímulo por otro
semejante en sonido o estructura articulatoria. Es decir, se supone que cuando el
sujeto lee para sí un estímulo visual, tanto los sonidos emitidos como los mo-
vimientos articulatorios concomitantes van a formar parte de la huella mnémica
correspondiente a dicho estímulo y . esta huella con propiedades acústicas y
articulatorias específicas la que determinará el recuerdo posterior: a mayor similitud
acústico-articulatoria de los inputs estimulares, mayor probabilidad de error en el
recuerdo (serial) inmediato de los mismos. En consistencia con estos hallazgos,
Baddeley (1966a) encontró que listas de palabras acústicamente semejantes (v.g.,
'MAN', 'MAD', etc.) eran peor recordadas que listas de palabras semánticamente
semejantes (v.g., 'BIG', 'HUGE', etc.). Este patrón de resultados, parecía sugerir
que, en el ACP, la información se tiende a preservar principalmente en un formato
de tipo acústico/articulatorio en tanto que las propiedades semánticas de los ítems
no recibirían ningún tipo de análisis en este almacén. En la Figura 3.11, se
proporciona una representación esquemática de este tipo de resultados.
Figura 3.11
Recuerdo inmediato de ítems similares en sonido o significado
84
Lecciones de Psicología Cognitiva
La implicación general que, para el modelo modal de memoria, se desprendía del fenó-
meno de las confusiones acústicas era que toda información estimular, más allá de la mo-
dalidad de origen, al momento de ingresar al ACP sufriría un proceso de codificación bási-
camente de tipo acústico-verbal, que se almacena exclusivamente en esta forma. Puesto que
el modelo asumía que en el Almacén a Largo Plazo se preservaban solamente los aspectos
semánticos de la información estimular, en un principio, la idea de que el ACP codificaba
sólo acústicamente, parecía plenamente compatible con la tesis central del modelo: múlti-
ples memorias con propiedades funcionales diferentes. Sin embargo, pronto se vio que la
putativa asociación entre tipos de memoria y formas de codificación no era más que una
interpretación apresurada. Así, en estudios posteriores, se vio que el ACP efectúa también
codificaciones de tipo visual y semántico. Por ejemplo, Conrad (1972) encontró que sordos
congénitos, quienes, por cierto, nunca oyeron hablar y, por lo tanto, jamás efectuaron una
codificación acústica de los inputs de tipo lingüístico, acometían sistemáticamente confusio-
nes de tipo visual. En idéntico sentido, Bower y Springston (1970), observaron que si en
lugar de presentar letras agrupadas en unidades arbitrarias (Vg., FB, IAM, ON, UIB, M...),
se las agrupaba en unidades con sentido para el sujeto (Vg., FBI, AM, ONU, IBM,...) el
recuerdo absoluto -en términos de número de letras evocadas- mejoraba sustancialmente.
Estos hallazgos vienen a revelar que en AGP, en cierta forma, se emplea también una
codificación de tipo semántico. Por lo tanto, parecería ser el caso que la información, en
este almacén, se estructura o 'formatea' a través de procesos de codificación diversos ya
verbales, ya visuales, ya semánticos.
(iv) Funciones del ACP. La retención y el procesamiento de la información. El modelo
modal otorga un rol primordial al ACP en tanto y en cuanto, no sólo (a) recepta los inputs
estimulares provenientes de los registros sensoriales y (b) los retiene por un breve periodo
de tiempo sino que también, (c) los codifica de múltiples maneras y, eventualmente, (d)
decide su trasvasamiento a un tercer y último sistema de memoria de carácter más perma-
nente, el Almacén de Largo Plazo. Asimismo, de ser necesario, (e) recupera información
desde este último depósito con el fin ya de integrar información pasada con información
actual, ya de dar una respuesta adecuada a las múltiples demandas ambientales, etc.
En definitiva, el ACP operaría como una estación de retención y de trasvasamiento
(a y desde el ALP) efectuándose en su seno procesos de codificación e integración de la
información.
85
Humberto Fernández
recuerdo de la información estimular. En este punto, son varias las respuestas posibles.
Entre éstas, cabe consignar la teoría del deterioro temporal y la de la interferencia en
alguna de sus variantes.
Según se vio anteriormente, los Peterson sostenían que al cabo de 18 segundos las
huellas mnémicas correspondientes a los inputs estimulares sufren un proceso de desvan-
ecimiento o desintegración espontánea por lo que se 'evaporan' del ACP. Esta pérdida
de información en ACP hace imposible que uno pueda recordar los inputs estimulares
cuyas huellas se hayan evaporado. En la Figura 3.12 se proporciona una representación
esquemática de este estado de cosas.
Figura 3.12
El olvido por deterioro temporal de las huellas mnémicas
Esta teoría fue propuesta inicialmente como una explicación alternativa a la hipótesis
del decaimiento (temporal) de los Peterson y, consecuentemente, como una reinterpre-
tación del hecho de que, en el paradigma clásico de Brown-Peterson, el olvido tenga
lugar al cabo de 18 segundos. Al respecto, Keppel y Underwood (1962), en un experi-
mento clásico y trabajando con el propio paradigma de Brown-Peterson, demostraron
que, en el curso del primer ensayo, el olvido no se producía al cabo de 18 segundos y
sí en ensayos subsiguientes. Luego, si hubiera un decaimiento de las huellas, el olvido
debería haberse producido ya en el primer ensayo. Por esta razón, a juicio de estos inves-
tigadores, la teoría del deterioro temporal no sería adecuada para explicar el fenómeno
86
Lecciones de Psicología Cognitiva
del olvido en el ACP. Ahora bien, ¿por qué se produce olvido recién en los ensayos
subsiguientes?
Es de hacer notar que, en el paradigma experimental de marras, ensayo tras ensayo se
produce el ingreso de nuevos trigramas a memoria pero sólo en el primero se da el caso en
el que se verifica una carga nula de este tipo de ítems. Es precisamente esta diferencia la que
permitiría comprender la causa subyacente al fenómeno del olvido en ACP. Éste vendría
a reflejar más bien el hecho de que los recuerdos de los trigramas Viejos', esto es, aquellos
dados en ensayos anteriores vienen a entorpecer la recuperación de los trigramas 'nuevos',
esto es, aquellos correspondientes al ensayo actualmente en curso. Puesto que en el ensayo
inicial del trabajo de Keppel y Underwood no hay trigramas Viejos' que interfieran en el
recuerdo, no se produce olvido como sí ocurre con los ensayos subsiguientes. En virtud de
que son los recuerdos viejos los que entorpecen (o interfieren con) la recuperación de los
recuerdos nuevos, estos autores bautizaron a su teoría con el nombre de 'interferencia pro-
activa'. Este estado de cosas se esquematiza en el Cuadro 3.3 mientras que, en la Figura 3.13
(Cfr. pág 88), se proporciona una representación esquemática de lo que sería el resultado
experimental que, con el paradigma de Brown-Peterson, se obtendría en el primer ensayo
bajo la teoría del decaimiento o de la interferencia en la visión de Keppel y Underwood.
Cuadro 3.3
Interferencia proactiva y paradigma de Brown-Peterson
ferencia. Al respecto, la interferencia proactiva asume que los recuerdos Viejos' recobrarían
espontáneamente su fuerza al punto de poder competir, al momento de la recuperación,
con los ítems o recuerdos nuevos. Es decir, conforme a esta teoría, la interferencia sería el
87
Humberto Fernández
Figura 3.13
Olvido en AGP: ¿decaimiento o interferencia?
88
Lecciones de Psicología Cognitiva
Cuadro 3.4
La interferencia proactiva y la competencia de respuestas
89
Humberto Fernández
Figura 3.14
El olvido por desplazamiento de huellas mnémicas
90
"Lecciones de Psicología Cognitiva
Figura 3.15
Olvido por interferencia de nuevos inputs
Esta teoría, asume a la vez que (i) las huellas mnémicas (en ACP) sufren un proceso de
decaimiento espontáneo y que (ii) la recuperación de un ítem (desde ACP) comporta algún
tipo de discriminación (Baddeley, 1990).
La premisa básica de la que parte esta teoría es que, para poder diferenciar entre ítems
provenientes de un mismo corpus estimular -Vg., listas de trigramas, palabras, escenas,
etc.—, el único parámetro de que dispondría el sujeto sería el tiempo de ocurrencia, esto es,
el sujeto podría discriminar un recuerdo de otro siempre que le sea posible ubicarlos en
diferentes momentos del tiempo. Este parámetro o clave temporal, a medida que transcurre
el tiempo, se va debilitando y, consecuentemente, la probabilidad de un recuerdo correcto
91
Humberto Fernández
también. En otros términos, para esta teoría, la discriminabilidad relativa de dos ítems
provenientes de un mismo pool estimular disminuye con el paso del tiempo y, con ello,
disminuye también la probabilidad de recuerdo. La discriminabilidad relativa de dos ítems
puede expresarse como un cociente o tazón entre los tiempos de permanencia de los mis-
mos en el sistema de memoria hasta el momento del recuerdo. Cuanto más alta sea dicha
razón, más discriminables resultarán los ítems y más alta será la probabilidad de recuerdo.
En el Cuadro 3.5 se proporciona un ejemplo numérico de estos conceptos.
Cuadro 3,5
Razón de Discriminabilidad
92
Lecciones de Psicología Cognitiva
cierto que si esta teoría apunta a proporcionar una explicación cabal del olvido en ACP, de-
bería ampliar el concepto de discriminabilidad de la clave temporal de modo de contemplar
el hecho de que los inputs estimulares no siempre provienen de una población homogénea.
La razón subyacente a esta última apreciación es obvia: en el funcionamiento psicológico
ordinario, no siempre se da el caso de que los estímulos sobre los cuales se ejerce la
función mnémica provengan un mismo corpus estimular.
Figura 3.16
Discriminabilidad temporal y olvido en ACP
93
Humberto Fernández
(i) Capacidad (cuasi) ilimitada. Aún cuando nadie estableciera jamás el límite exacto
de las capacidades de almacenamiento permanente de la mente, a los efectos prácticos,
se considera que la misma es ilimitada o, al menos, enormemente grande. Piénsese, como
sugiere Rattray Taylor (1979), en la inmensa cantidad de volúmenes que nos llevaría escribir
la masa de información que acumulamos respecto de los lugares (visitados), las melodías
(conocidas), las películas (vistas), y un largo etcétera.
(ii) Persistencia temporal (cuasi) indefinida. Es introspectivamente claro que la persis-
tencia temporal de la información en el AI T> es, en algunos casos, extremadamente pro-
longada. Su duración puede medirse en términos de años, no de milisegundos o segundos
como en los estadios anteriores. Aún cuando la evidencia fenoménica no sea de fiar, todos
tenemos recuerdos de nuestra infancia o de episodios lejanos en el tiempo. La mera pre-
sencia en nuestra mente de estos recuerdos añejos cuya veracidad, en cierto modo, puede
llegar a comprobarse objetivamente, son un testimonio vivo del carácter cuasi permanente
de la información en el ALP.
(iii) Formato de la información o estructura de la información almacenada. En los al-
bores del modelo modal, uno de los hallazgos típicos reportados en la literatura, por aquel
entonces, era el referido a la supue I insensibilidad del ACP a las propiedades semánticas
de la información. Del mismo modo, hallazgos similares parecían indicar que el ALP pre-
servaba casi exclusivamente este tipo de propiedades. Así, por ejemplo, Baddeley (1966b)
encontró que ítems semánticamente semejantes son más fáciles de olvidar en el largo plazo
que ítems similares en sonido. Este patrón de resultados esquemáticamente representados
en la Figura 3.17 parecía sugerir que la información que, en el ALP, la información se
preserva en un formato de tipo semántico: es el significado de los inputs estimulares y no
sus características superficiales (acústicas, visuales, etc.) lo que se almacenaría de un modo
relativamente permanente en el sistema de memoria a largo plazo.
Figura 3.17
ítems similares en sonido o significado: Retención a largo plazo
TZn el largó plazo, ítems semánticamente semejantes se recuerdan peor qué Ítems
similares en sonido porque sus huellas mnémicas no serían fácilmente distinguibles
entre sí. Este resultado, en los albores del modelo modal parecía indicar que el
ALP la información se retiene pire dominantemente en función de sus características
semánticas.
94
Lecciones de Psicología Cognitiva
95
Humberto Fernández
Más allá de que la información en el ALP tenga una duración prolongada, el hecho es
que no siempre podemos traer al aquí y .¡tiora los recuerdos allí almacenados. El fracaso en
la recuperación es, en los hechos, sinónimo de olvido. ¿Por qué se produce el olvido en el
ALP? Al respecto, se han esbo2ado un cierto número de respuestas pero, hasta el momento
actual, se carece de una explicación cabal al problema del olvido. Quizás esto sea así porque,
como deja entrever Baddeley (1990), el tema del olvido fue abordado históricamente desde
una teoría de la interferencia de cuño asociacionista y ésta no encajaba del todo bien con
el espíritu cognitivista que empezaba impregnar a la Psicología. Así es como el fenómeno
del olvido, con su tufillo asociacionista, cayó por un tiempo en el olvido. En lo que sigue se
habrán de consignar algunas de las teorías que se han postulado a propósito del problema
olvido en el ALP.
Es esta una de las primeras teorías formuladas a propósito del olvido. Inicialmente de-
sarrollada por Ebbinghaus en su monografía sobre la memoria, esta teoría supone que el
olvido obedece, como su nombre lo indica, a que la información no se usa. Esto es, si con
el paso del tiempo, los recuerdos pasados no son evocados ('usados') en alguna que otra
ocasión se van erosionando gradualmente hasta desaparecer por completo. Una represen-
tación esquemática de esta teoría se proporciona en la Figura 3.18.
Figura 3.18
El olvido (en ALP) por desuso de la información
El olvido por desuso de la información. Esta teoría sostiene que, a medida que pasa el
tiempo, si los recuerdos no se recuperan, esto es, si las huellas mnémicas respectivas
no se re-excitan ('usan') en alguna que otra ocasión, se produce el olvido porque las
huellas se deterioran y se pierden.
96
Lecciones de Psicología Cognitiva
La teoría del desuso ha sido reformulada por Bjork y Bork (1988), quienes, rescatando
el valor adaptativo del olvido, argumentan que la información que no se usa de modo
frecuente, quizás sea aquella que plausiblemente no estaría correspondiéndose con los in-
tereses y planes actuales (del sujeto), solamente pierde su 'fuerza de recuperación', esto es,
sólo se resiente la probabilidad de acceder a la misma. Sin embargo, esta información no
recuperable puede llegar eventualmente a reconocerse y reaprenderse. Así, en esta nueva
teoría del desuso, la información que no se usa no por ello deja de estar archivada o alma-
cenada en algún lugar de la mente.
97
Humberto Fernández
'ruido' provocado por los nuevos recuerdos torna dificultosa la discriminación y recuper-
ación de los viejos recuerdos por cuanto su nivel de señal disminuye.
En la Figura 3.19 se esquematiza el concepto de interferencia retroactiva en su ver-
sión asociacionista en tanto que, en la Figura 3.20, se proporciona una representación es-
quemática del concepto de interferencia por ingreso de nueva información al ALP el cual
es, como se podrá apreciar, en un todo similar al caso del olvido en ACP producido por la
irrupción de nuevos inputs.
En suma, la teoría de la interferencia retroactiva supone que son los recuerdos nuevos
los que dificultan la recuperación de los recuerdos pasados ya sea por un proceso de de-
saprendizaje o extinción, ya por un debilitamiento de las huellas antiguas por las nuevas,
ya por una disminución del nivel de señal de los recuerdos viejos debido al ingreso de
nuevos recuerdos.
98
Lecciones de Psicología Cognitiva
b) La interferencia proactiva. Esta teoría mantiene que los recuerdos más viejos in-
terfieren con la recuperación de los recuerdos más recientes. Esta teoría es idéntica a la
teoría homónima desarrollada en el contexto del problema del olvido en el ACP con la
diferencia de que, en el caso presente, tanto los recuerdos viejos como los recuerdos re-
cientes pertenecen ambos al ALP. Esta teoría vendría a postular que los recuerdos más
viejos recuperan espontáneamente su fuerza al punto de poder competir, al momento de la
recuperación, con los recuerdos más nuevos. En términos asociacionistas, se diría que las
antiguas conexiones E-R 'reviven', por decirlo de algún modo, al punto que las respuestas
viejas pueden llegar a primar sobre las nuevas respuestas. En la Figura 3.21 se esquematizan
los conceptos centrales de esta teoría.
Figura 3.21
Interferencia proactiva y olvido en A-LP
La teoría de la interferencia pro activa supone que los recuerdos más viejos o, en la jerga
asociacionista, las conexiones E-K. asociadas a los viejos aprendizajes recuperan
espontáneamente su fuerza e interfieren con los recuerdos más nuevos o los aprendizajes
más recientes. La interferencia tiene lugar bajo la forana de un proceso de competencia
entre huellas al momento de la recuperación p, entre "respuestas* al momento de
reaccionar frente a un cierto estímulo.
Inicialmente, esta teoría fue propuesta por Tulving y Psotka (1971) como una alterna-
tiva al concepto de que el olvido es causado por un debilitamiento de las huellas más viejas
por parte de las más nuevas. Según esta última, un ítem dado no puede recordarse a con-
secuencia de que su huella respectiva se debilitó o destruyó por la irrupción en el ALP de
nuevos recuerdos. Sin embargo, Tulving y Psotka demostraron que, proporcionando claves
de recuperación adecuadas, los sujetos podían llegar a recordar ítems de una lista dada a la
que le siguieron nuevos ítems provenientes de otras listas (de interferencia). Es claro que la
irrupción de estos nuevos ítems debería haber debilitado las huellas de los ítems anteriores
los cuales, sin embargo, pudieron recordarse cuando se provee a los sujetos de claves de
recuperación tales como, por ejemplo, las categorías a las cuales pertenecían los ítems que
se pretendían recordar. Luego, la interferencia podría actuar no debilitando las huellas de
los inputs estimulares sino, más bien, eliminando claves de recuperación asociadas a dichos
99
Humberto. Fernández
inputs. Así, en esta teoría, el olvido vendría a conceptualizarse como un fracaso en la recu-
peración antes que como una pérdida de información.
En definitiva, por las razones históricas antes apuntadas, la explicación última al pro-
blema del olvido en el ALP es todavía una cuestión abierta. Con todo, actualmente, se
tiende a pensar en el olvido como un problema de recuperación: la información puede estar
quizás disponible en la memoria aunque, por alguna u otra razón, no podemos acceder a
ella.
100
Lecciones de Psicología Cognitiva
dizaje posterior del material estimular respectivo por cuanto el mismo ya seria relativamente
conocido por los sujetos.
Las inconsistencias empíricas precedentemente apuntadas llevaron a los investigadores
de la memoria a la búsqueda de modelos teóricos alternativos.
101
Humberto Fernández
102
Lecciones de Psicología Cognitiva
Figura 3.22
Nivel de Codificación y Perdurabilidad del Recuerdo
Figura 3.23
Almacenamiento permanente: ¿Estructura o Codificación?
103
Humberto Fernández
de la memoria. Las razones de esta declinación podrían situarse en, al menos, dos géneros
de argumentos. Por un lado, un argumento empírico, los hallazgos de Morris, Bransford y
Franks (1977) referidos a la falta de correlación entre codificación semántica y recuerdo y,
por el otro, un argumento de tipo teórico, el cuestionamiento de Baddeley (1978) a la natu-
raleza circular de la definición del concepto 'nivel de procesamiento'.
Morris et al. (1977) pusieron en evidencia, en contra de lo pregonado por los teóricos de
los niveles, que la codificación semántica no necesariamente lleva a un buen recuerdo de la
información. Estos investigadores observaron que las condiciones de codificación llevan a
un buen recuerdo en tanto en cuanto las condiciones bajo las que se efectúa la recuperación
de los inputs objeto de recuerdo hagan hincapié en aspectos de procesamiento semejantes.
Así, por ejemplo, se vio que la codificación fonológica de un ítem no redunda en un buen
recuerdo posterior medido en términos de una prueba de reconocimiento estándar y sí,
en cambio, se asocia con un buen rendimiento en una prueba de reconocimiento de tipo
fonético siendo que, lo contrario ocurre cuando un ítem es codificado en el nivel de sus
características semánticas. En esta circunstancia obsérvese que sólo cuando las operaciones
de codificación y las de recuperación recaen sobre las mismas facetas del input estimular,
se produce una mejora en el rendimiento mnémico de los sujetos. Luego, la codificación
semántica no sería la vía regia pata alcanzar una ejecución mnemónica impecable bajo
cualquier circunstancia.
Baddeley (1978) efectuó un serio cuestionamiento al concepto de 'profundidad de
procesamiento', nuclear en el enfoque de los niveles, arguyendo que carecía de una me-
dida adecuada de la variable 'nivel o profundidad de procesamiento' por cuanto el único
indicador disponible para determinar si un ítem fue procesado a un nivel profundo lo
constituye el buen recuerdo del mismo. Así, en el esquema de los niveles, se dice que si
un ítem se recuerda bien es porque ha sido procesado semánticamente pero, la cuestión
es que la única forma de saber si un ítem ha sido procesado de ésa manera es .. .un buen
nivel de recuerdo de tal ítem. Por lo tanto, habría una cierta circularidad en la noción
misma de profundidad o nivel de procesamiento que, desde el punto de vista teórico y
metodológico, resulta inaceptable.
104
Lecciones de Psicología Cognitiva
información. Este sistema unitario se suponía que intervenía tanto en el recuerdo de infor-
mación reciente como en la ejecución de tareas cognitivas complejas tales como el aprendi-
zaje, el razonamiento, la comprensión, etc. Sin embargo, apuntan Baddeley y Hitch (1974),
el rol del ACP como un sistema teórico de procesamiento o 'memoria de trabajo' no estaba
suficientemente probado en el plano empírico razón por la cual se abocaron a la tarea de
esclarecer cuál es exactamente el papel del ACP en la cognición y, con ello, coadyuvaron a
una reconceptalizar la propia naturaleza del ACP.
En sus investigaciones, Baddeley y Hitch (1974) partieron del supuesto, avalado por
el modelo modal, de que si el ACP es una memoria de capacidad limitada, no estaría en
condiciones de operar eficientemente como memoria de trabajo, por caso, cuando se le
impone una tarea adicional que absorba parte de su capacidad. En otros términos, cuan-
do el ACP deba actuar como memoria de trabajo y como estación de retención al mismo
tiempo, sería de esperar un cierto nivel de deterioro en su función operativa por cuanto
la tarea de retención absorbería parte de su limitada capacidad. Este estado de cosas se
esquematiza en la Figura 3.24.
Figura 3.24
El ACP como estructura de capacidad limitada
105
Humberto Fernández
reas requieren para su ejecución del concurso de un mismo sistema de capacidad limitada o,
lo que es lo mismo, estarían compitiendo por un mismo espacio de procesamiento. En caso
contrario, se tendría que suponer que ambas tareas, la primaria y la secundaria, se llevarían
a cabo en el seno de estructuras o aparatos de procesamiento diferentes.
Figura 3.25
El paradigma de doble tarea
En general, los hallazgos de Baddeley y Hitch (1974) sobre una amplia gama de tareas
primarias tales como razonamiento, comprensión, aprendizaje, etc. indican, aún cuando el
ACP trabaja con una carga de memoria cercana al límite de su capacidad —recuerdo serial de
6 dígitos-, el deterioro no es particularmente dramático como cabría esperar según el modelo
modal. De este patrón de resultados, se podría inferir que las tareas primaria y secundaria se
ejecutarían en el seno de espacios de procesamiento diferentes. Esto es equivalente a afirmar
que el ACP no podría válidamente considerarse como un almacén unitario tal como sostenía
el modelo modal. Pues bien, si este fuera el caso, ¿cuáles serían los componentes de este ACP
renovado bautizado por Baddeley y Hitch (1974) con el nombre de 'Memoria Operativa'?
En principio, el modelo de memoria operativa propuesto constaría de los siguientes
componentes:
a) El ejecutivo central. Sistema de naturaleza atencional cuya misión sería la de contro
lar el curso general del procesamiento informacional y supervisar el funcionamiento de
los restantes sistemas a él subordinados. Este sistema, en teoría, constituye el núcleo de la
memoria operativa.
b) El bucle o lazo articulatorio. Componente responsable de preservar información
basada en el lenguaje. El bucle tendría por misión almacenar información de tipo lingüís
tico. Esta información puede provenir de inputs externos como del interior del propio
sistema cognitivo.
106
Lecciones de Psicología Cognitiva
Figura 3.26
El Modelo de Memoria Operativa
107
Humberto Fernández
que, en el almacén fonológico, las huellas perduran en la medida en que sean objeto de un
proceso de repaso mental (o subvocal) por medio del sistema de control articulatorio.
A efectos de lograr una mejor comprensión del funcionamiento de este componente,
puede resultar conveniente apelar a un ejemplo como el siguiente: En el medio de una típica
charla de café, supóngase que yo me encuentro animadamente conversando con un amigo
sobre las virtudes y defectos del próximo rival de mi equipo de fútbol favorito. Para sortear
una controversia suscitada en el curso de la charla, decido leerle textualmente una párrafo
publicado en el diario del día al tiempo que, para ahondar en el asunto, traigo a colación una
serie de datos que recordaba haber leído la semana pasada en una revista de deportes. En
esta situación, conforme al modelo de Baddeley y Hitch (1974), en ése espacio de trabajo de
mi mente conocido como memoria operativa, las verbalÍ2aciones de mi amigo en el curso
de la charla accederían al almacén fonológico al tiempo que, el sistema de control articula-
torio efectuaría el repaso subvocal de sus dichos. El repaso trae aparejado el mantenimiento
de las huellas en el citado almacén y, en cierto modo, posibilita la continuidad de la charla.
Los datos leídos, al momento de la controversia, son convertidos por el sistema de control
articulatorio a un formato fonológico, las huellas mnémicas resultantes de este proceso de
codificación fonológica se derivan ai (ilmacén fonológico para su mantenimiento.
Finalmente, los datos recordados <vdesde el ALP) se activan temporalmente en el sistema
del lazo articulatorio manteniéndose allí en la medida en que sirvan a los propósitos del sis-
tema central de procesamiento cognitivo, el Ejecutivo Central, del cual el lazo es un sistema
subsidiario. Dicho sea de paso, la decisión de leerle el párrafo en el periódico para dirimir la
controversia, al igual que la recuperación de contenidos relevantes del ALP, cae, asimismo,
bajo la égida del ejecutivo central.
Esta caracterización teórica del lazo articulatorio encaja con un sinnúmero de resultados
experimentales. Entre éstos cabe destacar los siguientes:
a) Efecto similitud fonológica. En tareas de recuerdo (serial) inmediato, el porcentaje
de recuerdo varía en función del tipo de similitud que guardan entre sí las palabras de la
lista a recordar: palabras similares en sonido son más difíciles de recordar que palabras
semánticamente semejantes (Baddeley, 1966a; Conrad y Hull, 1964). Este 'efecto de simi
litud fonológica' abonaría la presunción de que los inputs lingüísticos se almacenarían en
una memoria temporal bajo un código de tipo fonológico: el peor recuerdo de los ítems
fonológicamente semejantes obedecería a la dificultad de discriminar entre huellas con
propiedades (acústicas) parecidas. En la Figura 3.27, se proporciona una representación
esquemática de este efecto.
b) Efecto de supresión articulatoria. La hipótesis de que el lazo articulatorio mantiene
los inputs lingüísticos mediante un proceso de repaso subvocal encontró apoyo empírico
en un estudio de Baddeley, Lewis y Vallar (1984). Estos investigadores hicieron que sus
sujetos, al momento de aprender una lista de palabras para su recuerdo posterior, pronun
ciaran palabras o sonidos sin relación con la tarea de aprendizaje (Vg, repetir 'el, el, el, ..."
o bien, 'bla, bla, bla, ...'). En teoría, el sistema de control articulatorio contribuye a man-
108
Lecciones de Psicología Cognitiva
tener las huellas en el almacén fonológico o bien, transforma el material (verbal) escrito a
un código de tipo fonológico. Precisamente, la tarea de repetir ítems irrelevantes durante
el aprendizaje previene el repaso del material relevante por lo que el recuerdo posterior de
dicho material se vería deteriorado. Este deterioro en el recuerdo, producto de la tarea de
supresión articulatoria, recibe precisamente el nombre de 'efecto de supresión articulatoria'
el cual, fue efectivamente puesto evidencia en el estudio antes citado. En la Figura 3.28 se
proporciona una representación esquemática de dicho efecto.
Figura 3.27
Amplitud de Memoria Operativa y Similitud Fonológica
Figura 3.28
Amplitud de Memoria Operativa y Supresión Articulatoria
109
Humberto. Fernández
c) Efecto de la longitud de las palabras. En teoría, el repaso de los inputs por parte del
sistema de control articulatorio es el factor determinante de su mantenimiento en el alma-
cén fonológico. Puesto que este proceso "implica, en cierto modo, pronunciar vocal o sub-
vocalmente un ítem de estudio, el tiempo que demanda dicho proceso va a depender, hasta
cierto punto, de la longitud de dicho ítem. Así, cabría esperar una cierta merma en el recuerdo
de palabras largas en comparación con palabras cortas. Este deterioro en el recuerdo en
función de la longitud de los ítems de estudio recibe el nombre de 'efecto de la longitud de
las palabras'. Dicho efecto fue efectivamente puesto en evidencia por Baddeley, Thomson y
Buchanan (1975) y avalaría, por las razones apuntadas, la hipótesis de un sistema de control
articulatorio que, como sub-componente del lazo articulatorio, sería responsable del man-
tenimiento de la información en la memoria operativa. Una representación esquemática de
este efecto se presenta en la Figura 3.29.
Figura 3.29
Amplitud de Memoria Operativa y Longitud de Palabras
Es de hacer notar que, además de estos datos de laboratorio, el concepto de lazo arti-
culatorio también ha recibido cierto apoyo en el ámbito neuropsicológico, observándose
casos de pacientes cuya ejecución mnemónica obedecería a un deterioro selectivo en alguno
de los componentes de este sub-sistema de la memoria operativa (Baddeley, 1990).
En lo atinente al rol que el lazo articulatorio tendría en el funcionamiento cognitivo
ordinario, podría decirse que, en tanto espacio mental de procesamiento informacional,
intervendría en el aprendizaje de la lectura, la comprensión del lenguaje, la adquisición de
vocabulario, entre otras áreas. Por caso, se ha comprobado (Baddeley, 1990) que los niños
con retrasos en la lectura o comprensión deficiente suelen tener una reducida amplitud de
memoria operativa.
110
Lecciones de Psicología Cognitiva
111
Humberto Fernández
112
Lecciones de Psicología Comitiva
113
Humberto Fernández
inputs hápticos, musicales, gustativos, etc. Atento a ello habría que considerar la posibilidad
de que en la mente existieran sistemas adiciónales de representación, almacenamiento y
manipulación de este tipo de información. Como bien plantean Torres, Mejías y Milán
(1999), por qué no pensar en una 'agenda odorífera' para el tratamiento de los olores. De
hecho, la evidencia más reciente, apoya la idea de la existencia de un subsistema, dentro la
memoria operativa, dedicado al mantenimiento temporal de la información olfatoria (An-
drade y Donalson, 2007). Y, en esta línea, ¿no podría ser posible acaso una agenda musical,
otra gustativa, y así siguiendo? En definitiva, conforme a esta línea de argumentación, un
modelo de memoria operativa más completo debería incluir más componentes de modo
de dar cabida al amplio espectro de inputs estimulares con los que la mente comercia en sus
interacciones cotidianas con el mundo. En los hechos, la cuestión de la composición última
de la memoria operativa es objeto de fuertes debates entre los investigadores del campo
(Baddeley, 2006; Baddeley, 2007; Repovs y Baddeley, 2006; Saito y Towse, 2007).
Por muchos años se creyó que quienes padecían de amnesia (anterógrada) eran incapa-
ces de registrar de un modo relativamente duradero información relativa a nuevas experien-
cias o eventos estimulares recientes. Esta visión de las cosas comenzó a cambiar tan pronto
como se vio que dichos sujetos, a pesar de no recordar la información estimular del caso,
114
Lecciones de Psicobgta Cognitiva
podían, sin embargo, operar con ella, con lo cual se ponía de manifiesto que tales sujetos
disponían de dicha información en su mente. Así, se vio que los amnésicos, al igual que los
normales, podían, entre otras tareas, identificar fácilmente -en breves presentaciones taqui-
toscópicas— las palabras pertenecientes a una lista expuesta con anterioridad (Warrington y
Weiskrantz, 1968, 1970) o bien, completar, con la 'primera palabra que venga a la mente',
una proporción similar de 'raíces' de palabras (por ejemplo, T)IN' por "DINOSAURIO")
con términos provenientes de una lista leída previamente (Graf, Squire y Mandler, 1984).
Esta facilitación en la ejecución de una tarea, a resultas de la exposición previa de material
relevante a ésta, ha llegado a conocerse en el ámbito de la investigación cognitiva de la me-
moria con el nombre genérico de ‘priming' (Schacter, 1987).
A pesar de que tanto amnésicos como normales vienen a exhibir niveles similares de
priming, los primeros no podían, a diferencia de los segundos, evocar o reconocer qué pa-
labras habían sido presentadas con anterioridad. El punto es que, como se desprende de la
actuación de los sujetos amnésicos, dicha facilitación no requiere para producirse de ningún
compromiso consciente por parte del sujeto, es decir, éste simplemente debe abocarse a
la tarea encomendada sin que sea necesario recuperar conscientemente material estimular
conexo a ella como, por ejemplo, las palabras previamente presentadas.
En las Figuras 3.30a y 3.30b se proporciona una representación esquemática del fenó-
meno de priming en tanto que, en la Figura 3.31, se efectúa un esbozo general de cuál es el
comportamiento típico de los sujetos amnésicos y normales en tareas que reflejan priming
y en tareas de recuerdo estándar como el reconocimiento o libre recuerdo. (Ambas tareas,
atento a sus peculiares características, habrán de clasificarse más adelante como pruebas
'indirectas' y 'directas' de memoria.)
Figura 3.30a
El Fenómeno del priming
115
Humberto Fernández
Figura 3.30b
El fenómeno del priming
Figura 3.31
Amnésicos y Normales: Priming versus Recordación
El hecho de que la exposición previa del material estimular relevante a una tarea dada
maximiza la probabilidad de éxito en dicha tarea, certifica que la memoria se encuentra in-
volucrada en el fenómeno del priming. Por lo tanto, cabría afirmar que, en la amnesia, ciertos
aspectos de la función mnémica se encontrarían preservados: después de todo, pareciera ser
que los amnésicos algo recuerdan. En el caso de estos sujetos, el daño neurológico -base del
síndrome de marras- garantizaría en cierto modo el carácter inconsciente de los procesos
mnémicos involucrados en la facilitación o priming. Luego, el priming en los amnésicos bien
podría considerarse que refleja la acción de una memoria inconsciente o implícita.
116
Lecciones de Psicología Cognitiva
En los sujetos normales, por el contrario, no hay ninguna garantía de que el priming
asuma ese carácter, esto es, la facilitación en la ejecución de una tarea dada puede ocurrir
junto con procesos voluntarios o espontáneos de recordación consciente o explícita del
material estimular crítico para la realización exitosa de tal tarea (cf. Richardson-Klavehn
y Bjork, 1988). De co-ocurrir dichos procesos, Apriming no podría considerarse como un
indicador válido de memoria inconsciente (en sujetos normales). De hecho, en la literatu-
ra se han desarrollado múltiples esquemas metodológicos tendientes a evaluar hasta qué
punto el priming observado en sujetos normales refleja o no procesos inconscientes de re-
cuerdo. Entre estos desarrollos cabe destacar, por su originalidad y rigor metodológico, el
así denominado 'procedimiento de la disociación de procesos' (Jacoby, 1991) y el enfoque
de la comparación de las sensibilidades relativas de las pruebas directas e indirectas de me-
moria (Merikle y Reingold, 1991). Los resultados de diversas investigaciones experimen-
tales realizadas en el marco de estos y otros paradigmas metodológicos, sugieren que, en
efecto, úpriming obtenido en sujetos normales tendría un fuerte componente inconsciente
(cf. Roediger y McDermott, 1993).
Una particularidad que presentan las tareas, en las cuales se pone en evidencia el fe-
nómeno del priming, es que las instrucciones dadas a efectos de ejecutar la tarea requerida
como, por ejemplo, la identificación perceptual, no hacen ninguna referencia explícita o
directa al material estimular conexo previamente presentado, por caso, a las palabras de
una lista de estudio antes expuesta. Empero, en las pruebas tradicionales de memoria tales
como por ejemplo, el reconocimiento, hay una referencia explícita (y directa) al material
estimular pasado. Por esta razón, en la literatura especializada, las tareas del primer tipo
se han categorizado como 'pruebas indirectas de memoria', en tanto que, las del segundo
tipo, han llegado a conocerse como 'pruebas directas de memoria' (Johnson y Hasher,
1987; Richardson-Klavehn y Bjork, 1988). Sobre la base de esta distinción y con miras a
despejar confusiones de tipo terminológico que a menudo se presentan en la literatura,
resulta particularmente útil diferenciar entre medidas o pruebas de memoria y las formas
o procesos de memoria hipotéticamente involucrados mientras se ejecutan dichas pruebas.
En este sentido, es lógicamente posible pensar que una cierta prueba de memoria, más allá
de su carácter directo o indirecto, bien puede llegar a involucrar -ya de modo exclusivo, ya
de modo predominante—, procesos conscientes o inconscientes de memoria. Y, además, en
el caso de involucrar algún tipo de compromiso consciente, éste bien puede asumir ya un
carácter espontáneo, ya un carácter deliberado.
En el primer caso, la información del pasado se habría de 're-experienciar' en el aquí y
ahora sin que el sujeto se proponga recuperar deliberadamente dichos contenidos y, en el
segundo caso, tales contenidos aparecerían en la conciencia a resultas de un proceso inten-
cionado de recuperación. En los Cuadros 3.6a y 3.6b, se compendian las distintas alterna-
tivas de recuerdo que son posibles en el marco de la ejecución de una prueba de memoria
ya directa, ya indirecta.
117
Humberto Fernández
Cuadro 3.6a
Pruebas de Memoria y Formas de Memoria
Formas de recuerdo posibles bajo instrucciones directas dé recuerdo (Ejemplo:
"Reconozca qué palabras pertenecen a la lista de estudio")
Cuadro 3.6b
Pruebas de Memoria y Formas de Memoria
118
Lecciones de Psicología Cognitiva
de un modo el rendimiento de los sujetos en, por caso, una prueba directa y, de un modo
diferente, dicho rendimiento en su correspondiente prueba indirecta. En la Figura 3.32,
se representa el concepto de disociación de memoria y las formas que puede asumir en
función de las pautas de influencia de una variable independiente dada sobre los niveles de
recuerdo directo e indirecto.
119
Humberto Fernández
que las disociaciones reflejan la acción de procesos cognitivos diferentes, que tendrían lugar
en el seno de una única estructura de memoria.
Desde un enfoque 'sistémico', se sostiene que habría ciertas regiones del cerebro res-
ponsables de la adquisición, procesarme) tto y recuperación de información estimular espe-
cífica y que, cuando estas zonas son alcanzadas por algún tipo de lesión, la memoria para
esta clase de información sufriría algún tipo de deterioro. Así, por ejemplo, los sujetos
amnésicos pueden alcanzar niveles normales de priming para la tarea de identificación per-
ceptual de palabras en virtud de que su 'sistema de representación perceptual', responsable
de preservar información relativa a las formas de los inputs estimulares, se encontraría pre-
servado. Asimismo, el fracaso de estos sujetos en la evocación o en el reconocimiento de
qué palabras fueron presentadas se interpreta en el sentido de que su 'sistema episódico',
responsable de preservar las propiedades temporo-espaciales de los inputs estimulares, se
encontraría deteriorado y, por lo tanto, tales sujetos se verían imposibilitados de especificar
qué información fue presentada en un tiempo y lugar determinados (cf. Ruiz Vargas, 1994;
Tulving, 1993; Tulving y Schacter, 1990). Este enfoque, en su lógica, cuadra bien con los
datos neuropsicológicos disponibles que revelan que lesiones en áreas específicas del cere-
bro comportan, efectivamente, un deterioro selectivo en áreas determinadas del funciona-
miento cognitivo. No obstante, llama la atención la falta de acuerdo entre los teóricos de
este enfoque respecto de cuántos y cuáles son, en definitiva, los sistemas de memoria con
los que contaría la mente. Al respecto y, a título de ejemplo, compárense las respectivas po-
siciones de Squire (1992) y Tulving (1992) en cuanto al número de sistemas o subsistemas
postulados: tres en el primer caso contra cinco en el segundo.
Desde un enfoque 'procesuaF, se supone que la memoria para la información pasada es
una función del grado de solapamiento existente entre las operaciones cognitivas desplega-
das al momento de la codificación de un cierto input estimular y aquellas que se ponen en
juego al momento de la recuperación de dicho input, esto es, cuando el sujeto se involucra en
una determinada tarea de recuerdo. Este enfoque, liderado por Roediger (1990), considera
que dichas operaciones cognitivas pueden clasificarse como predominantemente percep-
tuales o predominantemente conceptuales según si recaen sobre las características físicas, o
bien sobre los atributos conceptuales de los inputs estimulares. Desde esta perspectiva, una
disociación entre una prueba directa y una prueba indirecta no reflejaría necesariamente
la operación de sistemas de memoria diferentes antes bien, sería lógicamente posible que
dicha disociación pudiera ser la resultante de que ambas pruebas demandasen operaciones
cognitivas diferentes (perceptuales o conceptuales), que , eventualmente, se verían benefi-
ciadas o promovidas bajo determinadas condiciones de codificación de la información que
se pretende recuperar. En concreto, sería esperable que, bajo condiciones que promueven
distintos grados de procesamiento semántico del material estimular, al momento de su co-
dificación, no se produzcan disociaciones entre pruebas directas e indirectas de naturaleza
conceptual. Por el contrario, en estas circunstancias, sería esperable encontrar disociaciones
de memoria entre pruebas directas e indirectas que demanden operaciones cognitivas de di-
120
Lecciones de Psicología Cognitiva
ferente tenor como, por ejemplo, una prueba directa de tipo conceptual versus una prueba
indirecta de tipo perceptual. En los hedí* js, estas predicciones se verificaron en múltiples
investigaciones experimentales realzadas con sujetos normales (cf. Barry, 2007; Roediger,
1990; Roediger, Gold y Geraci (2002); Roediger y McDermott, 1993). En la Figura 3.33,
se proporciona una representación esquemática de las predicciones lógicamente derivables
del enfoque procesual de las disociaciones de memoria. La limitación fundamental que
padece este enfoque es que, si bien se ajusta perfectamente bien a los datos experimentales
provenientes de sujetos normales, no explica por qué razón los sujetos amnésicos observan
un nivel depriming semejante al de sujetos normales en pruebas indirectas ya conceptuales,
ya perceptuales y, sin embargo, en las correspondientes versiones directas, su nivel de des-
empeño es sustancialmente inferior al de los sujetos normales. En otros términos, desde el
enfoque procesual, a igualdad de otras condiciones, no es esperable una disociación entre
pruebas directas e indirectas que requieran de operaciones cognitivas de un mismo tenor
por lo que, la disociación amnésica como tal, no es fácilmente explicable en el marco del
enfoque procesual de memoria.
Figura 3.33
El enfoque procesual y sus predicciones
En definitiva, ¿cuántos son los sistemas de memoria?, ¿son varios o tan sólo uno en
cuyo seno tendrían lugar procesos diferentes? Es relativamente difícil efectuar una evalua-
ción comparativa de los enfoques sistémicos y procesuales por cuanto ambos se aplican a
cuerpos de evidencia bien diferenciados —datos neuropsicológicos versus datos experimen-
tales (provenientes de sujetos normales)—. Quizás, un mix de ambas teorías se adecuaría a la
complejidad de la evidencia disponible por cuanto, después de todo, los diferentes 'sistemas'
de memoria deberían de ejecutar una serie de 'procesos' característicamente diferentes.
121
Humberto Fernández
Uno de los primeros en llamar la atención respecto de la relación entre emoción y me-
moria fue Sigumund Freud (1915/2003) con su hipótesis de la represión. Según este autor,
en ocasiones, puede ocurrir que los recuerdos del pasado asociados con emociones negativas
no puedan recuperarse puesto que su acceso a la conciencia ocasionaría al sujeto "un dolor
psíquico intolerable" (Erdelyi, 1987, pág. 216). Así, tales recuerdos perturbadores verían
bloqueado su acceso a la conciencia siendo la represión el mecanismo psíquico que llevaría
a cabo dicho bloqueo. Luego, la represión actuaría en los hechos como un factor generador
de olvido. En la Figura 3.34 (cf. pág. 123) se proporciona una representación esquemática de
la hipótesis del olvido por represión.
Ahora bien, cabe preguntarse si la represión como tal puede erigirse en una causa ge-
neral de olvido o, lo que es lo mismo, si todo olvido obedece a la represión. La respuesta
a esta cuestión es un tanto problemática puesto que, como bien señala Baddeley (1999),
resulta muy difícil discriminar entre casos en los que el sujeto evita explorar áreas de me-
moria asociadas con emociones negativas y casos en los que el sujeto deviene amnésico
a resultas de la represión.
122
Limones de Psicología Cognitiva
Figura 3.35a
La hipótesis de la activación y el olvido
123
Humberto. Fernández
proceso de activación mayor que los ítems no-emocionales. Además, la propia hipótesis
de la activación tiene dificultades para explicar lo que parece ser una tendencia general de
la mente humana a tratar de olvidar —y no a recordar mejor con el paso del tiempo y la
consecuente consolidación de la huella- ba episodios desagradables de la vida. Al respecto,
algunos estudios de memoria autobiográfica (cf. Baddeley, 1999) ponen de manifiesto que
la tasa de recuerdo de acontecimientos desagradables es sustancialmente menor que la co-
rrespondiente a los episodios agradables.
En la Figura 3.35a se esquematiza el concepto de activación y su rol en el olvido en
tanto que, en las Figuras 3.35b y 3.36, se proporciona una representación esquemática de
las predicciones de recuerdo para estímulos emocionales y no emocionales derivadas de la
hipótesis de la activación.
Figura 3,35a
La hipótesis de la. activación y el olvido
Figura 3.35b
La hipótesis de la activación y el olvido
124
Lecciones de Psicología Cognitiva
Figura. 3.36
Activación, emoción y recuerdo
En conclusión, no cabe duda de que los estados emocionales juegan un rol importante
en los procesos de olvido: los episodios asociados con emociones negativas se olvidan más
fácilmente que los episodios 'felices' de nuestras vidas. Ahora bien, esto puede ocurrir ya
porque los primeros sufren un proceso de represión, ya porque las huellas mnémicas de los
segundos se 'refrescan' con mayor asiduidad al re-evocarlos de una manera más continuada
o, quizás, una combinación de ambas o por alguna otra razón diferente a dilucidar.
En el ámbito clínico es un hecho bien conocido que los pacientes con depresión tie-
nen una tendencia a percibirse (i) a sí mismos, (ii) al mundo y (iii) al futuro con un sentido
marcadamente negativo —esta es, la famosa 'tríada cognitiva' en la cual se basó Beck para
desarrollar su terapia cognitiva de la depresión (Beck, Shaw, Bush, y Emery (1979). Además,
estos pacientes se caracterizan por una tendencia, también marcada, a recordar los aconte-
cimientos negativos de sus vidas o aspectos negativos de episodios pasados.
Al respecto, Lloyd y Lishman (1975), en un estudio clásico, observaron que sujetos
depresivos puestos a la tarea de generar recuerdos autobiográficos ante una lista de pala-
bras neutrales, tendían a recordar más experiencias desagradables o tristes que experiencias
agradables y, además, cuanto más profunda era su depresión, más rápidamente recordaban
los acontecimientos desagradables. Este sesgo en el recuerdo hacia lo negativo puede in-
terpretarse como reflejando un efecto de dependencia del estado (emocional) o bien, un
efecto de congruencia con el estado (emocional).
En el primer caso, se supone que lo que sea que se aprenda o 'experiencie' en un estado
emocional dado, se recuerda mejor cuando se reinstaura el estado emocional original inde-
pendientemente de la valencia afectiva del material estimular aprendido o de la experiencia
vivida. Vale decir, a mayor concordancia entre el estado emocional presente al momento de
125
Humberto Fernández
Figura 3.37a
El efecto de dependencia de la emoción
Figura 3.37b
Efecto de dependencia de la emoción
126
lecciones de Psicología Cognitiva
Figura 3.38
Efecto de congruencia de la emoción
En definitiva, en los pacientes depresivos, ¿la propensión hacia los recuerdos negativos
es un fenómeno de dependencia del estado o de congruencia con el estado? En un intento
de echar luz sobre esta cuestión, en diversas investigaciones (cf. Baddeley, 1999; Beato,
1998) se ha procurado manipular el estado de ánimo de sujetos normales ya mediante in-
ducción hipnótica, drogas, empleo de música, etc. con el propósito de evaluar si se produce
o no el efecto de dependencia. Los resultados distan de ser completamente consistentes
siendo positivos en algunos casos y negativos en otros. Es claro que la falta de consistencia
puede producirse por varias razones, entre éstas: que el efecto no existe como tal, es un
artefacto experimental o bien, que el efecto es extremadamente acotado en cuanto a las
condiciones de ocurrencia. Un poco de reflexión en torno de este efecto lleva a la siguiente
conclusión: el denominado efecto de dependencia parecería suponer que, indefectiblemen-
te, cuando estamos en un momento o período de tristeza, sólo nos suceden cosas tristes
puesto que, al restaurarse el estado de tristeza sólo recordamos cosas tristes. La cuestión es
hasta qué punto es sostenible este supuesto implícito. Acaso, ¿no pueden ocurrimos cosas
alegres aún cuando atravesemos un momento de tristeza? Si admitimos que esto puede
ocurrir, ¿cómo es que prototípicamente no afloran estos recuerdos alegres cuando se res-
taura el estado anímico durante el cual tales acontecimientos alegres acaecieron? Quizás
no afloran, como cabría suponer según la hipótesis de la dependencia, porque el recordar
bien podría ser, básicamente, una función cognitiva congruente con el estado. Esto es lo
mismo que decir que la propensión a los recuerdos negativos cuando estamos tristes podría
reflejaría más bien el fenómeno de la congruencia de la memoria con el estado (de ánimo)
y no, la dependencia de la memoria respecto del estado emocional. En esta vena, resulta
extremadamente sugerente el caso que trae a colación Baddeley (1999) de una paciente
depresiva y la forma como recuerda episodios de su vida personal. Cuando esta paciente se
encontraba deprimida tendía a recordar los aspectos negativos de un determinado suceso
127
Humberto Fernández
empero, cuando se encontraba un poco mejor de ánimo, resaltaba los aspectos positivos de
ese mismo suceso. Es claro que el suceso en cuestión ocurrido allá y entonces es el mismo
y, muy probablemente, el estado emocional durante el cual aquél ocurrió no haya cambiado
durante el transcurso de dicho acontecimiento y, sin embargo, el paciente rescata sus aspec-
tos positivos o negativos en función de su estado emocional actual.
Ahora bien, si el caso es que, como apuntan las observaciones precedentes, la recupe-
ración de episodios pasados pareciera ser sensible a las vicisitudes de los estados de ánimo
actualmente experimentados, la médula del asunto es: ¿cuál es la razón, esto es, el meca-
nismo o el proceso por el cual las emociones impactan en la memoria bajo la forma de un
sesgo en el recuerdo congruente con el estado emocional presente? Desgraciadamente, la
respuesta a esta cuestión dista de ser completamente clara requiriendo su elucidación más
investigación empírica y, por cierto, el desarrollo de modelos teóricos bien articulados.
En este sentido, una posibilidad sugerida por Bower (1981) es que el efecto de con-
gruencia bien podría reflejar un sesgo en la codificación del material estimular. La idea es
que los sujetos tristes tenderían a involucrarse en un procesamiento más elaborado cuando
los hechos o estímulos poseen una tonalidad afectiva de corte negativo y, precisamente,
sería este procesamiento profundo ' responsable de que se recuerden mejor los hechos
tristes. En punto a probar esta hipótesis del sesgo en la codificación, Bower (1981) indujo
hipnóticamente a sus sujetos experimentales a sentirse tristes o alegres. Una vez inducidos a
tal o cual estado emocional, les leyó historias referidas a dos personajes: uno de ellos llevaba
una vida triste y llena de problemas mientras que el otro era plenamente feliz. Al finalizar
las historias, se les preguntó a los sujetos con cuál de los personajes se identificaron más.
Los sujetos inducidos a sentirse tristes tendieron a identificarse más con el personaje triste,
mientras que lo opuesto sucedía con los sujetos inducidos a sentirse alegres. Terminada
la experiencia, regresaron al día siguiente siendo invitados a recordar lo más que podían
respecto de las historias contadas. Se encontró que los sujetos que habían sido inducidos a
sentirse tristes, recordaron mucho mejor los episodios tristes que los alegres y que, por su
parte, los sujetos que habían sido inducidos a sentirse alegres, recordaron igual cantidad de
episodios tristes y alegres. Debido a que el estado emocional imperante, al momento del
recuerdo, era presumiblemente neutral, el sesgo en el recuerdo de los sujetos inducidos a
sentirse tristes por cierto que no puede explicarse en términos del efecto de dependencia
del estado, empero, bien podría reflejar un sesgo en la codificación inicial de los aconteci-
mientos como sostiene la hipótesis de Bower (1981). Es de hacer notar que esta hipótesis
falla en el caso de los sujetos inducidos a sentirse alegres por cuanto éstos no manifiestan
ningún sesgo en el recuerdo hacia los acontecimientos alegres. En todo caso, el concepto
de sesgo en la codificación debería expandirse de modo de explicar el efecto asimétrico del
estado de ánimo sobre el procesamiento de la información estimular: si los sujetos tristes
codifican mejor los sucesos tristes, ¿por qué los sujetos alegres no procesan más ricamente
los sucesos alegres?
128
Lecciones de Psicología Cognitiva
En virtud de las consideraciones precedentes, parece claro que una explicación acabada
de las relaciones entre emoción y memoria requiere del desarrollo de modelos teóricos
sólidos que expliciten adecuadamente los mecanismos o procesos a través de los cuales la
emoción incide sobre la memoria. Estos modelos, desafortunadamente, no parecen abun-
dar en la literatura pertinente (cf. Baddeley, 1999; Beato, 1998; Ruiz Vargas, 1994). En este
sentido, los modelos propuestos adolecen, de un modo u otro, de limitaciones explicativas.
Al sólo efecto de ejemplificar, considérense las teorías siguientes:
a) La teoría de las redes asociativas de Bower (1981) conceptualiza la emoción en térmi
nos de nodos en la memoria semántica pero, teniendo en cuenta que un nodo representa
una pieza conceptual que retiene, quizás en un formato proposicional, el significado de los
eventos estimulares, cabe formularse la siguiente pregunta: la emoción ¿puede asimilarse a
un nodo semántico?
b) La teoría de esquemas (cf. Ruiz Vargas, 1994), apela al concepto de que las personas
con un esquema predominantemente negativo (de sí mismas) tienden codificar mejor y, por
lo tanto, a recuperar mejor los aspectos negativos de la información estimular. Ciertamente,
esta teoría parece más descriptiva que explicativa, en tanto que, sólo afirma que las personas
depresivas, por caso, tienen un esquema depresivo que los lleva a percibir y a recordar más
los episodios negativos de sus vidas. ¿Cuál es el proceso psíquico por el cual el esquema
lleva a tal sesgo en el procesamiento de la información estimular?
c) La teoría de la asignación de recursos (cf. Ruiz Vargas, 1994), por un lado, asume que
la atención es un recurso cognitivo limitado y necesario para la ejecución de tareas diversas
y, por el otro, que los sujetos en estados emocionales negativos tienden a consumir estos
recursos en el procesamiento de sus recurrentes ideas y pensamientos negativos con lo
que, este consumo extra de recursos, viene a menguar la capacidad de procesamiento del
sujeto y, por lo tanto, su nivel de desempeño general. El problema que presenta esta teoría
es, como bien señala Ruiz Vargas (1994), la falta de precisión respecto a los mecanismos
concretos a través de los cuales la emoción viene a modular el procesamiento informacio-
nal. En concreto, esta teoría debería responder a la siguiente cuestión crítica: ¿cómo es que
la emoción afecta los procesos de memoria? o, lo que es lo mismo, ¿cuál es el mecanismo
a través del cual la emoción regula la asignación de recursos atencionales del sistema cog
nitivo humano?
En suma, no basta con reconocer la importancia de la emoción como un factor modu-
lador del procesamiento cognitivo, se requiere de una teoría bien articulada que dé cuenta
de los mecanismos o procesos psíquicos mediante los cuales se produciría la modulación
de marras.
129
Humberto Fernández
130
IV. El pensamiento y sus facetas
El pensamiento es, desde luego, una de las funciones más complejas de las que lleva
a cabo la mente. En su misma esencia, puede entenderse como una actividad mental que
involucra la manipulación interna de información. Esto significa que los elementos impli-
cados en el pensamiento son objetos mentales (símbolos o representaciones) por lo que,
como bien lo señalan García Madruga y Moreno Ríos (1998), el pensamiento supone una
capacidad más básica de la mente: la de construir representaciones internas del mundo.
Son múltiples y variadas las actividades que, de una u otra forma, implican pensamien-
to, por esta razón, una clasificación comprehensiva de este tipo de procesos, resulta en
extremo difícil de lograr. Sin embargo, en aras de una caracterización general, puede clasi-
ficarse esta compleja actividad en función de si ésta persigue o no una meta determinada
(cf. Johnson-Laird, 1990). Sobre la base de este criterio se pueden distinguir dos grandes
tipos de pensamiento. Estos son: el pensamiento como una mera actividad asociativa de la
mente y el pensamiento como una actividad propositiva de la mente. El primero, consiste,
básicamente en un fluir asistemático de ideas que, como se recordará, William James (1890/
1989) bautizara con el nombre de 'corriente de conciencia' y, el segundo, por el contrario,
en una concatenación no azarosa de ideas que, cual vectores en un campo de fuerzas, vie-
nen a exhibir una dirección definida hacia un objetivo específico. Un ejemplo característico
del primero de los tipos de pensamiento, lo constituyen los procesos de fantasía y el en-
sueño diurno. Por su parte, como ejemplo del segundo de los tipos de pensamiento, cabe
consignar los procesos de razonamiento y la imaginación creadora.
Por lejos, el interés de los psicólogos del pensamiento se concentró en el segundo de los
tipos de pensamiento que, a su vez, siguiendo una antigua clasificación de Max Wertheimer
(1945), el fundador de la Escuela de la Gestalt, pueden llegar a clasificarse —en virtud de la
naturaleza del proceso de pensamiento involucrado— en actividades de tipo reproductivo o
bien, productivo.
En la óptica de este autor, el pensamiento reproductivo se caracteriza, básicamente, por
la aplicación casi mecánica de conocimientos o procedimientos ya adquiridos a los fines de
resolver un problema nuevo. Vale decir, frente a un cierto problema, el sujeto aplica directa-
mente una rutina de procedimientos ya aprendidos. Un ejemplo de este tipo de pensamien-
Humberto Fernández
to sería aplicar una técnica estándar de cirugía para el paciente recién ingresado a la guardia.
Por el contrario, el pensamiento productivo intenta descubrir la estructura de relaciones
que subyace en los elementos de un problema para, al reorganizarlos, forjar nuevos proce-
dimientos de solución o, por caso, generar nuevos conocimientos o crear productos. Un
ejemplo, en el que se pone en juego el pensamiento productivo, lo constituiría la generación
de una hipótesis explicativa de por qué un paciente desarrolló tal o cual sintomatología.
Por razones obvias -es teóricamente mucho más interesante-, los psicólogos del pen-
samiento tradicionalmente se han concentrado en el estudio del pensamiento productivo
en sus diversas instancias o manifestaciones. Es así, como éstos se dedicaron por años a
explorar la forma en que la mente razona, resuelve problemas o toma decisiones.
En suma, para concluir con estas palabras introductorias, puede decirse que el pensa-
miento es una actividad cognitiva compleja, que puede expresarse bajo dos grandes moda-
lidades. En vena asociativa, como una concatenación de ideas sin un rumbo definido. En
vena propositiva, como un entramado de procesos y representaciones orientados a un fin
específico. El pensamiento, cual actividad propositivamente orientada, bien puede adoptar
un formato de tipo reproductivo, como aplicación de rutinas aprendidas o bien, producti-
vo, como generador de estrategias c1 . olucióñ, conocimientos o productos.
132
Lecciones de Psicología Cognitiva
133
Humberto. Fernández
Ana y Matías, en su momento, se prepararon en dicho instituto y hoy están haciendo una
magnífica carrera. Verónica se está preparando en DocMed desde principios de año. Luego,
es de esperar, que apruebe el examen de ingreso sin problemas". Esta conclusión es mera-
mente probable: aún siendo cierto que todos los que se prepararon en DocMed aprobaron
el ingreso a Medicina, bien puede ocurrir que Verónica desapruebe con lo que la conclusión
putativa quedaría refutada.
En línea con la distinción precedentemente apuntada, en el ámbito de la Psicología, las
investigaciones sobre el razonamiento suelen encarar, las más de las veces en forma sepa-
rada, el estudio de los procesos deductivos y no-deductivos de razonamiento.
134
Lecciones de Psicología Cognitiva
Woodworth y Sells (1935) presentaron a sus sujetos silogismos abstractos, esto es,
silogismos en los que las clases de entidades que se ponen en relación permanecen sin
especificar como, por ejemplo, 'Todos los X son Y'. Los autores observaron que sus su-
jetos experimentales, puestos a la tarea de evaluar la corrección del argumento silogístico,
tendían a aceptar como 'verdaderas', conclusiones erróneas, es decir, no apropiadas des-
de el punto de vista lógico (para el conjunto dado de premisas). Así, por ejemplo, cuando
les era presentado un par de premisas de un mismo tipo como, por ejemplo, 'Todos los X
son Z' y 'Todos los Y son Z', los sujetos tendían aceptar como correctas las conclusiones
consistentes con dicha tipología vale decir, en este caso, la conclusión universal afirma-
tiva 'Todos los X son Y'. Claramente esta conclusión, para este conjunto de premisas,
es incorrecta por cuanto bien puede ser el caso que haya individuos que siendo *X' y,
también 'Z', no sean en absoluto *Y*.
En punto a explicar la razón por la cual se producen estos errores sistemáticos en
el razonamiento silogístico, Woodworth y Sells propusieron la "hipótesis de la atmósfera'
según la cual, las premisas de un silogismo atento al modo en que se expresan (afirmativo
o negativo, universal o particular) generan en el sujeto una impresión subjetiva de 'afirma-
tividad' o 'negatividad' o de 'universalidad' o 'particulararidad', que le lleva a aceptar una
conclusión consistente con este estado subjetivo. Así, se sostiene que las proposiciones
tipo A o E generan una 'atmósfera' 'todo-sí' o 'todo no' y, las de tipo I u O, vienen a pro-
135
Humberto Fernández
ducir una atmósfera 'algunos sí' o 'algunos no'. Desde esta perspectiva, es esta atmósfera,
en tanto estado mental interno, la que va a otorgar un 'sentido de validez' a cierto tipo de
conclusiones llevando al sujeto a aceptarlas como 'verdaderas' cuando, en realidad, pueden
no ser lógicamente correctas. Además de la atmósfera, estos investigadores postularon que
las respuestas de los sujetos están, asimismo, determinadas por lo que llamaron 'el principio
de la cautela' según el cual, los sujetos tienden a aceptar conclusiones débiles y precavidas
en lugar de conclusiones fuertes. Así, los sujetos, guiados por este principio, aceptarían más
fácilmente conclusiones particulares en lugar de conclusiones universales, o conclusiones
negativas en lugar de conclusiones afirmativas. En la Figura 4.1 se proporciona una visión
esquemática de la hipótesis de la atmósfera.
Figura 4,1
El razonamiento como procesó no-lógico: el efecto atmósfera
136
Lecciones de Psicología Cognitiva
137
Humberto Fernández
Figura 4.2 se ilustra, con un ejemplo, el decurso que desde la perspectiva de esta teoría,
tendría el proceso de razonamiento.
Figura 4.2
El razonamiento como aplicación de reglas lógicas: Etapas
138
Lecciones de Psicología Cognitiva
por ejemplo, una saturación momentánea de las capacidades de memoria, una merma en
la disponibilidad de los recursos atencionales del sistema cognitivo, fatiga ocasional, etc.
Es claro que este intento de salvar la competencia lógica invocando factores contingentes
que impiden, eventualmente, una actuación lógica hace que la doctrina de la lógica mental
se convierta en una hipótesis completamente 'autoinmune' (cf. de Vega, 1984). En efecto,
si es el caso que los sujetos razonan correctamente, se dirá que ello es esperable habida
cuenta de su competencia lógica intrínseca. Empero, si fracasan en la consecución de un
razonamiento correcto, se dirá que la acción de factores contingentes del tipo de los antes
nombrados impedirían una actuación lógica impecable. En cualquier caso, la doctrina no
puede ser refutada y, ello, ciertamente, va en desmedro de su aceptabilidad como teoría
científica del razonamiento humano.
En segundo lugar, una forma alternativa de salvar la doctrina de la lógica mental
sin apelar al tándem competencia-actuación, consiste en postular que los 'errores' en el
razonamiento pueden no ser tales si se toma en consideración cuáles son las premisas
'reales' de las que el sujeto parte en su razonamiento. Vale decir, para poder sancionar si
una conclusión dada es o no errónea, es absolutamente necesario conocer las premisas de
partida del sujeto. Así, puede ser el caso que éste interprete las premisas dadas de un modo
diferente al que el experimentador pretende o bien, que agregue premisas suplementarias
a las efectivamente dadas por el experimentador. Luego, se arguye, la conclusión dada por
el sujeto bien podría ser lógicamente correcta bajo esta interpretación idiosincrásica de
las premisas por lo que, obviamente, no habría error en el razonamiento. Esta idea fue
originalmente propuesta por Chapman y Chapman (1959), en el contexto del razonamiento
silogístico, bajo el 'principio de aceptación de la conversa'. Según estos autores, es posible
que muchos de los sujetos de Woodworth y Sells (1935) hayan interpretado erróneamente las
proposiciones tipo A (Todo X es Y') y tipo O ('Algún X no es Y5) como si sus respectivas
conversas —esto es, para el caso de una proposición tipo A: Todo Y es X' y, para el caso
de una proposición tipo O ('Algún Y no es X") fueran también verdaderas. Es claro que la
conversión, para este tipo de proposiciones, no es una operación lógicamente aceptable. En
efecto, decir 'todos los hombres son mortales' no es, en absoluto, equivalente a decir 'todos
los mortales son hombres'. Si fuera que los sujetos, en al menos algunos de los silogismos
empleados por Woodworth y Sells, acometieran una conversión ilícita, las conclusiones por
ellos alcanzadas, en lugar de derivarse por atmósfera, bien podrían ser el resultado de un
razonamiento lógico, aunque basado en una interpretación errónea de las premisas. Esta
idea fue luego extendida por Henle (1962) de modo de incluir cualquier representación
personalizada que el sujeto pudiera hacer de las premisas y, asimismo, sirvió de inspiración
para una trabajo muy conocido de Ceraso y Provitera (1971) quienes, mediante instruccio-
nes especiales, controlaron la forma en que el sujeto interpretaba las premisas silogísticas
logrando con ello una alta tasa de respuestas correctas.
En tercer lugar, otra vía para explicar la presencia de errores en el razonamiento con-
siste en apelar a la idea de que, en realidad, éstos pueden producirse por el mero hecho de
139
Humberto Fernández
que el sujeto 'fracasa en aceptar la tarea lógica' (Henle, 1962) lo que significa que, en lugar
de analizar la lógica de un argumento, el sujeto simplemente acepta una conclusión por el
mero hecho de estar de acuerdo con ella o de ser empíricamente verdadera. Va de suyo
que, esta forma de explicar el error, asume que éste se produce, justamente, por ausencia de
razonamiento lógico y no como un producto de un razonamiento lógicamente defectuoso,
el cual es impensable para esta visión logicista del pensamiento.
Más allá de lo acertado (o desacertado) que pudieran parecer estos argumentos des-
tinados a explicar el error en el razonamiento, la doctrina de la lógica mental tiene, to-
davía, un punto de extrema vulnerabilidad: el problema conocido como 'el efecto del
contenido'. Como debe haber quedado claro, la doctrina de la lógica mental supone que
el razonamiento es esencialmente un proceso libré de contenido consistente en la apli-
cación de reglas abstractas de inferencia. El punto es que una gran cantidad de eviden-
cia psicológica apunta en la dirección contraria a esta presunción (Griggs y Cox, 1982;
Johnson-Laird, Legrenzi y Legrenzi, 1972; Wason, 1968). En concreto, en problemas de
idéntica estructura lógica, la actuación de los sujetos mejora o no en función de su con-
tenido. Así, por ejemplo, los materiales realistas suelen facilitar la ejecución de los sujetos
y, los materiales abstractos, por el contrario, entorpecer el rendimiento. Estos hallazgos
cuestionan la idea misma de la existencia de reglas sintácticas de inferencia que, por
definición, son indiferentes al contenido.
En síntesis, la doctrina de la lógica mental proporciona un cuadro del proceso de ra-
zonamiento extremadamente idealizado. En principio, no admite la posibilidad de yerros
en el razonamiento, esto es, asume que el proceso es inherentemente lógico por lo que,
¿puede haber acaso algún error? Además, no da cabida a la idea de que el contenido puede
afectar el proceso de razonamiento, esto es, asume que el proceso es característicamente
sintáctico por lo que, ¿el tipo de contenido puede acaso importar? Ambas cuestiones son,
sin duda, críticas a la hora de ponderar la plausibüidad psicológica de esta doctrina.
En punto a lograr una comprensión cabal de los aportes de Peter Wason, una figura
prominente de la Psicología del Pensamiento Contemporánea, es menester analizar en de-
talle un famosísimo problema con el cual él iniciara, en la década del sesenta, sus reflexio-
nes teóricas en torno a la naturaleza del razonamiento. El problema de marras, conocido
con el nombre de 'el problema de las cuatro tarjetas' o 'la tarea de selección', tiene dos
versiones: una abstracta, la primitiva que sirvió de puntapié inicial para su trabajo teórico
(Wason, 1968) y, otra, concreta que sirvió para poner en evidencia los efectos del conteni-
do en el razonamiento (Johnson-Laird et al., 1972; Griggs y Cox, 1982; entre otros).
140
Lecciones de Psicología Cognitiva
Esta versión consiste en presentarle al sujeto cuatro tarjetas que tienen, en un lado,
una letra y, en el otro, un número. Las tarjetas de marras tienen, en su lado visible, las letras
'E' y T)' y los números '4' y '7'. Siendo que el sujeto sólo puede ver una de las caras, se le
presenta la siguiente regla: "Si hay una E en un lado, entonces hay un 2 en el otro".
La tarea del sujeto es decidir qué tarjetas debería dar vuelta para determinar si la regla
es verdadera o falsa.
En el ámbito de una proposición condicional "Si p, entonces q", cada una de las
tarjetas presentadas asumiría un rol lógico definido. Así, por un lado, se tiene que la 'E'
correspondería al antecedente de un enunciado condicional, o sea 'p'; la '2', asumiría el
rol de consecuente, o sea, 'q'. Por otro lado, los casos restantes, '~p' o negación del an-
tecedente y, '~q' o negación del consecuente estarían representados por las tarjetas 'D'
y'7', respectivamente.
A los efectos de solucionar el problema, si se procediera ajustándose a los dictados de
la lógica, debería seguirse uno de estos dos caminos:
a) Si la regla se llegara a interpretar como una proposición condicional —'Si p, entonces
q'- se tendrían que seleccionar sólo dos tarjetas: la 'E' y la '7'.
b) Si la regla se llegara a interpretar como una proposición bicondicional -'p si y sólo si
q'-, las cuatro tarjetas deberían ser seleccionadas.
Los resultados obtenidos por Wason (1968) indican que ni lo uno ni lo otro es el caso.
Los sujetos tienden a seleccionar mayoritariamente la tarjeta 'E' o bien, la 'E' y la '2' y,
en menor medida, la 'E', la '2' y la '7'. Muy pocos se inclinan por la combinación 'E' y '7.
En definitiva, el patrón de respuestas de los sujetos dista de ser el correcto y, ello, por las
siguientes razones.
En primer lugar, si la regla se interpretara como un enunciado condicional, la selec-
ción ideal sería la 'E' y la '7'. ¿Por qué razón? La tarjeta 'E' debe elegirse pues si llegara
a tener un 2 en su otra cara verificaría la regla pero, si llegara a tener un 7, convertiría a
la regla en falsa. Del mismo modo, la tarjeta '7' debe elegirse pues, si ésta tuviera una 'E'
en su otra cara, automáticamente convertiría a la regla en falsa. A los fines de demostrar
que la regla es definitivamente verdadera o falsa, sería por completo irrelevante el caso
en el cual, en el reverso de la tarjeta '7', se encontrara la letra T)': en efecto, regla sólo se
expide acerca de lo que puede encontrarse del otro lado de la tarjeta que tiene la letra 'E'
en una de sus caras y no afirma nada acerca de lo que puede haber detrás de una 'D\ Por
esta misma razón, seleccionar la tarjeta 'D' es lógicamente inútil. La tarjeta '2' solamente
verifica la regla en el caso de que hubiera una 'E' en su reverso, pero no permite falsar
la regla en cualquier otro caso. De hecho, si en su reverso hubiera una 'D' no podría afir-
marse taxativamente la verdad o falsedad de la regla.
141
Humberto Fernández
Figura 4.3
El razonamiento como proceso ilógico y sesgado
Lecciones de Psicología Cognitiva
Esta aproximación explicativa fue desarrollada por Evans y Lynch (1973). Estos autores
presentaron a sus sujetos experimentales distintas versiones de la regla original de Wason
y, manipulando sistemáticamente la presencia de componentes negativos, observaron que
el patrón típico de respuesta de los sujetos no era consistente con la hipótesis del sesgo
confirmatorio. En concreto, se vio que los sujetos tendían a seleccionar aquellas tarjetas que
eran mencionadas explícitamente en el enunciado de la regla, las cuales, por otro lado, no
necesariamente van a llevar a la confirmación de dicha regla.
143
Humberto Fernández
A los fines de precisar esta hipótesis, sea, por caso, el siguiente ejemplo de regla man-
teniendo el mismo conjunto de alternativas (E', T)', '2' y '7'): "Si hay una E en un lado,
entonces no hay un 2 en el otro".
¿Cuál sería el modelo (preferido) de respuesta de los sujetos? Bien, por un lado, la
hipótesis del sesgo confirmatorio predice que los sujetos tenderían a seleccionar las tarjetas
'E' y '7'. Esta elección es incorrecta por cuanto no permite afirmar taxativamente que el
enunciado es verdadero o falso. Sin embargo, en este caso, los autores encontraron que los
sujetos tendían a seleccionar las tarjetas 'E' y '2' que, bajo la regla dada, es la combinación
correcta que puede falsar el enunciado en cuestión. Sobre la base de este tipo de resulta-
dos, es que los autores argumentaron que la pobre actuación de los sujetos en la versión
abstracta (estándar) del problema de Wason es producto de una tendencia operacional no-
lógica de la mente: el sesgo de emparejamiento. Guiados por este principio no-lógico, los
sujetos enfrentados a la tarea de Wason miran los ítems explícitamente mencionados en la
regla y eligen las tarjetas que se 'emparejan' con esos ítems. Según cómo se enuncie la regla,
las tarjetas 'emparejadas' constituyen o no la solución "correcta" a la tarea planteada.
En síntesis, son varias las interpretaciones teóricas que se han formulado a propósito
de explicar el patrón típico de respuestas observado en la versión abstracta de la tarea de
Wason y sus modificaciones. Aquí se han rescatado sólo algunas de las propuestas. El pa-
norama teórico se completa con otras interpretaciones un poco más complejas empero, en
el momento actual, no hay una sola interpretación que explique comprehensivamente todo
el espectro de resultados obtenidos.
¿Qué ocurre cuando las reglas se presentan con este formato? En general, a diferencia
de lo que sucede cuando la regla se expresa en términos abstractos, los sujetos tienden
a seleccionar la combinación correcta de tarjetas. Esto es, se produce lo que se conoce
144
Lecciones de Psicología Cognitiva
Según esta hipótesis, la facilitación que se observa cuando la regla adopta un conteni-
do familiar o 'realista' para el sujeto, tal el caso de la regla postal aludida en el ejemplo a,
se produce debido que el sujeto posee un conocimiento o experiencia específica respecto
de la situación descripta en la regla y, ese conocimiento al recuperarse de la memoria de
largo plazo, permite al sujeto resolver exitosamente el problema que tiene frente a sí.
En otros términos, esta hipótesis postula que el contra-ejemplo de la regla en cuestión
se recupera directamente de la memoria, y es esta recuperación lo que permite al sujeto
resolver el problema sin razonar en absoluto.
En el caso de la regla postal que, al momento de efectuarse el experimento original
por Johnson-Laird et al. (1972) efectivamente se encontraba vigente, se podría argumen-
tar, desde esta perspectiva teórica, que los sujetos, por propia experiencia, conocían el
hecho de que los sobres cerrados con un estampillado menor a f 1.00 no podían ser en-
viados por lo que, fácilmente, podían determinar en qué circunstancias la regla se falsaba
con sólo apelar a su memoria.
Si el tener experiencia directa con la regla es una condición necesaria para que se pro-
duzca la facilitación, entonces es de esperar que ésta no ocurra cuando los sujetos care-
cen de dicha experiencia previa. Esta predicción no se verificó en el conocido problema
de D'Andrade (presentado en Rumelhart, 1980) en el cual, a los sujetos experimentales
se les pidió que asumieran el rol de gerentes de una tienda y que, como tales, debían
chequear el cumplimiento de una norma interna que estipulaba que si una compra dada
excedía un cierto monto, debía ser autorizada por el director de departamento (véase el
ejemplo b). Es claro que los sujetos carecían de la experiencia directa con la norma en
cuestión puesto que, ésta era una regla inventada y, sin embargo, seleccionaron la com-
binación correcta de tarjetas o sea, se produjo el efecto de facilitación. Estos resultados
y otros similares llevaron a refutar la tesis de que es la recuperación de contra-ejemplos
desde la memoria lo que explica la facilitación. Por lo tanto, si bien es harto plausible que
la memoria juegue algún rol en la ejecución de la tarea de Wason y, en rigor, en cualquier
proceso de resolución de problemas, no es la transferencia casi mecánica de ciertos con-
tenidos relevantes desde la memoria de largo plazo a la situación experimental, la vía a
través de la cual se produce la participación de la memoria. La siguiente aproximación
teórica sugiere otra forma de intervención de esta importante estructura de la mente en
el proceso de razonamiento.
145
Humberto Fernández
Wason (1983) sugiere que la información recuperada desde la memoria puede llegar a
facilitar la realización de procesos inferenciales de cierto nivel y, con ello, llevar al sujeto a solu-
cionar exitosamente las versiones concretas (familiares, realistas) de la tarea de selección. Vale
decir, a diferencia de la teoría anterior, hay aquí algún tipo de actividad inferencial aunque no
exactamente del tipo que caracteriza al razonamiento lógico propiamente dicho.
Según Wason, la intervención de la memoria en la ejecución de la tarea de selección se
daría mediante la activación de estructuras cognitivas que se caracterizarían por contener
información genérica respecto de clases de situaciones o experiencias de la vida cotidiana.
Estas estructuras genéricas de conocimiento son los que Bartlett (1932) bautizara con el
nombre de 'esquemas de memoria'. Desde esta perspectiva teórica, se supone que estos
esquemas se activarían o dispararían en presencia de ciertos estímulos críticos que, en-
contrándose presentes en la tarea, son a su vez, componentes del esquema. Según esta
perspectiva, se supone que, la activación de los esquemas, permite al sujeto lograr una me-
jor comprensión de la lógica de la situación descripta en la regla dando lugar, de ese modo,
a la aparición de procesos inferenciales, s de cierto nivel. Así, por ejemplo, en el supuesto
que en el contexto de una situación de enfermedad, se activase el esquema 'comprar', uno
puede inferir, aunque no haya información explícita al respecto, que aquello que se va a
comprar es un 'remedio', que el lugar donde se efectuará la compra es una 'farmacia', etc.
Este tipo de inferencias 'esquemáticas' o 'implícitas' tan comunes en la vida cotidiana, se
supone que puede estar en la base de los efectos de facilitación encontrados en la tarea de
Wason en versión concreta. Desde luego, como bien señala e.ste autor, los procesos
inferenciales que tienen lugar en estos casos no constituyen en sí mismos instancias de
razonamiento lógico y, como tales, no podrían catalogarse de 'inteligentes'.
Como quiera que sea, desde esta perspectiva esquemática, los efectos de facilitación
serian producto de procesos inferenciales resultantes de la activación de esquemas de me-
moria y no, como sostenía el enfoque anterior, un mero reflejo (del funcionamiento) de la
memoria sin razonamiento de ningún tipo.
Este enfoque desarrollado por Cheng y Holydak (1985), en cierto sentido, puede con-
siderarse una extensión de la teoría de los esquemas de Wason. Esta teoría asume que los
sujetos, en un amplio rango de situaciones de la vida cotidiana, parecen operar de acuerdo
a un conjunto de reglas bien definidas. Entre estas situaciones, la atención de los investi-
gadores se centró en aquellas que involucran cuestiones relacionadas con la potestad de
hacer algo (el 'poder'), la obligación de hacer algo (el 'deber"), la consideración de las causas
y efectos de algo (la 'causalidad1) y otras. Las reglas que gobernarían el comportamiento
en esta clase de situaciones, de modo característico, especifican conjuntos de condiciones
146
Lecciones de Psicología Cognitiva
que deben cumplimentarse para poder llevar a cabo ciertas acciones. En teoría, estas reglas
poseen un conjunto de características distintivas: (a) al aplicarse a rangos de situaciones
definidas, no son formales, abstractas o independientes del contenido; (b) al abstraerse en
el curso de la experiencia, no son innatas y, por último, (c) al gobernar el comportamiento
del sujeto en pos de lograr una meta específica, son de naturaleza pragmática.
Se supone, desde esta posición teórica, que el sujeto posee en su mente esquemas
genéricos que compilan información referida a este tipo de situaciones. Por ejemplo, ha-
bría un 'esquema de obligación' que operaría en situaciones en las cuales uno se encuentra
obligado a hacer algo (vg., se requiere aprobar el CBC para ingresar a la UBA) o, por caso,
un 'esquema de permiso' para situaciones en las que se debe cumplimentar un requisito
para poder hacer algo (vg., se requiere un registro especial para poder conducir camiones),
etc. Luego, sería la posesión de estos esquemas lo que permitiría al sujeto comprender la
lógica de una situación, razonar sobre la base de esa lógica y, eventualmente, actuar en
consecuencia. Así, en el caso de las reglas de la tienda (ver ejemplo b) y de la edad para
beber (ejemplo c), el conocimiento esquemático de un cierto número de reglas tales como,
por ejemplo, "Para llevar a cabo una acción, se debe cumplir con una cierta condición" y
"Si una condición determinada no se cumple, no se puede ejecutar una acción", llevaría al
sujeto a visualizar fácilmente la situación en la cual la regla en cuestión no se cumple: en el
ejemplo b, se incumple con la norma cuando se da vía libre a una compra que debe ser au-
torizada previamente de manera expresa y, en el ejemplo c, se viola la regla al beber alcohol
sin cumplir con el requisito de la edad.
En definitiva, si en el contexto de una regla dada, se activa algún esquema previo, se
podría producir una facilitación en la ejecución de la tarea de selección pues, la aplicación
de las reglas propias del esquema, llevaría al sujeto a seleccionar tarjetas que, casualmente,
se corresponden con la combinación lógicamente correcta. Vale decir, cuando el problema
planteado al sujeto permite su codificación en términos de algún esquema previo, éste se
activaría y el sujeto procedería a aplicar las reglas propias del esquema a los elementos del
problema dando como resultado la selección de tarjetas que, por un lado, constituyen casos
particulares de violación de dichas reglas y, por el otro, para el observador externo, bien
pueden resultar respuestas lógicamente correctas.
Resultados consistentes con esta idea de que la facilitación en la tarea de Wason se produce
por activación de esquemas pragmáticos de razonamiento, obtuvieron Cheng y Holyoak
(1985) con una versión del problema de Wason que, siendo abstracta, puede eventualmente
codificarse en términos de un esquema de permiso. Dicha versión es como sigue: "Si uno
va a realizar la acción A, entonces debe primero satisfacer la precondición P". En dicha
investigación, los autores encontraron que una gran mayoría de los sujetos, a diferencia de
lo que sucedía con la versión abstracta estándar ("Si hay una E, hay un 2"), proporcionaba
las respuestas correctas. El punto es que siendo ambos problemas abstractos, el estándar
no daría lugar a la activación de esquemas pragmáticos de razonamiento y, por ende, los
sujetos fracasarían en la selección del conjunto apropiado de tarjetas. En la Figura 4.4, se
147
Humberto Fernández
proporciona una ilustración de este enfoque que propone que el razonamiento es un pro-
ceso guiado por reglas pragmáticas asociadas a esquemas de memoria específicos.
Figura 4.4
El razonamiento como proceso ilógico gobernado por esquemas
Este enfoque desarrollado por Cosmides (1989) asume que el ser humano posee, de
manera innata, un conjunto de reglas que modularían las interacciones con sus congé-
neres. Entre estas reglas se destacan aquellas que regulan el comportamiento en situacio-
nes de intercambio y cooperación sociales. En el marco de esta teoría, se supone que el
trabajo cooperativo resultó crucial para el progreso de las comunidades humanas por lo
que, en el curso del desarrollo filogenético se habrían incorporado reglas que permitirían
'detectar tramposos', esto es, individuos que, recibiendo los beneficios de la vida en so-
ciedad, no estarían dispuestos a pagar ningún costo por ello.
Desde esta perspectiva, un 'contrato social' regularía la vida de los miembros de una
comunidad. Este contrato tiene como regla básica o 'estándar', la siguiente: 'Si recibes un
beneficio, debes pagar un costo'. Alternativamente, la regla puede expresarse, en una ver-
sión 'rotada', en los siguientes términos: 'Si pagas un costo, entonces recibes un benefi-
cio'. En ambos casos, el contrato se violaría en el caso de que un individuo, habiendo to-
mado un beneficio, no pague el respectivo costo. Bajo el primer formato, las alternativas
de elección de las que dispone el sujeto son: 'Recibe el beneficio', 'No recibe el beneficio',
'Paga el costo' y 'No paga el costo'. Desde el punto de vista lógico, estas alternativas pu-
eden asimilarse, respectivamente, a los siguientes casos: 'p', '~p', 'q' y '~q'. A su vez, bajo
el segundo formato, las alternativas de elección disponibles son: 'Paga el costo', 'No paga
el costo', 'Recibe el beneficio' y 'No recibe el beneficio'. Desde el punto de vista lógico,
148
Lecciones de Psicología Cognitiva
estas alternativas representan, respectivamente, los siguientes casos: 'p', '~p', 'q' y '~q'.
En línea con la idea de que, a los efectos del progreso de la comunidad en su conjunto,
es importante que todos cumplan el 'contrato social' que los une, esto es, que nadie haga
trampa, Cosmides (1989) encontró que, en cualquiera de las versiones —estándar y rotada—
los sujetos eran perfectamente capaces de detectar los casos de violación del contrato. Esto
es, en términos del rol lógico de las tarjetas, éstos seleccionaban mayoritariamente la combi-
nación 'p, ~q' en la versión estándar y, a su vez, en la versión rotada, la combinación '~p, q\
Esto implicaría que el proceso de razonamiento de los sujetos no estaría mediado por reglas
de inferencia de naturaleza lógica pues, si este fuera el caso, en ambas versiones, los suje-
tos seleccionarían la combinación 'p, ~q' que, lógicamente, falsearía cualquier proposición
condicional. En línea con su teoría del contrato social, Cosmides (1989) va a interpretar
este patrón de resultados entendiendo que los mismos bien podrían estar reflejando la ac-
ción de unos módulos inferenciales innatos especialmente diseñados para la detección de
quienes incumplen del contrato social, o sea, los timadores o tramposos.
Como es de suponer, esta teoría tan radical ha sido objeto de algunas críticas. Entre
éstas, cabe destacar la propuesta por Cheng y Holyoak (1989). Estos autores señalan, con
buen tino, que no toda situación de intercambio social puede entenderse en términos de un
contrato en el que alguien recibe un beneficio si paga el costo correspondiente. Por ejem-
plo, en el caso de la Regla del Permiso para Beber, es difícil considerar que la mayoría de
edad sea un 'costo' que se debería pagar por el beneficio de poder beber alcohol, antes bien,
debería considerarse como una norma de tipo cultural asentada en razones médicas. En una
vena similar, Manktelow y Over (1991) encontraron efectos de facilitación con el siguiente
material: 'Si limpias la sangre derramada, entonces debes calzarte guantes de goma'. Es
claro que la norma se incumple en el caso de limpiar la sangre sin usar los guantes lo cual,
viene a ser equivalente a seleccionar los casos lógicos 'p' y '~q\ Obviamente, es claro que
resulta harto difícil asimilar el hecho de limpiar sangre como un 'beneficio' por el que se
debe pagar el 'costo' de usar guantes protectores. Conclusión: la lógica del contrato social,
de aplicarse, lo hace en un espectro muy limitado de situaciones (sociales), por lo que, como
teoría general del razonamiento, parece en extremo poco plausible.
En síntesis, al igual que lo que ocurría en la versión concreta, en la versión abstracta
de la tarea de selección es dable identificar múltiples perspectivas teóricas. Todas tienen en
común el rechazo absoluto al concepto de que el proceso de razonamiento sería gober-
nado por reglas formales de inferencia. Más bien, en el presente contexto, el mismo
puede llegar a entenderse como un proceso inferencial no lógico en naturaleza en el cual, el
sujeto derivaría 'conclusiones' bajo la forma de inferencias esquemáticas o, en forma más
sofisticada, en virtud de la aplicación de reglas pragmáticas asociadas a esquemas activos
de memoria que fueron adquiridos en el curso de la experiencia o, en última instancia, del
funcionamiento de módulos inferenciales pre-instalados en el código genético de la especie.
Ahora bien, a modo de observación crítica, uno puede llegar a cuestionarse si es admisible
reducir todo comportamiento lógicamente correcto a la acción de esquemas de memoria
149
Humberto Fernández
cuando no, de algoritmos pre-instalados. Por otro lado, este enfoque esencialmente ilógico
del razonamiento no da cuenta apropiada de que, en los hechos, el ser humano posee una
competencia deductiva básica de otro modo, como bien se pregunta Johnson-Laird (1982),
cómo es que el Hombre podría haber inventado la Lógica.
150
Lecciones de Psicología Cognitiva
posible. Luego, la doctrina ilógica del razonamiento no puede ser una imagen completa-
mente válida de la mente.
Ahora bien, ¿cómo explicar entonces esta competencia deductiva de la mente uno de
cuyos mejores productos y exponentes sería la Lógica? Si la creación de la Lógica supone,
desde ya, una capacidad previa de la mente para razonar deductivamente, la cuestión es:
¿en qué consiste tal capacidad? Desde la perspectiva de la lógica mental, la respuesta es
simple: los seres humanos somos capaces de razonar deductivamente porque, innatamente
o no, conocemos un conjunto de reglas formales de inferencia cuya aplicación a un corpus
de información crítica nos lleva directamente a una conclusión lógica. El punto es que,
como ya se dijo, este enfoque extremadamente logicista del razonamiento falla en ex-
plicar adecuadamente (i) por qué solemos equivocarnos en la selección o derivación de
una conclusión y, asimismo, (ii) por qué el contenido en que se presenta un problema de
razonamiento facilita o no la solución del mismo. Por lo tanto, el proceso de razonamiento
—salvo en el caso de sujetos especialmente entrenados en disciplinas formales— no puede
consistir en la aplicación de reglas de inferencia -si así fuera, no tendría que haber error ni
efectos de contenido. Luego, la lógica mental no sería un modelo completamente adecuado
para explicar la competencia deductiva humana.
Por lo antedicho, en principio, la mente puede razonar (deductivamente), esto es,
llegar a conclusiones correctas que, necesariamente, se desprenden de las premisas de
partida, en ausencia de una lógica mental. ¿Cómo podría ser esto posible? La solución
para esta cuestión podría emerger a partir de la consideración de una característica crítica
que poseen todos los razonamientos correctos: sus conclusiones son incontrastables,
esto es, no admiten ningún tipo de impugnación o refutación en toda eventualidad en
que las premisas sean verdaderas o se asuman como tales. Al respecto, considérense los
siguientes ejemplos:
Ejemplo 1: "Si es verdad que el elemento 'j' es absolutamente necesario para la vida y
si es verdad que en el planeta *X' no existe dicho elemento, entonces en el planeta "X' no
puede haber vida". Esta conclusión pareciera ser irrefutable: si es absolutamente cierto lo
que se afirma en las premisas, la conclusión bajo ningún punto de vista puede ser falsa.
Ejemplo 2: "Si es verdad que en el matrimonio 'j', el marido solamente habla polaco y
la mujer solamente habla inglés, entonces ambos no pueden hablarse el uno al otro como
lo haría cualquier matrimonio (Johnson-Laird, 1986)". En este ejemplo, la conclusión ¿es
irrefutable? Vale decir, ¿es necesariamente cierta si las premisas son o se asumen como ver-
daderas? La respuesta es no. ¿Por qué? Pues aún cuando ninguno hable el idioma del otro,
bien puede ocurrir la eventualidad de que ambos entiendan el idioma del otro aunque no lo
hablen y, si así fuera, la comunicación verbal podría ser perfectamente posible entre ambos.
Como se ve, en este ejemplo, la conclusión bien puede no ser verdadera: hay al menos un
caso en el que siendo verdaderas las premisas, la conclusión es falsa.
En principio, todos los razonamientos correctos o válidos se ajustan a esta máxima o
'principio semántico de validez' (Johnson-Laird, 1983): un argumento es correcto si no hay
151
Humberto Fernández
ningún modo en el que las premisas pudieran ser verdaderas j su conclusión falsa. Como
puede apreciarse, para evaluar la corrección de una conclusión como la del ejemplo del ma-
trimonio 'j', no fue necesario aplicar reglas formales de inferencia, bastó con imaginar una
situación en la cual siendo verdaderas las premisas, la conclusión resultara falsa.
Así, la idea de una competencia racional sin lógica podría sostenerse asumiendo que los
seres humanos, de un modo u otro, conocen el principio semántico de validez por lo que
estarían capacitados para efectuar inferencias correctas sin aplicar las reglas de una hipo-
tética lógica mental. Luego, en principio, sería posible explicar la competencia deductiva
humana sin postular una lógica en la mente: podemos pensar racionalmente, razonar lógi-
camente sin que ello implique un despliegue de reglas formales de inferencia.
Pero, en concreto, ¿en qué consistiría esta habilidad para razonar sin lógica? La respuesta
de Johnson-Laird y el núcleo central de su doctrina de la racionalidad variable es que el ra-
zonar comportaría esencialmente la construcción y manipulación de 'modelos mentales'.
Pero, ¿qué es un 'modelo mental'? Básicamente, un modelo mental es una represen-
tación interna que, pudiendo o no adoptar el formato de una imagen mental, proporciona
una descripción estructural de un estado de cosas del mundo, sea éste real o hipotético. Un
modelo mental sería, por ejemplo, una suerte de escenario mental en el que ciertos perso-
najes imaginarios o imaginados desempeñan ciertos roles y llevan a cabo ciertas acciones.
Así, si es el caso que uno leyera o escuchara la oración "El cirujano salió de la sala comple-
tamente satisfecho con los resultados obtenidos", seguramente se formaría en la mente
una imagen vivida de un señor de bata blanca y barbijo que, bisturí en mano, sale sonriente
de una sala de operaciones". En la Figura 4.5 se proporciona un ejemplo hipotético de un
modelo mental en formato analógico.
Figura. 4.5
El modelo mental: una representación esquemática.
Desde este enfoque teórico, se asume que nuestro conocimiento del mundo y del len-
guaje nos capacitaría para construir estos modelos internos del mundo. El punto es, ¿cómo
operan estos modelos mentales en el razonamiento?
152
Lecciones de Psicología Cognitiva
Oncólogo= médico
Oncólogo= médico
(médico)
(médico)
En este modelo se puede apreciar que hay dos individuos en el rol de oncólogos los
cuales, también son médicos y, también, que habría dos médicos que no son oncólogos.
Estos miembros adicionales de la clase de los médicos pueden o no tener existencia real.
En el diagrama, la situación particular de estos médicos, cuya existencia hipotética puede
o no hacerse realidad, se simboliza mediante el expediente de colocarlos entre paréntesis.
Por un lado, (a) si de hecho existieran, la premisa bajo análisis estaría haciendo referencia
a una situación en la cual, la clase de los médicos no sería idéntica a la clase de los on-
cólogos, esto es, habría médicos que no son oncólogos que, por cierto, sabemos que se
da en la realidad. Por otro lado, (b) si de hecho no existieran, la premisa de marras haría
referencia a una situación en la cual no habría médicos que no fueran oncólogos, esto es,
habría identidad entre ambas clases de entidades que, por cierto, no se da en la realidad
aunque bien podría ser el caso tratándose de otros géneros de entidades. Es claro que
este modelo mental hipotético es compatible con ambas posibilidades lógicas (a) y (b).
De igual modo, las restantes proposiciones silogísticas podrían representarse también en
términos de actores y personajes.
En términos abstractos, las proposiciones categóricas A ("Todos los a son b"), I ("Al-
gunos a son b"), O ("Algunos a no son b") y, por último, E ("Ningún a es b") podrían dar
153
Humberto Fernández
Figura 4.6b
El modelo mental de una proposición tipo I
"Algunos científicos son estudiosos"
154
Lecciones de Psicología Cognitiva
Figura 4.6b
El modelo mental de una proposición tipo I
Figura 4.6c
El modelo mental de una proposición tipo O
155
Humberto Fernández
como si uno dijera: 'bueno, si lo que se dice en las premisas es cierto, entonces el mundo
tendría esta forma'.
Figura 4-. 6d
El modelo mental de una proposición tipo E
156
Lecciones de Psicología Cognitiva
157
Humberto. Fernández
Figura 4.7
El razonamiento como manipulación de modelos mentales: Etapas
Figura 4.8a
La inferencia silogística en el enfoque dé los modelos mentales; Un
ejemplo del proceso de razonamiento
158
Lecciones de Psicología Cognitiva
Figura 8b
La inferencia silogística en el enfoque de los modelos mentales: Un
ejemplo del proceso de razonamiento
Figura 4.8c
La inferencia silogística en el enfoque de los modelos mentales: Un
ejemplo del proceso de razonamiento
159
Humberto Fernández
Figura 4.8d
La inferencia silogística en él enfoque dé los modelos mentales: Un
ejemplo del proceso de razonamiento
En principio, la teoría de los modelos mentales puede dar cuenta de los errores y de
los éxitos en el razonar así como de los efectos del contenido, y ello sobre la base de las
siguientes consideraciones:
a) Dado que los modelos mentales se construyen y se manipulan en un espacio mental
de capacidad limitada -la así denominada 'memoria operativa' o 'memoria de trabajo'-es
posible que, en algunos sujetos, este espacio no tenga la capacidad suficiente como para
desarrollar y/o mantener en estado de actividad la totalidad de los modelos que sería
menester en punto a lograr una conclusión correcta llegando, por lo tanto, a conclu
siones erróneas. Luego, una mayor capacidad de la memoria operativa, eventualmente
favorecería el desarrollo exhaustivo de modelos mentales y su manipulación y, con ello,
un razonamiento exitoso.
b) Dado que los modelos mentales se construyen teniendo en cuenta el conocimiento
general de la situación descripta en las premisas, cuanto mayor sea la riqueza de este corpas
de información, eventualmente mayor va a ser la facilidad con la que el sujeto va a poder
construir modelos de las premisas, integrarlos y validarlos. Luego, la riqueza del cono
cimiento eventualmente favorecería el éxito en el razonamiento.
160
Lecciones de Psicología Cognitiva
Ahora bien, si el pensamiento puede entenderse como una habilidad y, si como toda
habilidad, el pensamiento puede ejercerse con mayor o menor pericia, la cuestión es ¿de qué
depende esta pericia? ¿por qué algunos pensadores son más hábiles que otros? La teoría
de los modelos mentales supone el desarrollo de esta habilidad es una función de tres apti-
tudes componentes (Johnson-Laird, 1986):
1. La capacidad para comprender lo que se afirma en las premisas y para imaginar un
estado de cosas —modelos o escenarios mentales hipotéticos— que sea compatible con di
chas premisas.
2. La capacidad para desarrollar modelos alternativos de las premisas y para descubrir,
en caso de que los hubiera, elementos que sean comunes a tales modelos.
3. La capacidad para expresar en palabras los estados de cosas representados en un
modelo o grupo de modelos.
161
Humberto Fernández
modelos mentales, en aras de lograr un desarrollo más completo de la teoría, resulta absolu-
tamente necesario especificar cómo es que la ¿tiente logra forjar dichos modelos a partir de
la percepción, el lenguaje y el conocimiento del mundo (cf. Bonatti, 1994; O'Brien, Braine
y Yang, 1994). Finalmente, para concluí* ,'*s importante resaltar una derivación sumamente
útil de la teoría: si el razonador hábil es aquel que puede lograr conclusiones irrefutables y
si, conforme a la teoría, esto se logra construyendo modelos alternativos para su validación,
en principio, podría ser posible diagramar un programa de entrenamiento que, centrado en
la búsqueda de conttaejemplos, logre que el razonador se deshaga de conclusiones poco
consistentes y, con ello, mejore su poder de razonamiento. El trabajo de Velasco y García
Madruga (1997) constituye un importante precedente en este sentido.
Recuadro 4.1 a
El sesgo de creencias en el razonamiento
162
lecciones de Psicología Cognitiva
Recuadro 4.1b
El sesgo de creencias en el razonamiento
Las propuestas teóricas desarrolladas a propósito de explicar la razón por la cual las
creencias afectan el razonamiento difieren, precisamente, en esta cuestión de los momen-
tos. Estas propuestas son:
A) La perspectiva de la 'lógica mental'. Esta doctrina admite que las creencias solamente
pueden intervenir en el Momento 1 en el cual, el razonador procede a interpretar las pre-
misas (Henle, 1962). Así, se sostiene que las creencias pueden hacer que el sujeto razone
sobre la base de una estructura lógica diferente a la requerida por el problema llevándole
a producir una respuesta que, aunque consistente con la estructura desde la que él razona,
contribuye a generar el efecto de creencias observado. En las Figuras 4.9a y 4.9b se repre-
senta esquemáticamente esta posición.
163
Humberto Fernández
Figura 4.9a
El sesgo de creencias según la lógica mental
Figura 4.9b
El sesgo de creencias según la lógica mental: Un ejemplo
164
Lecciones de Psicología Cognitiva
directamente analizando la conclusión y, si resulta creíble, la aceptaría sin más (Evans, Bars-
ton y Pollard, 1983). En caso contrario, comenzaría un proceso de análisis lógico de las
premisas para determinar si la conclusión dada se sigue o no. Este proceso daría como
resultado una mayor propensión a rechazar las conclusiones increíbles e inválidas. En la
Figura 4.10 se proporciona una representación esquemática de este enfoque el cual asume,
que el efecto de las creencias se ubicaría en el Momento 3.
Figura 4.10
El sesgo de creencias y la hipótesis del escrutinio selectivo
165
Humberto Fernández
Figura 4.11
El sesgo de creencias y la hipótesis de la Necesidad Mal Interpretada
166
ljecáones de Psicología Cognitiva
Figura 4.12
El enfoque dé los modelos mentales y el sesgo de creencias
167
Humberto Fernández
168
Lecciones de Psicología Cognitiva
169
Humberto Fernández
Recuadro 4.2
Él 'problema del taxi' y la ecuación, de Bayes
170
Lecciones de Psicología Cognitiva
tales bastante expeditivos que permitirían resolver problemas complejos de modo rápido
aunque, claro está, no siempre eficiente. Estos procedimientos fueron bautizados con el
nombre de 'heurísticos'. Éstos se supone que consisten en una suerte de atajos cognitivos
por los que la mente vendría a sortear los caminos de solución analíticamente más apro-
piados aunque trabajosos y, por ello, cognitivamente demandantes y lentos. A través de
los heurísticos, la mente podría activar, recuperar y procesar cantidades de información
que sean más compatibles con sus capacidades operativas bastante limitadas. Así, en los
problemas anteriores, en lugar de llevar a cabo computaciones complejas que saturarían su
capacidad, el sujeto, en el problema del taxi siniestrado, va a asignar las probabilidades del
caso en función del grado en el cual la muestra en consideración, 80% de taxis azules en la
óptica del testigo, es suficientemente representativa de la clase a la que pertenece, la de los
taxis azules y, a su vez, en el caso de los ingenieros y abogados, hará lo propio en función
del grado de parecido existente entre la descripción proporcionada y el 'prototipo' de inge-
niero que guarda almacenado en su memoria.
En suma, lo que los estudios de Kahneman y Tversky vendrían a poner en evidencia
es que los juicios de probabilidad, habida cuenta del marcado apartamiento de los cánones
normativos que los sujetos exhiben, vendrían a ser la resultante de un proceso consistente
en la aplicación de heurísticos: estrategias de solución no algorítmicas por definición, esto
es, no analíticas ni exhaustivas, que al operar sobre la información propia de un problema,
eventualmente llevan al sujeto al acometimiento de sesgos o errores en el procesamiento
de la información.
Las investigaciones encaradas por estos autores pusieron en evidencia una serie de ses-
gos en la estimación de probabilidades los cuales, en su visión, estarían reflejando la acción
de unos principios reguladores del funcionamiento cognitivo de la mente: los heurísticos.
Son varios los heurísticos que, en opinión de estos investigadores, gobernarían el proceso
de emisión de juicios de probabilidad. Entre éstos, se destacan el heurístico de represen-
tatividad, el de accesibilidad y el de ajuste y anclaje. En lo que sigue se proporciona una
descripción sucinta de esto heurísticos así como también, ejemplos tomados del ámbito de
la investigación y de la vida cotidiana.
A) El heurístico de representatividad. Este principio vendría a operar toda vez que el
sujeto asigna probabilidades a eventos o resultados inciertos (a) en función del grado de
parecido (o correspondencia) que dicho resultado tiene (o guarda con) la clase o categoría
general a la que puede ser asimilado o bien, llegado el caso, (b) en función del grado en el
cual, dicho resultado parece reflejar las características más relevantes del proceso que le dio
origen.
Un ejemplo de la vida diaria el cual podría interpretarse como reflejando la operación
de este heurístico sería el siguiente: "Creo que Juan va a tener un futuro brillante como
171
Humberto Fernández
ajedrecista ya que, amén de súper inteligente, es muy habilidoso en armar jugadas y experto
en anticipar muy bien los movimientos del oponente". En este juicio, el emisor augura tal
porvenir para Juan dado que él, desde su perspectiva, pareciera concordar perfectamente
con el perfil de un ajedrecista avezado.
En ámbito de la investigación, los resultados obtenidos por Kahneman y Tversky, en el
'problema de los ingenieros y abogados' y el 'problema del taxi, se interpretaron a la luz del
heurístico de representatividad. En el primer caso, los examinados creen —conforme a la
interpretación (a) del heurístico de representatividad— que el sujeto descrito es un ingeniero
por cuanto el mismo se parece al prototipo de ingeniero que, es de suponer, la mayoría de
la gente albergaría en la memoria, esto es, individuos más bien 'fríos' y poco propensos a las
relaciones sociales. En el segundo caso, los sujetos parecen asumir —conforme a la interpre-
tación (b) del heurístico de representatividad- que un proceso altamente confiable, la eficaz
detección ocular del testigo del accidente, va a dar como resultado un producto también
confiable, la aseveración de que el taxi involucrado en el accidente era de color azul. En
ambos casos, se supone que los sujetos, guiados por el principio de representatividad, son
llevados a ignorar las probabilidades previas, imprescindibles para el correcto cálculo de los
eventos en consideración, y, consecuentemente, a efectuar estimaciones erróneas o sesga-
das de la probabilidad. Dichas estimaciones vendrían a constituir un ejemplo de lo que, en
la jerga de estos autores, se denomina 'la falacia de la tasa base'.
Otro ejemplo paradigmático del heurístico de representatividad lo constituye el famoso
problema de 'Linda, la cajera' (Tversky y Kahneman, 1983). En la investigación que sirvió
de base para la postulación de este heurístico se informó a los sujetos acerca de las
características de este personaje más o menos en estos términos: Linda es una chica joven,
extrovertida, muy inteligente y graduada en Filosofía que, siendo estudiante, era una activa
militante contra la discriminación racial y la contaminación nuclear. A continuación, los
sujetos debían ordenar una serie de afirmaciones respecto de Linda función de su grado su
probabilidad. Entre éstas, por ejemplo, se les decía a los sujetos que Linda 'es profesora de
enseñanza básica', 'es miembro activo de un movimiento feminista' —Caso 'F'-, 'es cajera
de banco' —Caso 'B'—, 'es agente de seguros', 'es cajera de banco y miembro activo de un
movimiento feminista' — Caso 'B y F'— y otras por el estilo. El punto es que, en la ordena-
ción de probabilidades, la gran mayoría de los sujetos consideró que, después del caso 'F',
era más probable el caso 'B y F' que el caso 'B' lo cual, ciertamente, constituye una flagrante
violación a uno de los axiomas básicos del cálculo de probabilidades, según el cual, la
probabilidad conjunta de dos eventos, esto es, la probabilidad de que ocurran ambos a la
vez, es siempre menor o, a lo sumo, igual a la probabilidad de cada uno de dichos eventos
por separado. De allí que estos investigadores bautizaran a esta desviación de los cánones
normativos con el nombre de 'la falacia de la conjunción': en la perspectiva de los sujetos,
guiados por el heurístico de marras, una conjunción de eventos resulta más probable que la
ocurrencia individual de los eventos en consideración.
172
Lecciones de Psicología Cognitiva
173
Humberto Fernández
Figura 1,3
Los heurístcos y los juicios ele probabilidad
174
Lecciones de Psicología Cognitiva
175
Humberto Fernández
las tasas de base o probabilidades previas, por lo que, la tarea de cómputo se simplificaría
notoriamente. Como puede apreciarse en el Recuadro 4.3, bajo este formato, el peso del
dato crítico queda notoriamente en evidencia. En efecto, en el mismo resulta patentemente
claro que el sujeto acertó en doce oportunidades-sobre un total de veintinueve.
Recuadro 4.3
El problema del taxi del formato dé frecuencias
En suma, los resultados encontrados por Kahneman y Tversky son contundentes: las
desviaciones de los juicios emitidos respecto de lo normativamente estipulado desde el
punto de vista del cálculo de probabilidades constituyen, en sí mismas, un fenómeno suma-
mente consistente. Es interesante hacer notar que no solamente los legos incurren en di-
chos errores, incluso expertos en estadística (Tversky y Kahneman, 1983) y otros campos,
también los cometen. La razón por la cual se producen estos curiosísimos sesgos cognitivos
es materia de controversia: ¿son el resultado de la aplicación de heurísticos por parte de la
mente o el producto de otros procesos mentales?
176
Lecciones de Psicología Cognitiva
177
Humberto Fernández
178
Lecciones de "Psicología Cognitiva
el punto de vista cognitivo, resulta sumamente demandante. Por esta razón, hasta cierto
punto, resulta más adaptativo dar crédito vale decir, aceptar sin más una conclusión que
resulte compatible con nuestro sistema de creencias. Distinto es el caso de una informa-
ción increíble puesto que aceptarla sin más conllevaría una modificación de la estructura
de creencias del individuo. De esto se sigue que, frente a datos incompatibles o contradic-
torios con nuestras creencias, resulta aconsejable acometer un examen cuidadoso, el cual,
en aras de la preservación y estabilidad de dicho sistema, puede dar lugar a un rechazo liso
y ñaño de dicha información discordante con nuestras creencias más arraigadas.
En suma, conforme a esta óptica, el procedimiento de aceptar por principio las conclusio-
nes creíbles y rechazar las que no lo son, aunque lógicamente inadecuado, esto es, irracional,
puede resultar un proceder funcional al mantenimiento de creencias que han demostrado su
utilidad en el logro de metas y el proceso de adaptación al medio. Esto es, un proceder que,
aunque ilógico o irracional, puede entenderse como perfectamente racional}.
179
Humberto Fernández
siguientes:
(i) Propositividad: es un comportamiento dirigido a una meta que es la de encontrar una
vía de solución a un problema específico siendo que, el camino o vía de solución no resulta
a priori conocido por el resolutor.
(ii) Complejidad cognitiva: el comportamiento resolutorio conlleva la ejecución de una
serie de operaciones cognitivas más o menos complejas: codificación de inputs estimulares,
recuperación de información en memoria de largo plazo, elaboración de estrategias de
afrontamiento en memoria de corto plazo, t u .
(iii) Metacapacidad: la capacidad de resolver problemas es una función compleja del
nivel de recursos cognitivos que el sujeto posea en el dominio de capacidades demandadas
por el problema particular a resolver así como también, del nivel de conocimientos técnicos
que sean requeridos para la resolución satis factoría de dicho problema. Claramente, dicha
capacidad se habrá de desplegar con mayor o menor eficiencia en función del grado de mo-
tivación que tenga el sujeto para involucrase en la tarea de solución y, asimismo, del estilo
cognitivo característico del resolutor.
En la Figura 4.14, se proporciona una representación esquemática de la solución de
problemas en tanto que actividad p¡ Viositiva de un sujeto.
Figura 4.14
La solución de problemas como actividad prepositiva
180
Lecciones de Psicología Cognitiva
drían lugar diversas operaciones de procesamiento. Estas fases serían las siguientes (cf.
Best, 2001; de Vega, 1984; Puente Ferreras, 1998):
a) Preparación. En el curso de esta etapa inicial, la actividad resolutoria se centraría
básicamente en la definición del problema, la identificación de la meta a la que se desea
llegar, la especificación de los criterios de solución a aplicar así como también, el análisis e
interpretación de los elementos de información disponibles para resolver el problema y de
las eventuales restricciones para su solución.
b) Producción. En esta etapa, el resolutor elabora diferentes estrategias de abordaje al
problema y aplica algunas de ellas en punto a solucionar el problema o, lo que es lo mismo,
reducir la diferencia entre lo que desea y lo que, en su óptica particular, tiene.
c) Enjuiciamiento o evaluación. En esta fase, el resolutor evalúa si la solución a la que
arribó satisface o no el criterio de solución previamente adoptado.
Un 'problema' es, desde una perspectiva cognitiva, una discrepancia entre dos estados
representacionales del mundo uno en el cual un sujeto modela un estado de cosas deseado
y otro en el cual dicho sujeto percibe un estado de cosas tal que aquello que desea se
encuentra ausente. Por lo tanto, los 'problemas' no tendrían una existencia independiente
de los sujetos para quienes la estructura de lo real, en la percepción idiosincrásica de cada
cual, presenta lagunas que hay que rellenar o inconsistencias que hay que eliminar. La tarea
que enfrenta quien tiene un problema delante de sí es, como bien señala de Vega (1984),
elaborar una estructura representacional que incluya una serie de estados (intermedios) que
lo lleven hacia el estado deseado en el cual la meta perseguida se encontraría lograda. En la
Figura 4.15 se representa esquemáticamente el concepto de problema como discrepancia
entre lo deseado y lo percibido.
181
Humberto Fernández
Dado que un problema existe toda vez que un sujeto particular desea lograr una meta
en condiciones de incertidumbre respecto de cuál o cuáles son los caminos que le lle-
varán a ella, no es de extrañar que la extensión de esta categoría conceptual, tanto como la
heterogeneidad de sus ejemplares, sea de una amplitud tal que haga que cualquier sistema
taxonómico o de clasificación resulte necesariamente incompleto. No obstante ello, en la
literatura se han pergeñado algunos sistemas clasificatorios basados en diversos criterios
tales como: (i) el número de soluciones posibles, una o varias-; (ii) el tipo de pensamiento
involucrado en el proceso de solución, 'reproductivo' o 'productivo', según sea que la so-
lución requiera de aplicar o no procedimientos de solución ya conocidos por el sujeto; (iii)
el 'contenido' o sistema simbólico en que se presenta el problema, abstracto o concreto
o bien, familiar o no familiar y así por el estilo; etc. Quizás el criterio clasificatorio más
adecuado, atento a su nivel de generalidad, sea el que discrimina los problemas en función
de su grado de definición. Conforme a este criterio, los problemas se clasifican en bien
definidos o mal definidos.
Básicamente, un problema bien definido es aquel que posee las siguientes características:
a) Una meta claramente establecida.
b) Una especificación clara de qué operaciones- se pueden efectuar para arribar a la so
lución así como de las restricciones que se deben respetar -esto es, qué cosas (operaciones,
movimientos, acciones) no están permitidas para resolver el problema.
c) Criterios de evaluación claros en virtud de los cuales puede juzgarse hasta qué punto
los esfuerzos resolutorios se encuentran encaminados en la dirección correcta.
Un problema mal definido, por el contrario, es aquel que no cumple con alguno de los
requisitos antes especificados. Por cierto que, en la vida cotidiana, estos problemas mal
definidos son la norma antes que la excepción. Debido a que son muy difíciles de estudiar
desde el punto de vista psicológico por la enorme cantidad de variables en juego, la inves-
tigación en solución de problemas se ha centrado fundamentalmente en los problemas
bien definidos. La expectativa es que los mecanismos y estrategias de solución aislados en
el estudio de estos problemas puedan ayudarnos a comprender la forma en la que el sujeto
opera en la vida cotidiana para habérselas de modo efectivo con las múltiples demandas de
su medio.
Como un ejemplo de problemas bien definidos y, por otro lado, profusamente estudia-
dos en la literatura psicológica, pueden citarse los siguientes: el problema de la Torre de Ha-
noi, el problema de los misioneros y caníbales, el problema de las cuatro tarjetas de Wason,
etc. Un arquetipo de problema bien definido, en el ámbito de la vida diaria, lo constituye el
juego de ajedrez con su consabida meta de dar jaque mate al oponente aplicando para ello,
reglas perfectamente bien determinadas.
Como un ejemplo de problemas mal definidos, cabe citar los siguientes: en el nivel in-
182
Lecciones de Psicología Cognitiva
dividual, ¿qué hacer para lograr la 'plena realización personal'?; en el nivel laboral, ¿cómo
lograr un aviso publicitario de 'alto impacto'?; en el nivel social, entre muchos otros, ¿cómo
disminuir la tasa de desempleo sin producir un aumento de la inflación?, ¿cómo hacer com-
petitiva la economía de un país? Como claramente puede intuirse, casi todos los problemas
con los que uno puede enfrentarse en la vida cotidiana pertenecen a esta categoría.
En 1898 este autor publica su famosa monografía sobre inteligencia animal campo en
el cual realizó su tesis de doctoral. En este trabajo, Thorndike, en abierta oposición a la
visión antropomórfica del comportamiento animal que imperaba por aquel entonces (cf.
Hergenhahn, 2001), viene a proporcionar una visión asociacionista del proceso de solución
de problemas.
Basándose en el comportamiento de sus sujetos experimentales -gatos- en su 'caja-
problema', una especie de jaula de la cual sus sujetos, privados de comida por un cierto
período de tiempo, 'pugnaban' por salir para conseguir el preciado alimento colocado fuera
de la misma. ¿Cómo procedía el animal para salir de esa embarazosa situación y así poder
saciar su hambre? En opinión de Thorndike, el gato logra salir de la jaula de manera com-
pletamente accidental, esto es, al principio el animal ejecuta una serie de R respuestas, a la
postre inadecuadas —por ejemplo, R,: intentos de pasar por entre los barrotes, R2: arañarlos,
R3: morderlos, R4: maullar, etc.- hasta que, por mero azar, tira de una cuerda -R5- que ac-
ciona el mecanismo de apertura de la puerta y ésta, al abrirse, le permite al animal llegar a
su alimento.
En consecuencia, para Thorndike, el animal logra la solución del problema mediante un
proceso de ensayo y error: el animal ensaya varias respuestas R hasta dar con la adecuada.
En el curso de este proceso, vendrían a modificarse los parámetros de asociación entre
estímulos —la jaula, sus barrotes, el alimento, etc.— y respuestas particulares —los ensayos de
solución R— produciéndose un cambio en el patrón de hábitos de respuesta del organismo:
183
Humberto Fernández
las respuestas 'exitosas', esto es, aquellas que conducen a la satisfacción del organismo,
como la R5 del ejemplo van ganando en dominancia cada ve2 que el gato es colocado en
la jaula hasta que llega un punto en el que el animal 'sabe' perfectamente lo que tiene que
hacer en la situación-problema y, sin más, emite R5 Siempre y cuando las condiciones no
se alteren en lo esencial, el animal, luego de varios ensayos, emitirá R5 al ser puesto en la
jaula nuevamente lo cual, vendría a significar que el animal aprendió a responder de una
determinada manera frente a una situación estimular crítica.
Desde la óptica de Thorndike son, básicamente, dos las leyes que gobernarían este pro-
ceso de aprendizaje:
i) La ley del ejercicio' según la cual, las conexiones específicas entre estímulos y respuestas
particulares se fortalecen con la práctica, esto es, mediante la repetición del tándem E-R.
ii) La 'ley del efecto' según la cual, sólo aquellas conexiones estímulo-respuesta que
van seguidas de un estado de satisfacción en el organismo se fortalecen. Esto implica que
la mera repetición de una secuencia particular E-R no basta para generar aprendizaje: las
respuestas deben conducir a la satisfacción del organismo si es que han de integrarse a su
repertorio habitual de comportamientos.
184
Lecciones de Psicología Cognitiva
una cantidad ilimitada de agua con la cual llenarlas, era necesario obtener mentalmente una
cantidad de líquido previamente especificada por el experimentador, etc. La característica
crítica que presentaban todos estos problemas era la siguiente: todo elemento, potencial-
mente relevante para la solución, se encontraba a disposición del resolutor. Esto significa
que él podía acceder a dicho elemento con solo efectuar una exploración adecuada de su
campo perceptual. Es de hacer notar que esta característica se encuentra ausente en la caja-
problema ideada por Thorndike: el mecanismo de apertura de la caja no era visualmente
accesible para el animal, razón por la cual, muy probablemente, éste no tendría otra alter-
nativa que proceder en una forma completamente aleatoria para salir de la caja y conseguir
el alimento.
Amén del insight como proceso medular de la solución de problemas, los gestaltistas
propusieron otros conceptos (putativamente) explicativos de corte mentalista. Entre estos,
se podría rescatar los siguientes:
a) ‘Pensamiento productivo' y ‘Pensamiento reproductivo'. Ambos fueron acuñados
por Wertheimer (1945) para rescatar el hecho de que la actividad resolutoria puede
demandar la generación de nuevas soluciones mediante la puesta en marcha de procesos
creativos de pensamiento o bien, por el contrario, la mera aplicación reproductiva de
soluciones pasadas.
b) 'Fijación'. Duncker (1945) acuñó este término a propósito de explicar por qué,
en algunos problemas, resultaba dificultoso lograr el insight y, con ello, una solución
inmediata. La 'fijación funcional' consistiría en adherirse a la idea de que un elemento
del problema sirve de soporte para una función determinada y no otra, eventualmente
no habitual y novedosa que, a su vez, conduciría a la solución. Un ejemplo de este tipo
de fijación sería el caso en el cual, uno se demora en solucionar (provisoriamente) una
pequeña pinchadura en un caño de agua apelando a un simple capuchón de lapicera:
percibir el capuchón en su función habitual y no como posible obturador constituye un
ejemplo doméstico de fijación funcional. Otra instancia de fijación se produce cuando,
en vez de adherirse a la percepción de un objeto en su función habitual, el resolutor se
adhiere a una determinada forma de concebir la situación problemática. Este es el caso
de la denominada 'fijación perceptual', en la cual se produce un bloqueo mental en el
sujeto que le impediría estructurar la percepción del problema desde una óptica dife
rente. Como ejemplo paradigmático de la fijación perceptual, podría citarse el famoso
problema de los 'nueve puntos' (Scheerer, 1963). Este consiste en unir nueve puntos
con cuatro líneas rectas sin levantar el lápiz del papel. La dificultad que presenta este
problema radica en que los puntos están dispuestos de tal modo que, en la percepción
habitual, parecen formar un cuadrado por lo que su solución, desde esta perspectiva,
resulta imposible. La solución exige una re-estructuración de la percepción, esto es, dejar
de ver los puntos como un cuadrado lo que permitiría trazar las rectas saliéndose de los
límites del cuadrado.
c) ‘Disposición'. Este término haría referencia, en la acepción dada por Luchins (1942),
185
Humberto Fernández
Como un comentario final, cabe consignar que este aparato conceptual fue muy criti-
cado por la imprecisión y vaguedad de sus definiciones, no obstante, por su corte mentalista
y su énfasis en el procesamiento interno de la información, la Escuela de la Gestalt es, sin
dudas, un antecedente histórico de peso en, la hoy en boga, Tsicología del Procesamiento
de la Información'.
En los Cuadros 4.1a y 4.1b se muestran algunas similitudes y diferencias entre las con-
cepciones de Thorndike y de la Gestalt de la solución de problemas.
Cuadro 4.1a
Solución de problemas: El enfoque asociacionista vs. El enfoque gestáltico
186
Lecciones de Psicología Cognitiva
Cuadro 4.1b
Solución de problemas: El enfoque asociacionista vs. El enfoque
gestáltico
187
Humberto Fernández
Figura 4.16
Rimoldi: la estructura de un problema y su solución ideal
188
Lecciones de Psicología Cognitiva
su longitud, esto es, la cantidad de preguntas que la conforman; su composición, esto es,
el nivel de participación de las preguntas relevantes e irrelevantes y, por último, el orden
de aparición de las preguntas el cual determina el quantum de incertidumbre reducida por
cada pregunta específica.
Dado que los problemas de Rimoldi tienen una estructura lógica bien definida en
el sentido de que, entre sus elementos constituyentes, pueden establecerse a priori un
cierto número de relaciones lógicas específicas (subordinación, inclusión, etc.), siempre
es posible identificar una secuencia óptima de preguntas que lleven al sujeto a reducir a
cero la incertidumbre del problema -esto es, a develar la incógnita planteada en su desa-
rrollo— con el mínimo costo de procesamiento en términos de la cantidad de preguntas
efectuadas.
Esta secuencia óptima recibe el nombre de 'táctica ideal' y puede, razonablemente, es-
tablecerse como un parámetro con el cual evaluar la calidad del proceso de pensamiento
que, es de suponer, subyace a la elección que el sujeto hace de un cierto tipo de preguntas
en un cierto orden. Así, cuanto mayor sea la distancia lógica que separa una táctica ob-
servada de la táctica ideal, peor será la performance resolutoria del sujeto en el sentido
de que éste, aún cuando logre la solución correcta, lo hará siguiendo un procedimiento
mucho menos económico y eficiente.
Habida cuenta que, en el paradigma de Rimoldi, se dispone de un parámetro de com-
paración -la táctica ideal- con el cual evaluar la bondad del curso de pensamiento que,
supuestamente, se refleja en las tácticas de solución y que, los problemas presentados
admiten una única solución correcta, sería posible en principio categorizar el amplio
espectro de tácticas posibles sobre la base de criterios tales como: a) si la táctica seguida
por el sujeto agota o no la incertidumbre del problema y, b) si el sujeto logra o no re-
solver correctamente el problema. Así, el complejo proceso de solución que involucraría,
por un lado, una constante toma de decisiones respecto de qué preguntas elegir y, por el
otro, una más o menos exhaustiva elaboración inferencial de la información reunida, bien
puede asumir diversas modalidades conforme a las características cognitivas y personales
de cada resolutor.
En el contexto de este esquema metodológico y sobre la base de los criterios antes men-
cionados, López Alonso y Rimoldi (1985) identificaron cuatro estilos bien diferenciados de
procesamiento. Estos son:
i) Estilo a: sujetos que eliminan la incertidumbre y logran resolver correctamente el
problema. Este estilo es predominantemente lógico en el sentido de que los resolutores
pretenden sacar provecho de las posibilidades inferenciales de los datos que se obtienen en
el curso de la solución. El mayor aprovechamiento inferencial de los datos lo realizan los
sujetos que siguen la táctica ideal. En efecto, en el ejemplo dado, si un sujeto hace la pre-
gunta A en primer lugar y su respuesta es negativa, infiere de allí que la incógnita buscada
no puede ser ni AC ni AD y que, forzosamente, la misma se ubica en la categoría B.
ii) Estilo P: sujetos que, eliminando totalmente la incertidumbre del problema, no logran
189
Humberto Fernández
la solución correcta. Estos sujetos se caracterizan por llevar a cabo un procesamiento inefi-
ciente de las posibilidades lógicas de los datos disponibles haciendo por lo tanto, un acopio
innecesario de información.
iii) Estilo y: sujetos que, sin eliminar totalmente la incertidumbre del problema, logran
la solución correcta. Este estilo de procesamiento se caracterizaría básicamente por eludir
todo tipo de trabajo sistemático de búsqueda y análisis reflexivo de la información. Los
sujetos que siguen este estilo completamente asistémático son propensos a acometer 'saltos
o disrupciones inferenciales' y a dejarse llevar, por 'corazonadas o intuiciones'.
iv) Estilo 8: sujetos que, ni eliminan totalmente la incertidumbre del problema, ni lo-
gran resolverlo correctamente. Los sujetos que siguen este estilo de procesamiento, quizás
motivados por algún factor psicológico de rechazo a toda situación que involucre riesgo e
incertidumbre, son completamente renuentes a involucrarse en intentos de solución más o
menos coherentes.
En síntesis, el enfoque de Rimoldi permite, no sólo evaluar la calidad de los procesos
de solución que preceden al logro de una respuesta final por parte del sujeto sino también,
identificar estilos de procesamiento que serían peculiares a un sujeto o grupo de sujetos.
Este enfoque fue desarrollado por Newell y Simón (1972) quienes, allá por la década
del cincuenta, con sus aportes al desarrollo de programas 'inteligentes' contribuyeron al
surgimiento del moderno paradigma cognitivo en el ámbito de la tradición psicológica de
raíz experimental.
A diferencia del conexionismo de Thorndike, en este enfoque se hace especial hincapié
en el estudio de los procesos que lleva a cabo la mente para resolver problemas y, a diferen-
cia de los psicólogos de la Gestalt, en el marco de este esquema teórico, se intenta lograr
una especificación detallada de los mecanismos mentales que intervienen en la solución,
lo cual, a la postre, habría de permitir su posterior modelización a través de un programa
de computadora. Claramente, el primero, precursor del conductismo moderno, ignoró por
completo los procesos mentales y, los segundos, precursores del cognitivismo contempo-
ráneo, definieron en forma más bien vaga los conceptos medulares de su teoría como, por
caso, el insight.
En una presentación clásica de esta teoría, Simón (1978) viene a caracterizar al resolu-
tor de problemas como un procesador esencialmente serial de información dotado de dos
sistemas de memoria: uno, de corto plazo con muy limitada capacidad aunque de acceso
fácil e inmediato y, otro, de largo plazo con una capacidad esencialmente ilimitada cuyos
contenidos se recuperan de forma un poco más lenta. Amén de ello, desde este enfoque se
considera que el problema a resolver tiene, por un lado, una estructura objetiva que puede
o no ser adecuadamente aprehendida por el resolutor y, por el otro, una representación
190
Lecciones de Psicología Cognitiva
(subjetiva) en la mente del resolutor. En la jerga de esta teoría, aquella estructura recibe el
nombre de 'entorno de la tarea' y, su contraparte subjetiva, el 'espacio problema'. Se supone
que, en la medida que el espacio problema refleje fielmente las características críticas de la
tarea, las probabilidades de resolver con éxito el problema serán más altas.
El concepto de 'espacio problema' es, sin duda, un constituyente medular del presente
esquema teórico, por cuanto se supone que el proceso mismo de solución tiene lugar en
el interior de este espacio mental. ¿Cuáles son las características fundamentales de este
espacio?
El espacio problema puede entenderse teóricamente como el conjunto de los 'estados
de conocimiento' logrados por el resolutor en un momento dado del proceso de solución.
Un estado de conocimiento simplemente representa aquello que el sujeto sabe acerca del
problema que tiene frente a sí. Los estados de conocimiento se van construyendo a medida
que avanza el proceso de solución mediante la aplicación de 'operadores' los que, según
el problema de que se trate, pueden tomar la forma de movimientos (Vg., en el ajedrez
cada vez que se ejecuta una jugada, se debe mover una pieza de un sitio a otro del tablero),
acciones (Vg., en un problema médico, la aplicación de rayos puede constituir un procedi-
miento apropiado para remover un tumor), procesos (Vg., inferir qué se sigue a partir de
un conjunto de datos de partida) o cualquier otro recurso que permita al resolutor avanzar
en su camino a la solución.
A partir del par conceptual 'estados-operadores', Newell y Simón proponen concebir
el espacio problema como un conjunto compuesto por nodos que vendrían a representar
los distintos estados de conocimiento logrados por el resolutor y flechas que, conectando
unos nodos con otros, vendrían a representar las operaciones que le permitirían al resolutor
pasar de un estado al otro. Desde esta perspectiva, el proceso de solución podría visualizar-
se como una búsqueda a través del espacio problema hasta dar con el nodo-objetivo que
representa el estado en el Cual el problema se encuentra solucionado. En otros términos,
la búsqueda de una solución podría entenderse como el pasaje de un estado a otro logrado
por la aplicación de operadores específicos. Es claro que esta forma de entender el proceso
de solución resulta perfectamente aplicable a los problemas bien estructurados puesto que
en ellos, como se recordará, tanto las metas como las operaciones posibles de realizar están
bien especificadas. No obstante, una cuestión todavía abierta es hasta qué punto este mo-
delo puede hacerse extensivo al caso de problemas mal definidos.
Para una mejor comprensión del concepto de espacio problema, considérese un pro-
blema ya clásico en literatura sobre solución de problemas: 'la Torre de Hanoi'. En este
problema, dadas tres posiciones A, B y C, el objetivo es trasladar una pila de discos que
se encuentran ordenados en forma decreciente según su tamaño, desde la posición A
hacia la posición C. Para lograr el objetivo, el resolutor puede mover un disco por vez
con la restricción de que nunca un disco de mayor tamaño puede estar colocado encima
de otro de menor tamaño. En la Figura 4.17a se representa el estado inicial y el estado
final del problema y, en la Figura 4.17b, el espacio total el cual comprende, además, los
191
Humberto. Fernández
Figura 4.17a
La Torre de Hanoi: el problema
192
Lecciones de Psicología Cognitiva
Desde luego que el cuadro puede complicarse agregando más discos al problema pues,
en ese caso, como resulta obvio, se agregan más rutas o caminos al espacio problema pero,
como solo uno de ellos conduce a la solución, la dificultad para resolverlo se incrementa
considerablemente. El punto es, ¿cómo hace el resolutor para encontrar el camino adecuado
entre los múltiples posibles?
De acuerdo a Newell y Simón, el resolutor dispone de dos tipos de estrategia para lograr la
solución de un problema: las algorítmicas, por un lado,, y las heurísticas, por el otro.
Las estrategias algorítmicas se caracterizan por ser procedimientos sistemáticos y exhaus-
tivos de exploración del espacio problema: se examinan todas las rutas o caminos posibles
hasta dar con aquella que conduce al estado en el cual el problema se encuentra resuelto.
Un ejemplo de este tipo de estrategia lo constituye el intento de resolver un anagrama
explorando, una a una, todas las posibles combinaciones de letras hasta dar con la o las com-
binaciones que forman una palabra de nuestra lengua. En el problema de la Torre de Hanoi,
esta estrategia tomaría la forma de una exploración a fondo de cada una de las rutas alterna-
tivas hasta dar con aquella que contiene la solución. En el ámbito cotidiano, una estrategia de
este tipo puede resultar útil cuando uno trata de encontrar un importante documento 'perdi-
do' en el interior de la oficina: revolver en todos los rincones posibles hasta encontrarlo.
La fortaleza de esta estrategia reside en que permite, sí o sí, alcanzar la solución. El
problema es que no todos los problemas admiten una solución algorítmica y que, además,
su implementación puede llegar a consumir muchísimo tiempo. En efecto, por un lado,
los problemas mal definidos no poseen algoritmos de solución por caso, ¿cuáles son los
caminos que inexorablemente conducen a mejorar la calidad de vida de una población? y,
por el otro, incluso con problemas bien definidos, una búsqueda algorítmica sería en ex-
tremo impracticable por caso, ¿cuánto tiempo se tardaría en analizar las posibles réplicas
y contrarréplicas de una jugada de ajedrez teniendo en cuanta que el número de jugadas
posibles asciende a varios cientos de miles? Es obvio que el jugador que emprendiera tal
analítico camino, ni aún analizando una jugada por segundo, podría terminar la partida por
más longevo que fuera.
Las estrategias heurísticas, por otro lado, se caracterizan por ser procedimientos no
exhaustivos de exploración del espacio problema lo cual significa que, en el curso de su
desarrollo, el resolutor sólo analiza un conjunto limitado de posibilidades de solución. Esta
característica lo convierte en un procedimiento de solución bastante ágil y, además, al reducir
notablemente el esfuerzo de procesamiento por parte del resolutor, sumamente llevadero.
La mayor desventaja que tiene esta estrategia es que no garantiza el éxito en la solución.
Vale decir, a diferencia del algoritmo, el heurístico es un procedimiento falible.
Los heurísticos habitualmente asumen la forma de reglas empíricas que, al resultar fun-
cionales a la solución de problemas de cierto tipo, rápidamente se incorporan al repertorio
herramental del resolutor. Ejemplos de heurísticos abundan por doquier en la vida cotidia-
na: soliviantar un mueble para facilitar su desplazamiento de un lugar a otro; presentar los
193
Humberto Fernández
cerámicos, antes de su colocación definitiva, para hacer resaltar posibles errores de diseño;
en una oficina, buscar el documento perdido primero en el sector que corresponde a su
categoría para luego intentar en otro sitios; mientras se maneja, echar continuos vistazos al
testigo de la temperatura para evitar posibles recalentamientos del motor. En el contexto de
los juegos y pasatiempos: en el juego de las tres en raya, ocupar siempre que sea posible el
casillero central para maximizar las probabilidades de ganar, en el juego de ajedrez, ubicar
los caballos fuera de los límites del tablero para así otorgarles mayores oportunidades de
desplazamiento; en un rompecabezas, agrupar las piezas por color antes de su armado para
así facilitar el descubrimiento de las formas ocultas.
Si bien es cierto que estos heurísticos son un tanto limitados en su aplicación, existen
otros que resultan ser procedimientos más generales y, por ello mismo, aptos para su apli-
cación en un amplio rango de problemas. Entre los heurísticos de alcance general, cabe
destacar los siguientes:
A) El análisis medios-fines. Es este un procedimiento muy versátil que, en esencia,
consiste en reducir progresivamente la diferencia existente entre el estado actual y el estado
deseado u objetivo final mediante la aplicación escalonada de operadores apropiados que, al
reducir dicha diferencia, van acerca nj > al resolutor a la meta final. La puesta en marcha de
este heurístico supone que el problema en sí no puede resolverse aplicándose en forma in-
mediata el operador adecuado. Por el contrario, resulta necesario que el resolutor emprenda
un camino más indirecto consistente en el establecimiento de objetivos subsidiarios cuya
consecución, mediante el empleo de operadores relevantes, permitirían un acercamiento
gradual al objetivo principal que es resolver el problema que tiene frente a sí. Luego, el
proceso canónico de aplicación de este heurístico constaría de los siguientes pasos:
i. Evaluar la diferencia inicialmente existente entre el estado actual y el estado u objetivo
final y, supuesto que el operador ideal no sea susceptible de aplicación inmediata, fraccio-
nar el problema principal en sub-problemas o, lo que es lo mismo, fijarse sub-objetivos
intermedios.
ii. Alcanzar dichos sub-objetivos proponiendo los medios adecuados lo cual implica
una reducción progresiva de la diferencia inicial hasta su eliminación punto en el que, el
problema principal quedaría resuelto.
194
Lecciones de Psicología Cognitiva
C) Trabajo hacia atrás. En problemas en los que, a partir del estado inicial, son múltiples
los caminos que pueden explorarse en aras de conseguir la solución, puede resultar práctico
encarar el proceso de solución comenzando por el estado final o meta y tratando de averi-
guar qué acontecimientos y procesos tuvieron que haber ocurrido para que se produzca el
resultado final conocido.
Un ejemplo de nuestra temprana infancia puede ilustrar cómo opera este heurístico:
para encontrar el camino correcto en el laberinto que se publica en la edición dominical
del diario, los niños pronto se percatan que es mejor empezar por el final y remontarse,
195
Humberto Fernández
4. Comentarios finales
196
Lecciones de Psicología Cognitiva
197
Lecciones de Psicología Cognitiva
Referencias
199
Humberto Fernández
Baddeley, A., Lewis, V. J. y Vallar, G. (1984). Exploring articulatory loop. Quarterly Journal
of Experimental Psychology, 36, 233-252.
Baddeley, A. y Lieberman, K. (1980). Spatial working memory. En R. Nickerson (Ed.), At-
tention and performance VIII (pp. 521-539). Hillsdale: Lawrence Erlbaum.
Baddeley, A., Thomson, N. y Buchanan, M. (1975):Word length and the structure of short-
term memory. Journal of Verbal Learning and Verbal Behavior, 14, 575-589.
Ballesteros Jiménez, S. (1994). Psicología General II: Un enfoque cognitivo. Madrid: Edito-
rial Universitas.
Barry, E. S. (2007). Does conceptual implicit memory develop? The role of processing
demands. Journal of Genetic Psychology, 168,19-36.
Bartlett, E (1932). Remembering. Cambridge: Cambridge University Press. Beato, M.
S. (1998). Relación entre emoción y memoria. Cognitiva, 10,1-2, 67-72.
Beck, A. J.; Shaw, B.; Bush, B. E y Emery, G. (1979). Cognitive therapy of depression. New
York:Wiley.
Berkeley, G. (1709/1980). Ensayo de una nueva teoría de la visión. Buenos Aires: Aguilar
(Trabajo original publicado en 1709).
Best, J. B. (2001). Psicología Cognitiva. Madrid: Paraninfo.
Bjork, E. L. y Bjork, R. A. (1988). On the adaptive aspects of the retrieval failure in au-
tobiographical memory. En M. M. Grueberg, P. E. Morris y R. N. Sykes (Eds.), Practical
aspects of memory: Current research and issues, Vol. 1 (pp. 283-288). Chichester: Wiley.
Bonatti, L. (1994). Propositional reasoning by model? Psychological Review, 101,725-733.
Bower, G. H. (1981). Mood and memory. American Psychologist, 36,139-148.
Bower, G. H. y Springston, E (1970). Pauses as recoding points in letter series. Journal of
Experimental Psychology, 83,421-430.
Bradley, B. P. y Morris, B. J. (1976). Emotional factors in forgetting. Part II Research Proj-
ect. Cambridge University Department of Experimental Psychology.
Braine, M.D. S. y O'Brien, D. P. (1991). A theory óf If: A lexical entry, reasoning program,
and pragmatic principies. Psychological Review, 98,182-203.
Broadbent (1958). Perception and communication. New York: Pergamon Press.
Brown, J. (1958). Some tests of the decay theory of immediate memory. Quarterly Journal
of Experimental Psychology, 10,12-21.
Bruce, V. y Green, P. R. (1992). Percepción visual. Manual de fisiología, psicología y ecología
de la visión. Barcelona: Paidós.
200
Lecciones de Psicología Cognitiva
201
Humberto Fernández
202
Lecciones de Psicología Cognitiva
203
Humberto Fernández
204
Lecciones de Psicología Cognitiva
205
Humberto, Fernández
Millet, G. A. (1956). The magical number seven, plus or minus two: Some limits on our
capacity for processing information, PsycholügicalReview, 63, 81-97.
Monserrat, J. (1998). La percepción visual. La arquitectura del psiquismo desde el enfoque
computacional. Madrid: Biblioteca Nueva.
Moray, N. (1959). Attention in dichotic listening: Affective cues and the influence of in-
structions. Quarterly Journal of Experimental Psychology, 11, 56-60.
Morgan, J. B, y Morton, J. T. (1944). The distortion of syllogistic reasoning produced by
personal convictions. Journal of Social Psychology, 20, 39-59.
Morris, C. D.; Bransford, J. D. y Franks, J. J. (1977). Levéis of processing versus transfer of
appropriate processing. Journal of Verbal Learning and Verbal Behavior, 16, 519-533.
Muter, P. (1980). Very rapid forgetting. Memory and Cognition, 8, 174-179.
Navon, D. y Gopher, D. (1979). On the economy of the human processing system. Psycho-
logical Review, 86,214-255
Neisser, U. (1967). Cognitive Psychology. New York: Appleton-Century-Crofts
Neisser, U. (1976). Cognition and reality. Principies and implications of cognitive psychol-
ogy. San Francisco: Freeman.
Neisser, U. y Becklen, R. (1975). Selective looking: Attending to visually specified events.
Cognitive Psychology, 7,480-494.
Newell, A. y Simón, H. A. (1972). Human problem solving. Englewood Cliffs: Prentice-
Hall.
Nickerson, R. S. (1965). Short-term retention for complex rneaningful visual configura-
tions: A demonstration of capacity. Canadian Journal of Psychology, 19,155-160.
Nieder, A. (2002). Seeing more than meets the eye: processing of illusory contours in ani-
máis. Journal ofComparative Physiology A, 188,249-260.
Norman, D. (1968). Toward a theory of memory and attention. Psychological Review, 75,
522-536.
Norman, D. y Shalüce, T. (1986). Attention to action. Willed and automatic control of be-
havior. En R. J. Davison, G. E. Schwartz y D. Shapiro (Eds.), Consciousness and self-regula-
tion, Vol. 4 (1-18). New York: Plenum Press.
Oakhill, J. V. (1982). Constructive processes in skilled and less skilled comprehenders'
memory for sentences. British Journal of Psychology, 54, 31-39.
Oakhi]l, J. V. yJohnson-Laird, P. N. (1985). The effect of belief on the spontaneous production
of syllogistic conclusions. Quarterly Journal of Experimental Psychology, 37A, 553-570.
206
Lecciones de Psicología Cognitiva
207
Humberto Fernández
Robbins, X; Anderson, E.; Barker, D.; Bradley, A.; Fearneyhough, C; Henson, R. y Bad-
deley, A. (1996). Working memory in chess. Memory and Cognition, 24, 83-93.
Roediger, H. L. (1990). Implicit memory. Retention without remembering. American Psy-
chologist, 45,1043-1056.
Roediger, H. L.; Gold, D. A. y Ceraci, L. (2002). Processing approaches to cognition: The
ímpetus from the levels-of-processing framework. Memory, 10, 319-332.
Roediger, H. L. y Me Dermott, K. B. (1993). Implicit memory in normal subjeets. En E
Boller yj. Gtafman (Eds.), Handbook of Neuropsychology, Vol. 8 (pp. 63-131). Amster-
dam: Elsevier, 1993.
Roediger, H. L., Weldon, M. S. y Challis, B. H. (1989). Explaining dissociations between
implicit and explicit measures of retention: A processing account. En H. L. Roediger y F. I.
M. Craik (Eds.), Varieties ofmemory and consciousness: Essays in honor ofEndel Tulving
(pp. 3-41). Hillsdale: Lawrence Erlbaum.
RuÍ7 Vargas, J. M. (1994). La memoria humana. Función y Estructura. Madrid: Alianza.
Rumelhart, D. E. (1980). Schemata: the building blocks of cognition. En R. J. Sapiro, B.
C. Bruce yWF. Brewer (Eds.), Theoretical issues in reading comprehension (pp. 33-58).
Hillsdale: Earlbaum.
Santamaría, C; Espino, O. y Byrne, R. M. (2005). Counterfactual and semifactual condition-
als prime alternative possibilities. Journal of Experimental Psychology: Learning, Memory,
and Cognition, 31,1149-1154.
Schacter, D. L. (1987). Implicit memory: History and current status. Journal of Experimen-
tal Psychology: Learning, Memory, and Cognition, 13, 501-508.
Schacter, D. L. (1992). Understanding implicit memory. A cognitive neuroscience approach.
American Psychologist, 47, 559-569.
Scheerer, M. (1963). Problem solving. Scientific American, 208,118-128.
Selfridge, O. G. (1959). Pandemónium: A paradigm for learning. En D. V. Blake y A. M.
Uttley (Eds.), Proceedings ofthe Symposium on Mechanization of Thought Processes (pp.
511-529). London: Her Majesty's Stationary Office.
Shafir, E. y Leboeuf, R. A. (2002). Rationality. Annual Review of Psychology, 53, 491-
517.
Shallice, T. (1982). Specific impairments of planning. Philosophical Transactions ofthe
Royal Society, London, B, 199-209.
Shepard, R. N. y Metzler, J. (1971). Mental rotation of three-dimensional objects. Science,
171, 701-703.
208
Lecciones de Psicología Cognitíva
209
Humberto Fernández
210
Lecciones de Psicología Cognitiva
Wertheimer, M. (1912). Experimentelle süidien über das sehen von bewegung. Zeitschrift
für Psycbologie, 61,161-265.
Wertheimer, M. (1945). Productive Thinking. New York: Harper.
White, B. (1960). Recognition of distorted melodies. American Journal ofPsychology, 73,
100-107.
Wickens, C. D. (1976). The effects of divided attention on information processing in track-
ing. Journal of Experimental Psychology: Human Perception and Performance, 2,1-13.
Wilkins, M. C. (1928). The effect of changed material on the abiüty to do formal syllogistic
reasoning. Archives ofPsychology, 16,1-83.
Woodworth, R. S. y Sells, S. B. (1935). An atmosphere effect in formal syllogistic reasoning.
Journal of Experimental Psychology, 18,451-460.
Yang, Y y Bringsjord, S. (2001). Mental metalogic: A new paradigm for psychology of
reasoning. En Proceedings ofthe Third International Conference on Cognitive Science,
pp. 199-204.
211