Está en la página 1de 35

MANUAL DE PSICOLOGÍA DE LA MEMORIA

JOSÉ MARÍA RUIZ-VARGAS

5
AVISO LEGAL: ESTA INFORMACIÓN PUEDE SER UTILIZADA PARA FINES EDUCATIVOS EXCLUSIVAMENTE
6
La memoria a largo plazo (I): Codificación,
organización y consolidación

Algo desconocido está haciendo no sabemos qué.

O
Arthur Eddington

IC
CT
6.1. Introducción: la memoria a largo plazo

Parece razonable suponer que, por ejemplo, cuando buscamos en la guía telefónica un
número, lo recordamos mientras lo marcamos e inmediata mente después lo olvidamos,
estamos usando un sistema de memoria distinto de cuando recordamos el número de
DI

nuestro propio teléfono. En el primer caso la información está siendo mantenida en el


sistema de memoria a corto plazo –cuyas propiedades y características han sido
estudiadas en el capítulo anterior–, mientras que en el segundo caso la información es
extraída de un sistema de memoria a largo plazo.
O

Cuando a alguien se le pregunta ¿qué es la memoria? o cuando las personas, en


US

general, hablan de la memoria, se están refiriendo a lo que los psicólogos llamamos


memoria a largo plazo (MLP). La idea de que la experiencia se va acumulando en
alguna forma de almacén permanente ha estado siempre presente en el pensamiento
humano; sin embargo, el estudio riguroso y sistemático de la estructura y los procesos
que rigen esa memoria a largo plazo no ha sido una realidad hasta hace relativamente
pocas décadas.
La memoria a largo plazo es extraordinariamente compleja. Para hacerse una idea de
su complejidad, basta con caer en la cuenta de que lo almacenado en sus diferentes
sistemas es todo lo que sabemos sobre el mundo y sobre nosotros mismos. Como se
decía en el Capítulo 1, cualquiera de nuestras actividades o conductas exige la
intervención de la memo ria. Gracias a los contenidos de la MLP podemos escribir y leer
páginas como ésta, reconocer a nuestros vecinos, las calles de nuestra ciudad o la casa
donde vivimos; podemos entender lo que los demás nos dicen y conversar con ellos;
montar en bicicleta, nadar, coser o tocar la guitarra; saber que Colón descubrió América,

195
que Cervantes escribió El Quijote, que el Kilimanjaro está en África, que el área de un
rectángulo se obtiene multiplicando la base por la altura o que la jirafa es un mamífero;
gracias a la MLP sabemos cuál es nuestro nombre, podemos recordar lo que hicimos el
pasado domingo por la tarde, con quiénes cenamos la última Noche Vieja, dónde
veraneamos hace cinco años, quién fue nuestro primer maestro y cómo nos divertíamos
con nuestros amigos de aquella primera escuela, o qué hemos desayunado esta mañana.
Pero nuestra idea de complejidad se hace aún mayor si tenemos en cuenta que, a
diferencia de los registros sensoriales y de la memoria a corto plazo, lo que la MLP
almacena dura virtualmente toda la vida.
En efecto, el proceso de almacenar información encuentra su verdadero sentido en
el nivel de la MLP. Como hemos podido comprobar en los dos capítulos anteriores, tanto
en la memoria sensorial como en la MCP el almacena miento es una característica
incidental o subsidiaria, algo temporal mientras ocurren otras cosas. La permanencia de
lo almacenado, sin embargo, es una propiedad exclusiva de la MLP.

O
Ahora bien, conviene señalar que la idea de que la duración de lo almacenado en la

IC
MLP es ilimitada tiene una base más empírica que experimental. Experiencias cotidianas
como la de encontrarnos con alguien que conocemos y no poder recordar en ese preciso
instante su nombre, pero un tiempo después recordarlo espontáneamente, han llevado a
CT
suponer que la información de la MLP no se pierde jamás y que el olvido en general
podría explicarse como un fallo para recuperar una determinada información en un

determinado momento. Es cierto que la investigación experimental sobre la duración de la
MLP es abundante, pero es igualmente cierto que casi todas esas investigaciones han
dejado espacios de tiempo relativamente cortos (del orden de minutos, horas, días,
DI

semanas o, como mucho y excepcionalmente, un año) entre el momento del aprendizaje


del material (la fase de estudio) y la prueba de memoria (la fase de test).
O
US

6.1.1. MLP tras intervalos de retención extraordinariamente largos

Existen, no obstante, estudios experimentales en los que el intervalo de retención ha sido


superior incluso a los cincuenta años. Uno de los estudios pioneros de este tipo fue el
realizado por Bahrick, Bahrick y Wittlinger (1975), considerado hace años como un
modelo de investigación sobre retención a muy largo plazo.
Estos investigadores evaluaron la memoria para nombres y caras de 392 graduados a
partir de la presentación de fotografías de personas que habían sido sus compañeros de
clase. El intervalo de retención desde la graduación varió desde 2 semanas a 57 años, lo
que permitió formar 9 intervalos y asignar a cada uno de ellos unos 50 sujetos. En primer
lugar, se les pidió una prueba de recuerdo libre, ya que debían confeccionar una lista con
todos los nombres que recordaran de sus antiguos compañeros de curso. A continuación,
fueron sometidos a una tarea de reconocimiento en la que, a partir de una selección de

196
fotografías del “libro de promoción” mezcladas aleatoriamente con otras fotografías de
personas desconocidas, debían identificar a sus antiguos compañeros. La tercera tarea –
también de reconocimiento– consistió en identificar nombres. La cuarta y la quinta
exigían emparejar fotografías con nombres y nombres con fotografías, respectivamente.
Por último, los sujetos debían recordar el nombre de sus compañeros a partir de sus
fotografías.
Los resultados pusieron de manifiesto que el nivel de reconocimiento para las caras
de los antiguos compañeros de clase era sorprendentemente alto (casi un 94% después de
34 años), mientras que el reconocimiento de nombres y el empareja miento de nombres
declinaban después de 15 años. La capacidad para emparejar nombres con caras y el
reconocimiento de fotografías se mantenía casi invariable durante un período muy largo
(casi un 90% hasta el intervalo de 34 años). Estos datos del grupo de Bahrick confirman
la idea de la sorprendente longevidad de la memoria a largo plazo al tiempo que
demuestran que, en concreto, la memoria de reconocimiento es extremadamente fiel tras

O
larguísimos períodos de tiempo.

IC
CT
6.1.2. La lógica de la memoria: Codificación, almacenamiento y recuperación

Asumiendo, pues, el hecho comprobable de que en nuestra MLP podemos almacenar
cantidades ilimitadas de información que puede permanecer re tenida por tiempo
DI

indefinido y que puede ser utilizada cuando convenga, nos encontramos de inmediato
con la necesidad de postular la existencia de diferentes procesos que hagan posibles tales
operaciones. Melton (1963) sugirió que el funcionamiento de la memoria dependía de al
menos tres fases: la codificación, el almacenamiento y la recuperación.
O

La codificación se refiere al procesamiento de la información entrante para que


pueda ser almacenada. El proceso de codificación incluye, a su vez, dos procesos
US

separados: la adquisición y la consolidación. La adquisición implica registrar los inputs


de las memorias sensoriales y someter dicha información a diferentes análisis; la
consolidación, por su parte, consiste en un proceso de creación de representaciones o de
“huellas de memoria” cada vez más fuertes. El resultado de la adquisición y la
consolidación es el almacenamiento, que supone mantener o retener a través del tiempo
un registro permanente de tales huellas. En sentido estricto, el término “almacenamiento”
no describe realmente ningún proceso, sino que se refiere sencillamente al estado de la
información que ha sido codificada. Por último, la recuperación es el proceso que
permite extraer información almacenada para utilizarla en el momento actual.
Cualquier sistema de memoria, sea biológico o artificial, necesita hacer bien tales
operaciones para funcionar eficazmente. En efecto, para que algo pueda ser almacenado
en la memoria resulta imprescindible transformar previamente los estímulos sensoriales
en representaciones asimilables por los sistemas de memoria. Es decir, los inputs

197
estimulares tienen que ser codificados para poder ser almacenados. Pero, además, para
que la in formación almacenada pueda ser recuperada en cualquier momento posterior,
resulta absolutamente necesario que el almacenamiento se ajuste a determinadas re glas
de organización. No tendría ningún sentido guardar la información sin orden ni concierto
y que cada vez que necesitáramos recuperar algo tuviésemos que revisar una por una
todas las huellas almacenadas. Además de antieconómica, dicha situación no nos
garantizaría nunca de antemano que el proceso de recuperación fuera a tener éxito. Sin
embargo, como la propia vida cotidiana nos demuestra continuamente, resultan
excepcionales las ocasiones en que tenemos dificultad para recordar algo. Sólo en
contadas ocasiones una persona sana dice “No me acuerdo, se me ha olvidado”. Lo
habitual –y tal vez por ello no le damos la importancia que se merece– es recuperar la
información que necesitamos en cualquier momento del día con sorprendente facilidad y
rapidez. Todo lo cual nos sugiere que la recuperación no es un proceso ni fortuito ni
incontrolado y que la MLP es un sistema de memoria altamente organizado.

O
El funcionamiento adecuado de la memoria depende, pues, de diferentes procesos –

IC
los señalados son sólo los básicos–. No obstante, aunque todos ellos resultan necesarios,
los investigadores no dudan en destacar la importancia crucial de la codificación y de la
recuperación, haciendo especial hincapié en la interacción entre ambos. Como veremos
CT
en el próximo capítulo (donde serán tratados en profundidad los procesos de
recuperación), una vez que los investigadores crearon las condiciones para estudiar

directamente la recuperación, se impuso la idea de que tales procesos están
inextricablemente unidos a los de codificación.
Por razones puramente organizativas, nosotros analizaremos los procesos de
DI

codificación y de recuperación separadamente, aunque su ineludible relación estará


presente con frecuencia. Este capítulo lo dedicaremos a exponer, en primer lugar, las
ideas básicas sobre los procesos de codificación, para hacer lo mismo a continuación con
procesos igualmente fundamentales como la organización y la consolidación.
O
US

6.2. Procesos de codificación

La experiencia nos enseña que nuestra capacidad para recordar algo depende de lo que
hayamos hecho cuando nos llegó la información correspondiente. En otras palabras,
nuestros procesos de recuperación actuales tendrán éxito si, en su momento, codificamos
adecuadamente lo que ahora queremos recordar. Estamos hablando de “recordar” y,
como veremos más adelante, ese tipo de recuperación implica un esfuerzo consciente y
explícito por evocar algo del pasado. Esta observación resulta muy oportuna en estos
momentos porque la investigación que será discutida en esta sección sobre “procesos de
codificación” será investigación realizada exclusivamente con tests o pruebas de memoria
explícita. La razón no es otra que el hecho de que tradicionalmente la codificación ha

198
sido abordada experimentalmente con diseños y tareas que requieren una recuperación
explícita. Hacemos esta observación porque, como tendremos oportunidad de discutir
cuando estudiemos los procesos de recuperación, las pruebas de memoria implícita
podrían regirse por reglas diferentes a las de memoria explícita.
La memoria explícita llena gran parte de nuestra vida cotidiana. Cada vez que nos
encontramos con algún conocido se establece de inmediato entre nosotros una relación
especial gracias a lo que nos contamos o, más exactamente, gracias a que compartimos
nuestros recuerdos. Las relaciones personales dependen sobremanera de nuestra
tendencia a compartir con los otros nuestras experiencias pasadas, algo que hacemos
contando historias de nuestra vida. Historias que incluyen desde eventos de enorme
trascendencia, como haber encontrado un buen trabajo o sufrir una desgracia, a eventos
de una importancia relativa o poco trascendente, como dónde hemos estado veraneando
o si asistimos ayer a clase de Psicología de la memoria.
Esta mañana, me encontré con mi amigo Luis y, tras saludarnos, me preguntó por

O
las vacaciones. “Excelentes”, le he dicho. “He pasado la mayor parte de ellas en la

IC
playa”. Al hacer referencia a “la playa”, he recordado con toda claridad el lugar exacto
donde estuve, el color y la textura de la arena, el aspecto del mar, sus movimientos y su
sonido; el sol brillante de las mañanas y abrasador de las tardes; los movimientos y el
CT
ruido de la gente, la policromía de sus bañadores y el olor de los bronceadores; la sed de
algunos momentos y el placer de saborear una cerveza bien fría; la habitación del hotel

donde me hospedaba, las caras de los empleados y un montón de cosas más.
¿Qué condiciones han hecho posible esos recuerdos? Cuando me encontraba de
vacaciones, debieron de tener lugar en mi memoria ciertos cambios: la codificación y el
DI

almacenamiento de los sucesos que he recordado. Cuando me encontraba en la playa, los


recuerdos fueron retenidos y ahora, cuando mi amigo me ha preguntado por mis
vacaciones, ha sucedido algo que me ha llevado a recuperar tales recuerdos.
Ya hemos insistido en la interconexión existente entre codificación, alma cenamiento
O

y recuperación, aunque ahora lo que quizás interesa resaltar es la idea de que la


US

codificación es una condición imprescindible para el almacenamiento y el recuerdo.


Como ya se ha dicho, la función de la codificación es almacenar información para su uso
posterior. Ahora bien, en el momento en el que se produce la codificación no pueden
predecirse completamente las circunstancias en las que tendrá que producirse la
recuperación. ¿Cómo es posible, entonces, encontrar la información necesaria para
responder a la pregunta de mi amigo si tal pregunta no estaba prevista cuando se registró
la información sobre mis vacaciones? Parece lógico suponer que el sistema humano de
memoria ha evolucionado para poder codificar una amplia gama de características de un
suceso, cualquiera de las cuales nos puede llevar a recuperar un recuerdo. Por ejemplo,
el sonido del mar, el calor del sol, el olor de una crema solar o la presencia de un bañador
podrían –lo mismo que ocurrió con la palabra “playa”– recordarme mis vacaciones junto
al mar. Durante mis vacaciones en la playa, la codificación de mis experiencias tuvo que
haber sido llevada a cabo de tal modo que la recuperación pudiera tener éxito siguiendo
las rutas que marcarán todas o cada una de las claves mencionadas. Resulta, pues,

199
incuestionable que la codificación es vital para el recuerdo futuro. Pero, ¿cómo se
produce la codificación?

6.2.1. Niveles de procesamiento

Para cualquier estudioso de la memoria, resulta fácil comprobar que gran parte de la
investigación sobre los procesos de codificación se ha realizado bajo la influencia de la
hipótesis de los niveles de procesamiento de Craik y Lockhart. Como se expuso en el
Capítulo 3, estos autores argumentaron que la memoria depende de las actividades de
procesamiento que se aplican a la información entrante. En otras palabras, que la calidad
de lo recordado dependerá de cómo se haya procesado la información en el momento de

O
la codificación.
Como se recordará, Craik y Lockhart formularon cuatro supuestos básicos. Primero,

IC
las huellas de memoria son el resultado de una serie de análisis de la información que
llega, con la particularidad de que tales análisis están jerarquizados en diferentes niveles
CT
de procesamiento de modo que cada uno es más profundo que el anterior. Segundo,
cuanto más profundo sea el procesamiento, más duraderas serán las huellas de memoria
y, en consecuencia, habrá mayor retención. Tercero, el buen rendimiento de la memoria

no depende de repetir una y otra vez la información, sino que está determinado por la
mayor profundidad de los análisis, de lo que se deriva que el repaso es relativamente
DI

importante. El cuarto y último supuesto es de naturaleza metodológica y tiene que ver


con el modo como debe ser estudiada la memoria; en concreto, estos autores
argumentaron que la memoria debería ser investigada en condiciones de aprendizaje
incidental.
O

Para los propósitos de este capítulo sobre codificación, resultan especialmente


relevantes las ideas contenidas en el tercer y cuarto supuesto; en consecuencia,
US

analizaremos algunas cuestiones relativas al papel del repaso en la codificación así como
la pertinencia del paradigma de aprendizaje incidental para el análisis de ese proceso.

6.2.2. Repaso de mantenimiento y repaso elaborativo

La experiencia nos enseña que la práctica mental que supone repasar algo mejora el
recuerdo posterior de ese algo. En el contexto de la psicología de la memoria, el concepto
de repaso debe diferenciarse de otro concepto estrechamente relacionado, la repetición.
Aunque es frecuente utilizarlos de un modo intercambiable, se recomienda diferenciarlos
porque, en sentido estricto, significan cosas diferentes. La repetición se refiere al hecho
de que un ítem aparezca o se experimente más de una vez, mientras que el repaso se

200
refiere al proceso de pensar o trabajar mentalmente con un ítem.
Para argumentar que el rendimiento de la memoria no depende de la cantidad de
repaso sino del nivel de profundidad al que se analice un ítem, Craik y Lockhart
distinguieron dos tipos de procesamiento: procesamiento Tipo I o repaso de
mantenimiento, y procesamiento Tipo II o repaso elaborativo.
El repaso de mantenimiento (procesamiento Tipo I) es un tipo superficial y
repetitivo de reciclaje de la información. Es el tipo de repaso al que generalmente
recurrimos para retener un número de teléfono durante el intervalo que va desde que lo
miramos en la guía telefónica hasta que lo marcamos. Lo esencial aquí es que, una vez
que dejamos de repasar tal información, se pierde sin dejar un rastro permanente en la
memoria. El repaso elaborativo (procesamiento Tipo II), por el contrario, es un tipo más
complejo de repaso que toma como base el significado de la información para procesarla
más profundamente cada vez, hasta un nivel en el que entra en contacto con otros
significados ya almacenados en la memoria. En consecuencia, este material más

O
elaborado será mejor recordado. El repaso elaborativo es el que llevamos a cabo, por

IC
ejemplo, cuando tratamos de construir frases con las palabras de una lista que queremos
aprender, o cuando intentamos aprendernos un número de teléfono asociando cada cifra
o cada par de cifras con fechas históricas o números que nos son familiares, porque
CT
sabemos que de esa manera estamos garantizando el recuerdo posterior de esas
informaciones.

Lo controvertido de este supuesto es que implica que existe un tipo de repaso (el
Tipo I o de mantenimiento) que no mejora la retención a largo plazo. Aunque existen
datos que apoyan esta opinión, otros demuestran que el repaso de mantenimiento sí tiene
DI

efectos beneficiosos sobre la MLP 1. Por tanto, parece más apropiado hablar de un
continuo entre ambos tipos de repaso que de una dicotomía; aunque no hay que olvidar
que el repaso de mantenimiento mejora mucho menos la retención a largo plazo que el
repaso elaborativo. Así pues –y, hasta cierto punto, en línea con la idea de Craik y
O

Lockhart–, puede resultar útil mantener cierta distinción entre estos dos tipos de repaso.
US

6.2.3. Aprendizaje incidental versus aprendizaje intencional

En condiciones de aprendizaje incidental el sujeto no sabe que el material que está


procesando será evaluado más tarde, por lo que se limita a procesarlo siguiendo las
sugerencias del experimentador. Craik y Lockhart recomendaron investigar la memoria
con procedimientos de aprendizaje incidental precisamente porque en tales condiciones el
experimentador tiene control sobre el procesamiento que el sujeto aplica al material, algo
que no se produce en condiciones de aprendizaje intencional, donde el sujeto es
instruido para que aprenda una determinada información y éste utiliza una estrategia de
codificación desconocida.

201
Por tanto, lo que distingue básicamente el aprendizaje incidental del aprendizaje
intencional es la naturaleza de las instrucciones que se dan a los sujetos. Cuando no se
les informa que tras la presentación del material se les administrará un test de memoria,
se trata de una condición de aprendizaje incidental; cuando sí se les informa previamente,
se trata de una condición de aprendizaje intencional.
Por ejemplo, en una tarea típica de aprendizaje intencional, el experimentador dirá
a los sujetos algo así: “Esto es una prueba de memoria. A continuación os voy a leer una
lista de palabras. Es muy importante que prestéis atención ya que después deberéis
recordar el mayor número posible de estas palabras”. Una vez presentada la lista, y tras
el correspondiente intervalo de retención, se pasa a la prueba de recuerdo o de
reconocimiento anunciada. Por otra parte, en una tarea de aprendizaje incidental las
instrucciones recibidas por los sujetos podrían ser éstas: “Esto es un experimento sobre
vuestro juicio acerca de una serie de palabras. En concreto, se trata de que, a medida que
os vaya leyendo la lista de palabras que tengo aquí, vayáis juzgando si cada una de ellas

O
os resulta agradable o desagradable. Si una palabra tiene un significado agradable para

IC
vosotros, debéis poner una A en vuestra hoja de respuestas, y si tiene un significado
desagradable, debéis poner una D. Por favor, prestad atención a cada palabra”.
Terminada esta tarea, se les administra una prueba de retención (recuerdo o
CT
reconocimiento) de las palabras presentadas y juzgadas.
Así pues, en condiciones de aprendizaje incidental, se presenta a los sujetos el

material relevante pero no se les dan instrucciones para aprender. Esto implica que los
sujetos deben realizar algún tipo de tarea de orientación que les llevará a dirigir su
atención al material presentado y que más tarde será objeto del test acerca del cual no se
DI

les ha dado ninguna información. De este modo, el experimentador tiene un cierto control
sobre la naturaleza del procesamiento de la información realizado por el sujeto, lo que
permite comparar la retención subsiguiente a diferentes tipos de tareas de orientación, así
como entre condiciones de aprendizaje incidental y aprendizaje intencional.
O

En general, la investigación experimental ha puesto de manifiesto la ausencia de


US

diferencias en memoria entre condiciones de aprendizaje incidental e intencional, lo que


sugiere que la intención de aprender no es necesariamente una variable relevante en la
investigación de la memoria. Postman (1964) señaló con toda claridad que la variable
crítica que determina lo que se aprende y lo que se recuerda no es la intención de
aprender per se, sino “las respuestas” que da el sujeto en la situación de aprendizaje.
Sin embargo, esta “teoría de la respuesta” de Postman –con fuertes reminiscencias
conductistas– tropieza con un problema extremadamente difícil: identificar las hipotéticas
respuestas producidas por una tarea de orientación determinada. Sin embargo, desde un
planteamiento cognitivo, la explicación del hecho repetidamente comprobado de que,
generalmente, no hay diferencias en memoria entre grupos de aprendizaje incidental e
intencional cuando ambos grupos realizan la misma tarea de orientación, permite concluir
–como hiciera Michael Eysenck (1982a)– que el rendimiento mnemónico no está
determinado por la intención de aprender sino por la naturaleza de las actividades de
codificación realizadas por el sujeto.

202
En suma, la investigación demuestra que la memoria (tanto de recuerdo como de
reconocimiento) está determinada por el modo como los sujetos codifican el input,
mientras que la intención de aprender parece tener una mínima importancia (a lo sumo,
un efecto marginal sobre el recuerdo y un mínimo o nulo efecto sobre el
reconocimiento). A continuación veremos cómo en condiciones de aprendizaje incidental
un experimentador puede producir, con una tarea concreta de orientación, un rendimiento
de memoria similar al que obtiene un grupo de sujetos en condiciones de aprendizaje
intencional.

6.2.4. Códigos estructurales, códigos semánticos e intencionalidad

O
James Jenkins y su grupo de investigación realizaron los primeros experimentos que
parecían apoyar muchos de los postulados de la propuesta teórica de los niveles de

IC
procesamiento, incluyendo que todos los códigos no son igual de útiles, o la importancia
relativa de la intencionalidad.
CT
En uno de tales experimentos, Hyde y Jenkins (1969) presentaron la misma lista de
24 palabras a 7 grupos de sujetos. Las condiciones experimentales de cada grupo diferían
en cuanto a las instrucciones recibidas: tres grupos realizaron la prueba en condiciones de

aprendizaje incidental, otros tres en condiciones de aprendizaje intencional y el séptimo
grupo fue de control. Cada uno de los grupos tanto de aprendizaje incidental como de
DI

aprendizaje intencional realizó una de las siguientes tareas de orientación: 1) juzgar las
palabras como agradables-desagradables, 2) detectar qué palabras contenían la letra “E”
y 3) estimar el número de letras de cada palabra. En la fase de test, y sin previo aviso, a
los tres grupos de aprendizaje incidental se les pidió que recordasen las palabras que
O

habían estudiado. A los grupos de aprendizaje intencional se les dijo al inicio de la prueba
que al final se les pasaría una prueba de recuerdo. Al grupo de control se le pasó una
US

prueba típica de recuerdo libre: presentación de las palabras (sin tarea de orientación) y
recuerdo posterior.
Según Hyde y Jenkins, parece correcto suponer que la tarea agradable-desagradable
exige extraer el significado de las palabras o, lo que es lo mismo, codificar
semánticamente tales palabras, mientras que las otras dos tareas sólo exigen procesar las
características estructurales de las palabras. En el Cuadro 6.1, aparece el rendimiento de
los siete grupos, que refleja una clara discontinuidad entre el nivel de recuerdo
subsiguiente a la tarea de orientación semántica y el subsiguiente a las dos tareas de
orientación estructural (no semánticas). En resumen, los resultados de los seis grupos
experimentales sugieren al menos dos cosas. Primero, que cuando la tarea de orientación
requiere codificar el significado de las palabras, el recuerdo es mucho mejor que cuando
la tarea sólo implica codificar la estructura de las mismas; y, segundo, que la intención
explícita de aprender apenas produce diferencias (sólo apareció una ligera ventaja de la

203
intencionalidad en la tarea “número de letras”). Parece, por tanto, que es la naturaleza de
la tarea de orientación la que determina la forma del código que se retiene en la memoria
y que cuanto más se acerca dicho código al nivel semántico mejor será el recuerdo. En
cuanto al grupo de control, hacer notar que su rendimiento fue equivalente al de los dos
grupos que realizaron la tarea de codificación semántica.

Cuadro 6.1. Recuerdo promedio como una función del grupo de aprendizaje y de la tarea de orientación
(adaptado de Hyde y Jenkins, 1969, exp. 1)

Grupo Palabras recordadas (máximo 24)


APRENDIZAJE INCIDENTAL 1. Tarea
16,3

O
agradable-desagradable
2. Tarea detección de “E” 9,4

IC
3. Tarea número de letras 9,9
APRENDIZAJE INTENCIONAL
1. Tarea agradable-desagradable
2. Tarea detección de “E”
CT 16,6
10,4

3. Tarea número de letras 12,4
Recuerdo sin tarea de orientación (grupo de
16,1
control)
DI

En trabajos posteriores, Hyde y Jenkins (1973) corroboraron estos resultados, que


O

han sido considerados por bastantes autores como una prueba clara en apoyo de la idea
US

central de la propuesta de los niveles de procesamiento de que cuanto más profundos son
los análisis más duraderas y recuperables son las huellas de memoria. Sin embargo, el
propio Jenkins (1974, p. 17) expresó ciertas dudas al respecto cuando escribió: “Soy afín
a su suposición (la de Craik y Lockhart), pero me cuesta creer que las cosas sean tan
simples como ellos postulan”.
Y es que, si bien en los trabajos de Jenkins y sus colaboradores se asume que una
tarea de orientación semántica produce un buen recuerdo porque produce información
sobre el significado de la palabra que se activa, esta explicación deja sin contestar muchas
cuestiones. Por ejemplo, no dice nada sobre lo que sucede cuando se “activa” en la
memoria la información sobre el significado de una palabra, ni cómo todo eso termina en
un buen recuerdo.
Es un hecho denunciado por muchos investigadores que la propuesta de los niveles
resultó vaga e imprecisa desde el principio. Por ejemplo, está comprobado
empíricamente que la palabra tiburón se recuerda mejor cuando se presenta con la

204
pregunta “¿La siguiente palabra es un animal?” que cuando se presenta con la pregunta
“¿Rima la siguiente palabra con camión?”. Pero, ¿por qué ocurre esto, cuál es la
explicación de este resultado? La respuesta típica ha sido ésta: porque la primera
condición implica un nivel más profundo de procesamiento. Sin embargo, dicha respuesta
plantea esta otra cuestión ¿cómo sabemos que la primera condición lleva a un
procesamiento más profundo que la segunda? Y aquí no parece haber más que una
respuesta: “Porque la primera condición produce un mejor recuerdo”. En resumen, si el
recuerdo (o el reconocimiento) es bueno, la tarea habrá requerido un procesamiento
profundo, y, si el recuerdo es malo es porque el ítem sólo ha sido procesado a un nivel
superficial.
Una argumentación así, donde la profundidad de los análisis es inseparable del
rendimiento de la memoria, puso de manifiesto algo tan preocupante como que la
propuesta de Craik y Lockhart carecía de una medida objetiva de la “profundidad del
procesamiento”. El hecho de utilizar la mejor retención para estimar la profundidad de

O
procesamiento y al mismo tiempo utilizar la profundidad del procesamiento para explicar

IC
la mejor retención ponía de manifiesto que la definición de “profundidad” no sólo era
vaga sino, por encima de todo, circular. Y una definición circular no es una definición en
absoluto. Esta circularidad fue criticada por diferentes investigadores a finales de la
CT
década de 1970 y reconocida por los propios Lockhart y Craik (1978) “como algo
inherente al enfoque de los niveles de procesamiento”.

DI

6.2.5. La búsqueda de una medida independiente de profundidad

El problema de la falta de una definición científicamente aceptable de los niveles de


O

procesamiento, justo es reconocerlo, ya había sido advertido unos años antes por sus
proponentes. En 1975, Craik y Tulving publicaron un extenso trabajo experimental en
US

cuyos objetivos se incluía producir una definición de “pro fundidad” independiente de


sus efectos sobre la retención. Este trabajo, además, ha sido considerado como la
primera prueba diseñada especialmente para evaluar de forma experimental el enfoque de
los niveles de procesamiento.
El procedimiento general fue el siguiente: a los sujetos se les decía que iban a hacer
unos experimentos sobre percepción y velocidad de reacción. En cada ensayo se hacía
una pregunta y, a continuación, se presentaba una palabra durante 200 milisegundos. Las
preguntas, a las que había que responder SÍ o NO, estaban diseñadas, como en cualquier
tarea de orientación, para inducir al sujeto a procesar la palabra a un determinado nivel
de análisis. En el Cuadro 6.2, se presentan los tipos de preguntas y el nivel de
procesamiento que producirían. Así, pues, desde la perspectiva del sujeto, el
procedimiento consistía en escuchar una pregunta, ver una palabra y responder, lo más
rápidamente posible, apretando el botón de “sí” o el botón de “no”. Este procedimiento

205
permitía al experimentador medir tanto la exactitud como la latencia de las respuestas.
Después de un elevado número de ensayos, y sin previo aviso (aprendizaje incidental), se
pasaba a los sujetos una prueba de retención (en unos casos era una prueba de
reconocimiento y en otros de recuerdo) sobre las palabras procesadas en la fase de
estudio.

Cuadro 6.2. Ejemplos de preguntas y respuestas utilizadas en diferentes niveles de procesamiento (adaptado de
Craik y Tulving, 1975)

O
IC
CT

DI

La predicción general era que las preguntas de los niveles más profundos exigirían
más tiempo para responderse, pero producirían una huella de memoria más elaborada
que, a su vez, daría lugar a un rendimiento superior tanto en reconocimiento como en
O

recuerdo. Los cuatro primeros experimentos de Craik y Tulving confirma ron claramente
US

dicha predicción y llevaron a los autores a considerar el tiempo emplea do en el


procesamiento como un criterio objetivo de la profundidad (ver Figura 6.1). Sin
embargo, también encontraron en los resultados de esos primeros experimentos algunos
aspectos inconsistentes con la formulación en términos de profundidad de procesamiento.
En concreto, comprobaron que las palabras a las que se había dado una respuesta
afirmativa se reconocían y recordaban mejor que aquellas a las que se había dado una
respuesta negativa, aunque los tiempos de reacción de unas y otras eran idénticos. Ante
tal hallazgo, plantearon dos hipótesis: o el tiempo de reacción no constituye un índice
adecuado de la profundidad de pro cesamiento, o la profundidad no predice bien la
retención posterior.

206
O
IC
CT

Figura 6.1. Resultados típicos obtenidos en el Trabajo de Craik y Tulving (1975).


DI

Para contrastarlas, llevaron a cabo un nuevo experimento en el que administraron a


los sujetos dos tareas: una superficial pero difícil y que requería mucho tiempo, como
decidir si una palabra se ajustaba a un patrón determinado de vocales (V) y consonantes
O

(C) (e.g., “¿Se ajusta la siguiente palabra a la configuración CVCCV?” – PRIMO), y una
US

semántica fácil que requería poco tiempo (e.g., “¿Encaja la siguiente palabra en esta
oración?: El hombre lanzó el balón al …” – NIÑO). Los resultados fueron muy claros: la
tarea superficial (no semántica), a pesar de que consumía más tiempo, daba lugar a un
reconocimiento inferior. Por tanto, el tiempo empleado en realizar la tarea de orientación
no ofrecía un índice directo de la profundidad, y se confirmaba que era la profundidad
del procesamiento lo que determinaba el rendimiento de la memoria.

6.2.6. Elaboración, congruencia y distintividad

La búsqueda de una medida directa de la profundidad de procesamiento llevó a Craik y


Tulving al descubrimiento de fenómenos no previstos que llegaron a significar nuevos

207
problemas para la propuesta original de los niveles, aunque, al mismo tiempo, propiciaron
el de -sarrollo de nuevas ideas y, en definitiva, el enriquecimiento de dicha propuesta
teórica. En concreto, el Experimento 7 arrojó unos resultados difícilmente conciliables
con la idea original de la existencia de un continuo de profundidad entre los diferentes
niveles. En dicho experimento todas las tareas implicaban un nivel semántico de
procesamiento, dado que todas ellas consistían en decidir si una palabra encajaba en un
marco oracional, con la particularidad de que el diseño incluía tres niveles de complejidad
para los marcos oracionales. He aquí algunos ejemplos:

– Complejidad baja: “Ella cocinó…”; “La… está rota”.


– Complejidad media: “El… asustó a los niños”; “La… madura estaba deliciosa”.
– Complejidad alta: “El gran pájaro descendió en picado y se llevó al
combativo…”; “La pequeña dama cogió airadamente la… roja”.

O
IC
Los resultados pusieron de manifiesto un incremento sistemático del recuerdo en
función de la complejidad del marco oracional. En concreto, y considerando solamente el
recuerdo de las palabras a las que se había respondido SÍ, la proporción de palabras
CT
recordadas que encajaban en oraciones complejas fue el doble de las obtenidas con las
palabras que encajaban en oraciones simples. Craik y Tulving entendieron que estos

resultados reflejaban los efectos del grado de elaboración de los marcos oracionales. Sin
embargo, no era fácil interpretar tales resultados a la luz de la propuesta de los niveles de
procesamiento, por una razón muy clara: en este experimento, todas las palabras habían
DI

sido analizadas en el mismo nivel (semántico). Craik y Tulving llegaron a la conclusión de


que los resultados de este experimento eran compatibles con los obtenidos en los cuatro
primeros experimentos si se admitía la acción de dos mecanismos: las tareas de
orientación con diferentes niveles de análisis afectarían a la naturaleza cualitativa de la
O

huella de memoria (como habían predicho Craik y Lockhart, 1972), mientras que las
US

diferencias producidas en el mismo nivel de pro cesamiento (Experimento 7) se deberían


a diferencias en la elaboración de la huella de memoria.
Este planteamiento supuso introducir una modificación en la hipótesis de 1972, que,
a partir de ahora, debería tener en cuenta que una vez que se alcanza un determinado
nivel de procesamiento, la retención es una función del grado de elaboración del
estímulo, entendiendo por elaboración la riqueza o amplitud de la codificación dentro
de un dominio específico. En efecto, el grupo de investigadores relacionado directamente
tanto con la propuesta teórica de los niveles como con su contrastación experimental2
reconoció la dificultad para interpretar los nuevos datos dentro de dicho marco teórico,
modificó algunas de las ideas originales y propuso que sería más apropiado referirse a
dominios de codificación que a un continuo entre niveles de profundidad. En palabras de
algunos de estos investigadores, “los dominios podrían considerarse como una
organización jerárquica que iría desde los dominios superficiales y estructurales a los
dominios profundos y semánticos” (Lockhart et al., 1976, p. 78). En tal sentido, los

208
estímulos podrían ser analizados o elaborados mediante operaciones adicionales dentro
de un continuo cualitativamente coherente. No obstante, el concepto de “profundidad”
no desapareció por completo en esta reformulación, ya que se siguió manteniendo la idea
de que para que comience un procesamiento semántico es necesario algún procesa
miento previo en el dominio estructural.
Por otra parte, se señaló que el grado de elaboración parece depender del nivel de
congruencia entre el marco oracional y la palabra. Como se ha indicado un poco más
arriba, el incremento del recuerdo en función de la complejidad del marco oracional sólo
se produjo con las palabras a las que se había respondido afirmativamente. De hecho, el
hallazgo de que las palabras a las que se había respondido “sí” se reconocían y
recordaban significativamente mejor que aquéllas a las que se había respondido “no”, se
había producido sistemáticamente en todos los experimentos anteriores. Éste era también
un hallazgo imprevisto en el enfoque de los niveles de procesamiento, de modo que Craik
y Tulving recurrieron al concepto de congruencia de Schulman (1971) para interpretar

O
las diferencias entre respuestas positivas y negativas. Esta idea de congruencia se refiere

IC
a que en los casos en que se responde afirmativamente, la palabra y el marco oracional
(o la pregunta, en general) son semánticamente congruentes, lo que permite que los
contextos de codificación creados por ambas se combinen y formen una única huella de
CT
memoria coherente y elaborada que, consecuentemente, será mejor recordada.
Sin embargo, aquí no se acababan los problemas teóricos, ya que, dentro de un

dominio específico de procesamiento, la noción de elaboración no es suficiente para
comprender el rendimiento de la memoria. Es decir, el hecho de que una huella contenga
más información que otra no basta para que se recuerde mejor. Como demostraron
DI

Jacoby y Craik (1979), un mayor grado de elaboración del estímulo garantiza una mejor
retención no porque se produzca un cambio cuantitativo en la codificación, sino porque
ese proceso de añadir más información permitirá la formación de una huella más
distintiva y, por tanto, más fácil de discriminar. Así pues, se sugirió que la distintividad
O

es el factor crucial subyacente al efecto de la elaboración. O, como señaló Winograd


US

(1981), existe una correlación inherente entre elaboración y distintividad, en el sentido de


que la elaboración sólo será eficaz si produce una codificación distintiva.
Eysenck (1979), por su parte, definió como distintiva aquella huella que comparte
con otras un número relativamente pequeño de características. En realidad, la
distintividad es el factor que subyace al efecto Von Restorff. Desde la publicación de los
experimentos de este psicólogo de la Gestalt (von Restorff, 1933; ver más adelante
apartado sobre “Organización”), se sabe que los elementos no similares o incongruentes
de un conjunto se recuerdan mejor que los elementos similares. Por tanto, parece claro
que el grado de distintividad depende del contexto en el que se procesa el estímulo. Por
ejemplo, el apellido “García” en la lista “Jiménez, Gómez, Pérez, García, Rodríguez,
Martínez, Sánchez” se recordará peor que en la lista “Newman, Smith, Robinson,
García, Jones, Brown, Thompson”. En la primera lista, “García” no es distintivo; sin
embargo, en la segunda, lo es cierta mente.
En el marco de los niveles, esto significa que una huella puede ser distintiva en un

209
dominio de procesamiento (e.g., fonológico), porque comparte pocas características con
otras huellas de ese contexto, pero no ser distintiva en un dominio diferente (e.g.,
semántico), por compartir muchos atributos de codificación con otras huellas. Esta
relatividad de la distintividad es la característica que mejor la distingue de la elaboración.
Así, si la elaboración implica añadir información a la huella o enriquecerla, la
distintividad supone, por encima de todo, contraste de la información. En general, los
teóricos asumen que nuestra memoria tiende a aumentar lo diferente de cada información
(es decir, a aumentar su contraste) y por ello las huellas resultan distintivas y fáciles de
recuperar.

6.2.7. Profundidad de procesamiento versus procesamiento apropiado para la


transferencia

O
IC
En 1977, Morris, Bransford y Franks demostraron que la naturaleza del test de retención
determina la magnitud del efecto de los niveles de procesamiento. Estos autores pusieron
CT
en entredicho el supuesto, hasta entonces fuertemente apoyado, de que un
procesamiento profundo y significativo produce una mejor retención que un
procesamiento superficial y poco significativo. En su opinión, tal aseveración podía

deberse, en gran parte, a un sesgo inherente a la forma como se mide la memoria. Por
tanto, antes de aceptar como definitivo ese supuesto, “es necesario considerar no sólo los
DI

niveles de procesamiento sugeridos por las tareas de adquisición, sino también los niveles
de procesamiento inducidos por la forma del test de memoria” (Morris et al., 1977, p.
521).
Este grupo de investigadores realizó una serie de experimentos en los que los sujetos
O

fueron instruidos para que codificaran las palabras atendiendo a su estructura fonémica
US

(juzgar SÍ o NO una palabra rimaba con otra) o a su estructura semántica (juzgar SÍ o


NO una palabra encajaba en un marco oracional).
Las tareas de orientación eran de naturaleza semántica, como “El … tenía una
máquina plateada”, seguida de una de estas dos palabras TREN (sí)/CABAL (no), o de
naturaleza fonémica, como “¿… rima con legal?”, seguida de CABAL (sí)/TREN (no).
Como puede observarse, cada sujeto recibía las mismas palabras en las distintas tareas.
El factor “tarea de orientación” fue cruzado con el factor “tipo de test”, de tal manera
que, tras la tarea de codificación, la mitad de los sujetos recibía un test de
reconocimiento en el que las palabras que debían reconocer eran las palabras originales
de la fase de estudio, mientras que a la otra mitad se le administraba un test de
reconocimiento de rimas. En este segundo caso, a los sujetos se les dijo que deberían
reconocer qué palabras, de las incluidas en el test, rimaban con las palabras presentadas
en la fase de estudio.
Los investigadores asumieron que los sujetos del primer grupo realizarían la tarea de

210
reconocimiento apelando al significado de las palabras del test y, por lo tanto, esperaban
que se produjera un mejor rendimiento con las palabras codificadas semánticamente.
Como puede verse en la columna de la izquierda del Cuadro 6.3, dicha predicción se
cumplió.

Cuadro 6.3. Interacción entre las condiciones de codificación y de recuperación (Datos tomados de Morris et al.,
1977, exp. 1)

O
IC
CT
En el test de reconocimiento de rimas, por su parte, se invirtieron los niveles típicos
del procesamiento, de tal manera que la codificación fonológica produjo mejor

rendimiento que la codificación semántica (columna de la derecha del Cuadro 6.3),
incluso demorando el test de reconocimiento hasta 24 horas (experimento 2). Parece
DI

claro, entonces, que la eficacia de los diferentes niveles de procesamiento depende de


cómo se mide la memoria.
Estos hallazgos fueron corroborados por otros investigadores y llevaron a Bransford,
Franks, Morris y Stein (1979) a la conclusión de que los tests de recuerdo libre y
O

reconocimiento utilizados para validar el enfoque de los niveles de procesamiento han


estado claramente sesgados en favor del procesamiento semántico. Este grupo de
US

investigadores han propuesto sustituir la noción de niveles de procesamiento por la de


procesamiento apropiado para la transferencia. Dentro de esta propuesta, se considera
que cuando los tests utilizados para medir la memoria son apropiados para transferir el
conocimiento obtenido durante la fase de codificación no está justificado asumir –como
se hace en el enfoque de los niveles– que las huellas de determinados ítems son más o
menos duraderas o adecuadas que otras sólo porque hayan sido procesadas a un nivel
más o menos profundo. Todo lo cual permite asumir que ninguna forma de codificación
es invariablemente mejor que otra, sino que el mejor código es el que es más compatible
con el test utilizado para medir la memoria.
Las implicaciones prácticas de estas ideas para cualquier estudiante parecen claras:
cuando esté estudiando para un examen, asegúrese de formar huellas de memoria que
sean apropiadas para el tipo de examen que tendrá que realizar. En otras palabras, el
modo de estudiar una materia debería depender del modo como será usted evaluado.

211
La noción de procesamiento apropiado para la transferencia reflejaba los aires
cambiantes dentro de la investigación de la memoria, que empezaba a distanciarse del
análisis de las variables de codificación para concentrarse cada vez más en la interacción
entre codificación y recuperación.

6.3. Organización de la MLP

Como ya ha sido expuesto, el enfoque de los niveles de procesamiento asumió la idea de


que cuanto más distintiva es una huella de memoria, más diferente es del resto y, por
tanto, más fácil es su recuperación. Al mismo tiempo, un número extenso de
investigaciones ha demostrado hace tiempo que la organización mejora la memoria. Pero,

O
si se tiene en cuenta que cuando se organiza una información lo relevante son las
similitudes, surge de inmediato una paradoja que Hunt y McDaniel (1993, p. 42)

IC
expresaron así: “¿Cómo es posible que la similitud (organización) y la diferencia
(distintividad) puedan ser al mismo tiempo beneficiosas para la memoria?”. Trataremos
CT
de responder esta cuestión al final de este apartado.
Para los investigadores de la memoria, el término organización puede referirse a las
relaciones entre la información que hay que recordar (por ejemplo, el modo como está

estructurada la información que llega), o bien a las estrategias que el sujeto pone en
marcha en el momento de la codificación, esto es, a la estructuración o reestructuración
DI

que el propio sujeto impone para hacer más recuperable la información que le llega.
Los primeros que trataron de estudiar de manera sistemática la organización de la
memoria fueron los psicólogos de la Gestalt, al generalizar los principios organizativos de
la percepción a la memoria humana. Los gestaltistas comprobaron que los grupos de
O

ítems tienden a percibirse como unidades, lo que les hizo sospechar que el sujeto,
valiéndose de factores tales como la similitud, la proximidad y la continuidad, organiza
US

los grupos de ítems en todos unificados. No obstante, su influencia, que se limitó al


estudio de la memoria de la forma, no aportó hipótesis válidas ni consistentes. Quizá
merezca la pena destacar la demostración ya mencionada de Von Restorff (1933) de que
un ítem heterogéneo dentro de una lista homogénea se recordará mejor que un ítem
homogéneo. Por ejemplo, un número de tres dígitos se aprenderá mejor si aparece en
una lista de sílabas sin sentido (de tres letras) que si lo hace en una lista de números. El
efecto Von Restorff fue interpretado por su descubridor en términos del efecto figura-
fondo: el número aislado forma una huella que se destaca del fondo de sílabas, por lo que
existe poca probabilidad de que sea asimilado por el fondo. Más recientemente, dicho
efecto ha sido interpretado en términos atencionales, considerándose como factor crucial
el valor sorpresa del ítem aislado más que su aislamiento como tal.
Desde aquella primera incursión de los psicólogos de la Gestalt en el campo de la
organización hasta mediados del pasado siglo, el estudio de la organización de la memoria

212
estuvo prácticamente ignorado. La razón fue que el estudio del aprendizaje y la memoria
humana estuvo domina do por el asociacionismo, que pretendió estudiar tales procesos
en las situaciones más simples y artificiales de laboratorio. Durante décadas, el material
de estudio fueron sílabas sin sentido y el procedimiento de recuerdo serial, lo que
minimizaba al máximo cualquier posibilidad de organización. El cambio conceptual y
metodológico que se produjo a mediados del pasado siglo con la introducción de las
palabras como material y la utilización de las tareas de recuerdo libre hicieron resurgir el
interés por el estudio de la organización. Como se sabe, en una prueba de recuerdo serial
las palabras deben recordarse en el mismo orden de presentación, mientras que en el
recuerdo libre los sujetos tienen libertad para recordar los ítems en el orden que deseen,
por lo que esta técnica se convierte en el medio más idóneo para investigar las estrategias
que adoptan los sujetos para organizar los ítems en su memoria.
Tulving (1968) distinguió dos tipos de organización: primaria y secundaria. La
organización primaria describe estrategias tales como ordenación y agrupamiento de los

O
ítems sin tener en cuenta su significado. Por ejemplo, está suficientemente comprobado

IC
que el recuerdo mejora cuando se agrupan y repiten los ítems en unidades de tres o
cuatro. La organización secundaria es la que se produce cuando el orden de los ítems
está determinado por factores semánticos o fonológicos. Supongamos que se presentan a
CT
un sujeto ocho palabras para su recuerdo libre en el siguiente orden: coche, león, gato,
avión, caballo, tren, barco, tigre, y que las recuerda en este otro orden: coche, tren,

avión, barco, caballo, gato, león, tigre. ¿Qué nos indica esto?
Probablemente toda la memoria está organizada, pero no es casualidad que la teoría
sobre la organización se haya elaborado básicamente a partir del paradigma de recuerdo
DI

libre. La razón es que la mayoría de las ideas sobre la organización no han surgido del
recuerdo per se, sino del estudio del orden en que los ítems son recordados. Si volvemos
al ejemplo presentado, se observa que las palabras han sido recordadas atendiendo a dos
categorías: medios de transporte y animales. Podemos pensar que el sujeto se dio cuenta
O

durante la codificación de las relaciones categoriales entre las palabras y las utilizó
US

durante la recuperación. Pero es que, además, los “medios de transporte” han sido
subdivididos atendiendo a su utilización en la ciudad o sobre el suelo (coche, tren) y
fuera de la ciudad o sobre otros elementos distintos del suelo firme (avión, barco), y los
animales agrupados en domésticos (caballo, gato) y salvajes (león, tigre). ¿Por qué
surgieron estos subgrupos? Pudo ser, como ya se ha apuntado, porque el sujeto
descubrió, durante la codificación, tales relaciones categoriales o porque, durante la
recuperación, recordó uno de los ítems de cada par y generó el otro que, tal vez, estaba
asociado en su mente. Como puede verse, este ejemplo no nos permite contestar tales
cuestiones, ni otras semejantes; por ejemplo, también es posible que el sujeto recordara
las categorías (e.g., animales) y las utilizara para generar miembros de las mismas.
La investigación tradicional sobre tales cuestiones puede agruparse en torno a dos
enfoques teórico-metodológicos diferentes. El primero incluye aquellos estudios en los
que la organización ha sido “impuesta por el experimentador” (e.g., listas de palabras
pertenecientes a un pequeño número de categorías, como en el ejemplo comentado). El

213
segundo incluye los estudios sobre la llamada “orga nización subjetiva”, en los que las
listas han sido elaboradas al azar para eliminar las relaciones semánticas o fonológicas
entre las palabras. Este último enfoque trata de averiguar si los sujetos son capa ces de
descubrir, o inventar, relaciones entre los ítems basadas en el significado.

6.3.1. Organización impuesta por el experimentador: asociativa y categorial

La organización impuesta por el experimentador se subdivide, a su vez, en asociativa y


categorial. La organización asociativa se analiza utilizando listas de palabras que
pertenecen a pares asociados (e.g., arriba-abajo) o a redes asociativas, donde todas las
palabras de la lista son asociados comunes de una palabra que no se incluye. Las

O
primeras investigaciones sobre “agrupamientos asociativos” en el recuerdo (associative
clustering) fueron realizadas por Jenkins y Russell (1952). Estos investigadores

IC
estudiaron el recuerdo libre de 48 palabras pertenecientes a 24 parejas con un valor
asociativo muy elevado (como hombre-mujer, mesasilla, blanco-negro, arriba-abajo,
CT
etc.), y comprobaron que los sujetos tendían a recordar tales palabras juntas, a pesar de
que se les habían presentado sepa radas y mezcladas aleatoriamente. Unos años después,
Jenkins, Mink y Russell (1958) llevaron a cabo un experimento similar, pero variando el

grado de asociación entre las parejas, y comprobaron que cuanto más fuerte era la
asociación entre las parejas de palabras tanto más fácil era su recuerdo. Así, pues,
DI

parecía demostrado que los sujetos agrupan u organizan la lista de tal manera que les
permite beneficiarse de las relaciones asociativas entre los ítems.
James Deese (1959) modificó esta técnica y en lugar de pares de asociados presentó
listas de 15 ítems formadas por asociados semánticos (e.g., tela, insecto, animal, patas,
O

bicho, mosca…) de una misma palabra (araña), que no se presentaba3. Las listas
US

diferían en cuanto al nivel de frecuencia de los asociados, que podían ser todos ellos de
alta, baja o nula frecuencia. Tal y como predijo, Deese comprobó que el recuerdo de las
listas de alta frecuencia era superior (7,35 palabras correctas) al de las listas de baja
frecuencia (6,08 pala bras correctas) y de frecuencia nula (5,50 palabras); es decir, que el
nivel de recuerdo de tales listas estaba relacionado directamente con su fuerza de
asociación. Asimismo, comprobó que el recuerdo de listas de asociados de alto nivel era
significativamente superior (49%) al recuerdo de listas de palabras no relacionadas
(37%).
Por otra parte, la organización categorial se estudia con listas de palabras
pertenecientes a categorías taxonómicas tales como animales, frutas, profesiones,
muebles, etc. Los estudios sobre “agrupamiento categorial” (category clustering) fueron
iniciados por Bousfield hacia mediados de la década de 1940. En uno de sus trabajos
más conocidos, Bousfield (1953) utilizó cuatro categorías para construir la lista
(animales, nombres de pila, profesiones y vegetales). De cada una eligió 15 palabras, lo

214
que dio un total de 60 palabras por lista. Bousfield comprobó que los sujetos tendían a
recordar juntos los miembros de la misma categoría, a pesar de que se habían presentado
mezclados aleatoriamente. Este hallazgo, como puede observarse, es bastante parecido al
de Jenkins y Rusell de que los miembros de las parejas de palabras altamente asociadas
se recordaban juntos.
¿Qué mecanismos subyacen a uno y otro tipo de organización? O, en otros
términos, ¿la organización asociativa es distinta o no de la organización categorial? La
evidencia experimental indica que los efectos de las relaciones categoriales son diferentes
de los efectos de las relaciones asociativas. En este sentido, Bousfield y Puff (1964)
demostraron que el agrupamiento categorial se producía incluso cuando las palabras de
una categoría habían sido elegidas especialmente por la baja fuerza de asociación entre
ellas. En resumen, se asume que el agrupamiento categorial y el asociativo son tipos
independientes de organización.
Estudios posteriores han ayudado a clarificar los mecanismos subyacentes a la

O
organización categorial. Como señaló Bower (1972), el recuerdo de listas categorizadas

IC
implica, al menos, tres procesos básicos: 1) descubrir las categorías representadas por las
palabras de la lista; 2) asociar los nombres de las categorías con los elementos de la lista;
es decir, el sujeto tiene que aprenderse los miembros de cada categoría presentes en la
CT
lista, y 3) recordar los nombres de las categorías.
Los diferentes estudios comentados demuestran que los sujetos son capaces de

beneficiarse de la organización ofrecida por el experimentador, lo que, en cierto modo,
ayuda a entender cómo trabaja la organización. Parece, en efecto, que el aprendizaje de
listas categorizadas es un proceso complejo en el que las unidades simples se organizan
DI

en unidades mayores que después pueden descodificarse en los inputs originales. Sin
embargo, también se puede observar que los datos presentados no implican
necesariamente una organización activa por parte del sujeto, por lo cual son totalmente
consistentes con un enfoque asociacionista de la memoria. No obstante, en el siguiente
O

apartado expondremos la evidencia que muestra cómo el sujeto impone su propia


US

organización a materiales seleccionados al azar, un fenómeno que una teoría


asociacionista pasiva tendría dificultad para explicar.

6.3.2. Organización subjetiva

Como procesadores de información, los seres humanos somos tan ingeniosos que
siempre que tenemos que aprender algo recurrimos a la organización, incluso en ausencia
de materiales sin una estructura obvia. El primer experimento que demostró que, incluso
cuando el material que se presenta no está organizado por el experimentador, el sujeto
impone su propia organización para aprenderlo y recordarlo, fue realizado por Tulving
(1962).

215
Tulving definió la organización subjetiva como la tendencia a recordar palabras en
el mismo orden durante sucesivos ensayos de aprendizaje, aunque no existan
dependencias secuenciales manipuladas experimentalmente entre las palabras de una lista.
En su experimento utilizó una lista de 16 pala bras (sustantivos bisílabos) sin ninguna
relación entre sí. El procedimiento implicaba presentar las mismas palabras a lo largo de
16 ensayos pero cambiando en cada ensayo el orden de las palabras de la lista. Tras cada
presentación siempre había una prueba de recuerdo libre. Tulving razonó que puesto que
los ítems no se mantenían juntos en el input (en cada presentación cambiaban el orden),
si aparecían consistentemente juntos en el output, habría que considerarlos como
miembros de una unidad subjetiva única. Es decir, si dos ítems se recuerdan juntos en
ensayos sucesivos, a pesar de que se han presentado separados, probablemente hayan
sido organizados juntos por el sujeto.
Para medir la consistencia del orden del recuerdo, Tulving propuso como medida la
frecuencia de parejas, que es igual al número observado de parejas de ítems recordados

O
juntos (sin tener en cuenta las inversiones del orden dentro de la pareja) en ensayos

IC
sucesivos menos el número de repeticiones de tales parejas que se esperan por azar.
Tulving comprobó que el número de palabras recordadas y el grado de organización
subjetiva aumentaban tras sucesivos ensayos de presentación y recuerdo. Asimismo,
CT
observó que el incremento en el índice de organización subjetiva –que caracterizaba el
rendimiento de los sujetos– significaba que el orden del re cuerdo se hacía cada vez más

estereotipado, lo que resultó finalmente en una alta correlación entre la organización
subjetiva y las puntuaciones totales del recuerdo.
En opinión de Kintsch (1970, p. 255), esa alta correlación entre organización
DI

subjetiva y recuerdo “sugiere que la organización no es un simple epifenómeno del


aprendizaje del recuerdo, sino que indica la existencia de una auténtica relación causal
entre el aprendizaje del recuerdo y la organización subjetiva”. Por supuesto que, para
demostrar que uno aprende a recordar porque el material está organizado subjetivamente,
O

se necesita más de un análisis correlacional. Diferentes autores4 han aportado datos


US

experimentales que apoyan la importancia de la organización subjetiva para el recuerdo,


pero para no extendernos excesivamente comentaremos sólo uno de tales trabajos.
Bower, Lesgold y Tieman (1969) comprobaron que si a los sujetos no se les
permitía realizar una organización estable aprendían muy poco de las presentaciones
sucesivas. Bower y sus colaboradores elaboraron una lista de 24 sustantivos, elegidos
aleatoriamente, que se presentaban en 6 bloques de 4 palabras cada uno. Por ejemplo, en
la primera presentación un bloque de palabras era perro, bicicleta, cigarro, sombrero.
Cada uno de los bloques de 4 palabras se presentaba durante 12 segundos y se decía a
los sujetos que las integraran en una escena imaginaria en la que los objetos designados
estuvieran interactuando. Un ejemplo podía ser “Un perro con sombrero y fumándose un
puro mientras monta en bicicleta”. Los sujetos fueron divididos en dos grupos. A un
grupo se le presentaron los mismos bloques de palabras en cada una de las
presentaciones, mientras que al otro grupo la composición de los bloques se alteraba de
ensayo en ensayo, de tal manera que las mismas dos palabras no aparecían en el mismo

216
bloque más de una vez. Los resultados coincidieron totalmente con las expectativas basa
das en la teoría que subraya los factores organizativos en el recuerdo libre. Cuando a los
sujetos no se les permitió formar organizaciones estables, apenas mejoró su recuerdo de
ensayo a ensayo, y a la inversa. Así, el primer grupo, que tuvo la posibilidad de
establecer organizaciones consistentes, mejoró su rendimiento de un 70% de palabras
recordadas en la primera presentación a casi un 96% en la tercera, mientras que los
sujetos a los que no se les permitió organizar, varia ron sólo ligeramente su rendimiento
(69% en la primera presentación, 75% en la tercera). Este experimento puso de
manifiesto, en primer lugar, que la interferencia de la organización subjetiva anula los
efectos del aprendizaje, y en segundo lugar, que el número de ensayos de aprendizaje no
es la cuestión básica para el recuerdo libre, sino el nivel de organización que se alcance
en tales ensayos.
El estudio de la organización de la memoria pone de manifiesto una serie de
cuestiones básicas sobre los procesos mnemónicos en general. Se trata, así, de un

O
excelente medio para conocer algunas de las formas de codificación utilizadas por los

IC
sujetos cuando aprenden un material. Se ha comprobado que la codificación más eficaz
es la que organiza los ítems en unidades de orden superior. Como se recordará, la
formación de tales unidades en la memoria a corto plazo recibe el nombre de
CT
recodificación o chunking, y lo que forma un chunk o trozo de información en la MCP
parece estar determinado por principios de agrupamiento y organización perceptiva.

Como se recordará, Miller (1956) observó que la amplitud de memoria aparecía limitada
no por la naturaleza del material que debía recordarse, sino por el número de chunks; por
lo tanto, cualquier técnica —como la recodificación o chunking— que pudiera agrupar la
DI

información de muchos ítems en unos pocos incrementaría la cantidad total de


información retenida en la MCP. Mandler (1967) considera que un proceso similar a la
recodificación tiene lugar en los experimentos de recuerdo libre cuando el sujeto
encuentra una base para su propia organización. Por ejemplo, las palabras norte, sur,
O

este, oeste pueden recodificarse en una unidad de orden superior como direcciones o
US

puntos cardinales, lo que comprimiría cuatro unidades de información en el espacio de


una. Parece que el mismo proceso es el que subyace cuando el sujeto recuerda los ítems
por categorías, porque en realidad lo que hace es formar un chunk con cada categoría.
Evidente mente, los procesos de organización en la memoria a largo plazo son más
variados y complejos que en la memoria a corto plazo, pero parece claro, como dice
Kintsch (1977), que si algo se tiene que recordar bien debe organizarse y, a la inversa,
que la organización garantiza el recuerdo.

6.3.3. Organización y distintividad: Una paradoja aparente

Un poco más arriba decíamos que las huellas de memoria distintivas o diferentes de otras

217
huellas se recuerdan más fácilmente y mejor. A continuación, hemos visto cómo las
similitudes de la información facilitan su organización durante la codificación y así se
garantiza su recuerdo. En definitiva, la distintividad y la organización ayudan a la
memoria. Pero surgió la pregunta: ¿cómo es posible que una cosa y su contraria, lo
distintivo y lo similar, sirvan de ayuda a la memoria? La resolución de esta paradoja, que,
como veremos, es más aparente que real, la encontramos en la noción, propuesta por
McDaniel y Einstein (2005), de procesamiento apropiado para el material.
El origen de esta idea se encuentra en el llamado “marco relacional-distintivo”
propuesto originalmente por Humphreys (1978) y contrastado empíricamente por Hunt y
Einstein en diferentes trabajos5. El supuesto básico del marco relacional-distintivo
establece que “la memoria de un elemento concreto de un episodio depende tanto de las
relaciones entre los elementos del episodio como de los atributos distintivos y únicos de
dicho elemento” (Marschark y Hunt, 1989, p. 711). Según las demandas de la tarea, el
sujeto puede llevar a cabo un procesamiento relacional o un procesamiento distintivo o

O
específico del ítem. El procesamiento relacional supone procesar los ítems en términos

IC
de sus interrelaciones (de cómo encajan unos y otros, de sus semejanzas, de lo que
tienen en común, etc.) y se ve propiciado por el grado en que la información permite la
organización. El procesamiento específico del ítem, por su parte, implica procesar los
CT
ítems en términos de sus características individuales y se ve favorecido por condiciones
que llevan a un procesamiento distintivo.

Teniendo en cuenta estas distinciones, el enfoque del procesamiento apropiado para
el material establece que el tipo de procesamiento que se debe poner en marcha cuando
se estudia un material para su posterior recuerdo depende de la naturaleza de dicho
DI

material. En concreto, cuando el material que queremos aprender está bien estructurado
u organizado, el tipo más eficaz de procesamiento será el procesamiento específico del
ítem o distintivo; mientras que si el material está poco estructurado, entonces deberemos
recurrir a un procesamiento relacional.
O

En resumen, tanto la similitud como la diferencia ayudan a la memoria y son de


US

especial relevancia porque ambas reflejan tipos concretos de procesamiento. Un tipo de


procesamiento enfatiza una característica y el otro enfatiza la otra, pero está demostrado
experimentalmente que el mejor rendimiento de la memoria se obtiene cuando ambos
procesos ocurren juntos.

6.4. Procesos de consolidación

La idea de que lo que se aprende necesita un tiempo para fijarse o consolidarse es,
verdaderamente, muy antigua; sin embargo, el uso del término consolidación de la
memoria en contextos científicos es relativamente nuevo. El término “consolidación” fue
introducido en psicología por los psicólogos alemanes Georg Elias Müller y Alfons

218
Pilzecker en 19006, para referirse al proceso, dependiente del tiempo, mediante el cual
una experiencia se asimila y se almacena de forma permanente en la memoria y se hace
inmune a la destrucción. No obstante, el psicólogo francés Théodule Ribot ya había
apelado, dos décadas antes (exactamente, en 1881, en su monografía Les maladies de la
mémoire), a la idea de consolidación para explicar el “gradiente temporal” observado en
algunos de sus pacientes con “amnesia retrógrada” (AR)7. A finales del XIX también,
William James asumió la idea de que las memorias nuevas tienen que estabilizarse o
consolidarse para poder persistir. En su monumental obra Principios de Psicología,
publicada en 1890, propuso que los recuerdos se almacenan primero de modo temporal
(la memoria primaria o a corto plazo) y se van estabilizando con el tiempo hasta
convertirse en memorias persistentes (la memoria secundaria o a largo plazo). Lo más
destacado de la monografía de Müller y Pilzecker fue precisamente aportar evidencia
experimental de que la memoria temporal o a corto plazo es la precursora de la memoria
persistente o a largo plazo.

O
Por tanto, como ha señalado recientemente LeDoux (2007), el concepto de

IC
consolidación está íntimamente conectado con los conceptos de MCP y MLP. De hecho,
la opinión dominante actualmente entre los teóricos es que la MCP es temporal, inestable
CT
y propensa a la destrucción, mientras que la MLP, una vez consolidada, es persistente e
inalterable. Ahora bien, el proceso de consolidación no es algo que se pueda experimentar
u observar, sino que es algo que se infiere a partir de los efectos de las manipulaciones

experimentales (como, por ejemplo, un shock electroconvulsivo) que impiden que las
memorias recién formadas o a corto plazo se conviertan en memorias a largo plazo. Este
planteamiento, sin embargo, coloca la idea de consolidación en una lógica circular, ya
DI

que, por un lado, la propia consolidación se define en términos de MCP y, a su vez, la


MCP es definida como el tiempo durante el que una memoria puede ser destruida o se
puede impedir que llegue a consolidarse.
A este problema de definición hay que añadir otra dificultad, y es que, a pesar de
O

tener ya más de cien años, el término “consolidación” significa diferentes cosas entre los
US

científicos actuales. Porque, más allá de que la consolidación de la memoria se refiere a


diversos eventos que ocurren después del aprendizaje, el hecho es que para los distintos
investigadores ni significa lo mismo ni implica los mismos procesos.

6.4.1. Diferentes tipos de consolidación

Los diferentes fenómenos a los que se ha aplicado el término consolidación se


manifiestan en diferentes niveles de análisis y en múltiples ventanas temporales. Una
primera distinción básica y muy relevante para nuestros objetivos es la que se establece
entre la consolidación a nivel neurobiológico y la consolidación a nivel cognitivo.
En el plano neurobiológico, los investigadores distinguen entre consolidación celular

219
y consolidación de sistemas (Dudai, 1996).
La consolidación celular o molecular se refiere a los procesos que se producen
localmente en los nodos individuales de los circuitos neuronales, es decir, las sinapsis y
las neuronas, durante las primeras horas siguientes al aprendizaje. A este nivel, el término
consolidación se refiere a las cascadas moleculares y a los cambios morfológicos gracias
a los cuales las modificaciones sinápticas se estabilizan gradualmente.
Los estudios sobre consolidación celular/ molecular han demostrado que la
estimulación eléctrica del cerebro o determinados tratamientos químicos (especialmente
con inhibidores de la síntesis de proteínas) alteran o impiden la conversión de la MCP en
MLP. Este tipo de estudios, al utilizar procedimientos invasivos, sólo se realizan con
animales, pero, como señala LeDoux (2007), en pacientes sometidos a terapia
electroconvulsiva se producen efectos similares en su memoria. Actualmente se asume
que la síntesis de proteínas es un proceso clave para la consolidación de la MCP en MLP
y se supone que dura varias horas.

O
La consolidación de sistemas hace referencia a los procesos que ocurren en el nivel

IC
de los circuitos e implica la conversión de una memoria inestable en una memoria
permanente, con la salvedad de que ambas memorias son a largo plazo. Este proceso
parece que ocurre en el lóbulo temporal medial e implica que la memoria consolidada se
CT
va haciendo con el tiempo (que puede abarcar de meses a años) menos dependiente de
este lóbulo e incluso llega a independizarse del mismo. De ahí que, cualquier daño en el

hipocampo en un momento cercano al aprendizaje producirá una pérdida de la MLP y,
sin embargo, la misma lesión en un momento posterior no tendrá ningún efecto nocivo.
Los defensores de esta “visión estándar” (e.g., Squire y Alvarez, 1995), que será
DI

expuesta un poco más adelante, utilizan precisamente el término consolidación para


referirse al proceso de reorganización gradual en el almacenamiento de la memoria a
largo plazo por el que las memorias se independizan del hipocampo y pasan a depender
del neocórtex.
O

En el plano cognitivo, la consolidación hace referencia a procesos más abstractos


US

que tienen lugar tras la presentación de un estímulo. El origen de los estudios sobre
consolidación cognitiva se remonta justamente a los trabajos de Müller y Pilzecker, y a
innumerables estudios posteriores en el campo del aprendizaje verbal, donde la
consolidación se infiere fundamentalmente a partir de los efectos de la interferencia
retroactiva.
Müller y Pilzecker (1900) realizaron una serie de experimentos en los que
manipularon la actividad de los sujetos durante el intervalo entre la fase de estudio y la
fase de test, y comprobaron que el rendimiento de la memoria dependía de la realización
o no de una actividad interpolada. Por ejemplo, los sujetos que realizaban una tarea
nueva tras la fase de aprendizaje tenían un peor rendimiento en la prueba de memoria
que los sujetos que no hacían nada entre estudio y test. A partir de sus resultados, Müller
y Pilzecker propusieron que la actividad fisiológica subyacente a las memorias nuevas se
mantiene durante unos cuantos minutos en un estado modificable y después de ese
tiempo se consolida en un estado permanente. Al año siguiente de aquella publicación, el

220
psicólogo británico William McDougall señaló que este hallazgo “arroja luz sobre el
hecho, experimentado por algunas personas, de que lo que se aprende inmediatamente
antes de irse a dormir se recuerda con frecuencia con una precisión excepcional”.
También por aquellos años, el psicólogo norteamericano William Burnham
estableció, a partir de la evidencia obtenida con pacientes que sufrían AR, que “la
característica esencial de estos casos de amnesia retrógrada es que la memoria se ha
perdido porque nunca llegó a estar completamente organizada” (1903, p. 129). Burnham
consideró que la consolidación implicaba dos procesos: uno fisiológico o bioquímico, que
da lugar a la formación y almacenamiento de la huella de memoria, y otro psicológico,
consistente en la integración de la memoria recién adquirida en el cuerpo de conocimiento
existente. Estos planteamientos le colocaron frente a uno de los temas más controvertidos
sobre la consolidación; a saber, si éste es un proceso activo o pasivo. En su opinión, la
consolidación no implica solamente un proceso de repetición, sino que incluye también la
formación de asociaciones a lo largo del tiempo. Burnham explicó la AR en términos de

O
déficits en los procesos de consolidación, y reconoció que su teoría era similar a la de

IC
Ribot. Asimismo, valoró la contribución de Ebbinghaus acerca de la mayor efectividad de
la “práctica distribuida” frente a la “práctica masiva” en el aprendizaje, como una clara
aportación a favor de la idea de consolidación.
CT
Pero aquel primer período realmente fructífero para la teoría de la consolidación se
vio ensombrecido y, en última instancia, paralizado por los excesivos estudios sobre

“interferencia retroactiva” realizados por los psicólogos conductistas, quienes encontraron
en el concepto abstracto de consolidación la vía para medir la fuerza de las asociaciones
y para explicar el olvido en términos de interferencia. En la década de los cuarenta, se
DI

produciría, no obstante, un resurgimiento de las investigaciones sobre los procesos de


consolidación de la memoria con el estudio de los psicopatólogos norteamericanos Zubin
y Barrera (1941). Estos investigadores demostraron que los efectos negativos de un
shock electroconvulsivo sobre el aprendizaje de pares asociados dependían del intervalo
O

entre el aprendizaje y el shock, en el sentido de que cuanto más breve fuera dicho
US

intervalo más adversos serían los efectos del shock sobre la memoria. Este estudio
resultó de gran importancia por varias razones: primero, porque proporcionó un método
experimental (el del shock electroconvulsivo) que permitía interrumpir de un modo
controlado los procesos de consolidación; segundo, porque produjo un análogo
experimental de la AR, y, tercero, porque despertó el interés de los psicólogos que
trabajaban con animales por investigar de un modo sistemático los procesos de
consolidación en diferentes especies.
A propósito de la AR, resulta oportuno señalar que este fenómeno es considerado
por los investigadores como una de las fuentes básicas de evidencia en apoyo de la idea
de consolidación de la memoria porque permite inferir que lo que se ha aprendido no se
convierte instantáneamente en una memoria permanente.
Durante la segunda mitad del pasado siglo, se producirían importantes desarrollos
pero, sin duda alguna, ninguno tendría tanta trascendencia como el trabajo publicado por
Scoville y Milner (1957) sobre los efectos de la recesión bilateral del lóbulo temporal

221
medial sobre la memoria del paciente HM. Aunque, como ya se ha comentado, dicha
intervención mejoró la epilepsia, tuvo unas consecuencias dramáticas y no previstas
sobre la memoria de HM, que quedó convertido en un amnésico profundo con una
amnesia anterógrada (AA) gravísima y una AR considerable8. A la luz de este y otros
casos en los que intervenciones parecidas acabaron produciendo déficits similares de
memoria (ver Penfield y Milner, 1958), se consideró que el hipocampo y las estructuras
relacionadas del lóbulo temporal medial9 jugaban un papel crucial en la memoria a largo
plazo, pero, sin embargo, no estaban involucradas ni en la MCP ni en el almacenamiento
de las memorias remotas. Las estructuras de la región temporal medial, se pensó
entonces, juegan un papel clave en la codificación y consolidación de la memoria, y de
ellas dependen el almacenamiento y la recuperación de los recuerdos hasta que termina la
consolidación (Zola-Morgan y Squire, 1990). En realidad –y así lo han reconocido más
recientemente Milner, Squire y Kandel (1998)– el llamado “modelo estándar” de
consolidación se basó en aquellas observaciones iniciales y desde entonces dicho modelo

O
apenas ha sufrido modificaciones.

IC
A partir de entonces, y durante bastantes décadas, los investigadores han
concentrado sus esfuerzos en diversos aspectos fundamentales de los procesos de
CT
consolidación, tales como el período temporal necesario para que se produzca la
consolidación, qué regiones cerebrales están involucradas, o cuáles son los tipos de
información implicados. Sin embargo, con el surgimiento de la psicología cognitiva se

produjo un desinterés por estos temas. En efecto, la psicología cognitiva de la memoria
ignoró durante mucho tiempo el problema de la consolidación, interesándose sobre todo
por los procesos que ocurren en el momento de la adquisición de información y en el
DI

momento de la recuperación. Este desinterés de los psicólogos cognitivos de la memoria


por los procesos que pueden ocurrir durante el intervalo de retención ha perdurado hasta
hace relativamente pocos años, cuando los estudios en neuropsicología y neurociencia
cognitivas de las últimas décadas reavivaron el interés por los procesos de consolidación
O

de la memoria. Retomaremos y analizaremos en profundidad los diversos aspectos de la


US

consolidación a nivel cognitivo al final de este apartado.

6.4.2. El modelo estándar

A partir de la propuesta de Scoville, Milner y Penfield, entre otros, acerca de la función


de la región del lóbulo temporal medial, Larry Squire y sus colegas10 han desarrollado un
modelo de consolidación de la memoria que goza desde hace tiempo de un gran
reconocimiento. En opinión de estos investigadores, la región temporal medial juega un
papel crucial en el almacenamiento y la recuperación, pero sólo durante un período
limitado tras el aprendizaje y respecto a una clase concreta de información (“saber qué”
o conocimiento declarativo). Durante ese período, dicha región mantiene la coherencia de

222
la memoria y permite su recuperación mientras dura el proceso de consolidación.
Después, cuando la consolidación se ha completado, la región temporal medial deja de
intervenir en el almacenamiento y en la recuperación. Si esta región medial del lóbulo
temporal sufre algún daño, no es posible mantener la coherencia de las memorias
relativamente nuevas y todavía no consolidadas y, en consecuencia, dichas memorias se
perderán. Éste sería el caso de la AR. Al mismo tiempo, cuando dichas regiones están
dañadas, no se pueden formar nuevas memorias porque el sistema encargado de
mantener la organización de la información recién adquirida y de permitir su recuperación
y reorganización está dañado. Éste sería el caso de la AA. Como la adquisición de “saber
cómo” o conocimiento procedimental no depende de la región temporal medial, este
dominio de conocimiento no se ve afectado en la amnesia. La región temporal medial
juega, por tanto, un papel decisivo en la consolidación de la llamada memoria
declarativa, aunque los procesos de consolidación son el resultado, como vamos a ver,
de la interacción entre la región temporal medial y el neocórtex.

O
Básicamente, este modelo distingue dos fases en el proceso de consolidación. Una

IC
primera fase, o de consolidación a corto plazo, durante la cual, la información que ha
sido registrada inicialmente en áreas corticales, es “ligada” o integrada en una sola huella
de memoria por el hipocampo y las estructuras relacionadas de los lóbulos temporales y
CT
el diencéfalo. Este ligamiento inicial se supone que se lleva a cabo en unos segundos o,
como mucho, en unos pocos minutos. Y una segunda fase, o de consolidación a largo

plazo, durante la cual la huella inicial se irá transfiriendo progresivamente desde el
hipocampo a las regiones especializadas del neocórtex (posiblemente durante el sueño11)
para su almacenamiento definitivo. La duración de esta segunda fase es bastante larga,
DI

del orden de años e incluso décadas a nivel humano, y se ha estimado a partir de la


extensión de la AR producida por lesiones en el lóbulo temporal medial y el diencéfalo, o
por la administración de “bloqueadores de la consolidación” en animales.
Como ya se ha señalado, durante la primera fase, tanto el almacenamiento como la
O

recuperación de una huella determinada de memoria dependerán del hipocampo, cuyo


US

papel en ambos procesos irá disminuyendo a medida que vaya completándose el proceso
de consolidación. Esta propuesta implica, pues, que el hipocampo y las estructuras
relacionadas son necesarios temporalmente, y que dejan de serlo cuando el sistema de
almacenamiento de memoria del neocórtex puede por sí solo mantener la coherencia de
la huella permanente de memoria e intervenir en su recuperación. Por tanto, una vez
finalizada la consolidación, el almacenamiento y la recuperación de una huella de
memoria dependerán exclusivamente del neocórtex.
En resumen, esta concepción de la consolidación, considerada como “el modelo
estándar”, asume la existencia de dos procesos: uno de consolidación rápida o
consolidación molecular, y otro proceso de consolidación prolongada o consolidación
de sistemas. La consolidación rápida depende del sistema de memoria hipocampal, que
es un sistema de aprendizaje rápido, mientras que la consolidación prolongada depende
de un sistema de memoria neocortical en el que las representaciones son construidas
lenta y gradualmente. Esta distinción es congruente con la idea de que la formación

223
hipocampal y las estructuras neocorticales utilizan estrategias computacionales diferentes
para almacenar información12. En el caso concreto de las redes neocorticales,
McClelland et al. (1995) han señalado que los cambios en esas redes han de ser lentos
para permitir la integración del conocimiento preexistente o viejo con el conocimiento
nuevo y evitar así una “interferencia catastrófica”.
El modelo estándar de consolidación de sistemas ha sido adoptado desde sus
primeras formulaciones por muchos investigadores. No obstante, durante la última
década, Lynn Nadel y Morris Moscovitch han puesto de manifiesto algunas
inconsistencias del mismo y han propuesto una teoría alternativa.

6.4.3. La teoría de huellas múltiples, una alternativa al modelo estándar

O
IC
En 1997, Nadel y Moscovitch presentaron una propuesta alternativa a la teoría estándar
de la consolidación, la llamada “teoría de huellas múltiples”, cuyo dogma central es que
el complejo hipocampal –que incluye la formación hipocampal y las estructuras
CT
circundantes del lóbulo temporal medial– no tiene una función limitada temporalmente,
como postula el modelo tradicional de consolidación, sino que es necesario siempre para
el almacenamiento y la recuperación de las memorias episódicas, por muy antiguas o

remotas que éstas sean. “La recolección de los episodios autobiográficos dependerá
siempre del hipocampo”, han subrayado recientemente Moscovitch et al. (2005).
DI

Siguiendo a sus proponentes, la teoría de huellas múltiples asume la existencia de


los siguientes procesos:

a) El complejo hipocampal (y posiblemente el diencéfalo) codifica rápida e


O

inevitablemente toda la información a la que se presta atención, y liga (binds)


US

o integra en una huella de memoria aquellas neuronas (fundamentalmente,


neocorticales) que están representando la experiencia consciente a la que se
ha atendido.
b) Esa información se codifica en una red distribuida de neuronas del complejo
hipocampal que actúan como punteros de las neuronas que representan la
información atendida. Por tanto, la huella de memoria de un episodio consiste
en un conjunto integrado (o una asamblea) de neuronas neocorticales e
hipocampales (y posiblemente diencefálicas también) que representan el
recuerdo del evento que se ha experimentado conscientemente.
c) La formación y consolidación de esta huella es un proceso rápido; se produce
en un período de segundos o como máximo de días (consolidación rápida).
La existencia de un proceso de consolidación rápida no ha sido objeto
de debate en ningún momento; por tanto, los tres procesos anteriores son
compartidos con el modelo estándar. Sin embargo, y en contra del modelo

224
tradicional, la nueva teoría rechaza la idea de un proceso de consolidación
prolongada.
d) No existe una consolidación prolongada que va fortaleciendo lentamente el
componente neocortical de la huella de memoria hasta que se hace
independiente del hipocampo, sino que, cada vez que se recupera un viejo
recuerdo, se crea una nueva huella del mismo en el hipocampo y se fortalece
la vieja. Esto significa que los viejos recuerdos están representados cada vez
por huellas más fuertes y más numerosas, lo que hace que los viejos
recuerdos sean más resistentes que los nuevos ante posibles daños cerebrales.
Esto explicaría la existencia de gradientes temporales en la AR.
e) Aunque cada memoria autobiográfica es única, la creación de múltiples huellas
relacionadas facilita la extracción de la información común a todas ellas, que
será integrada en el conocimiento preexistente y dará lugar a la formación
neocortical de memorias semánticas que sí pueden existir independientemente

O
del hipocampo. Por tanto, los hechos acerca del mundo, la gente y los

IC
eventos públicos (e.g., que el Vaticano está en Roma, que hay que ser
respetuoso con los demás o que en Marzo de 2004 hubo un atentado
terrorista en Madrid) que, por supuesto, se adquieren siempre en el contexto
CT
de un episodio específico, pueden separarse de dicho episodio y ser
almacenados aparte del mismo. Este proceso por el que algunas memorias

originalmente episódicas se convierten gradualmente en semánticas podría dar
la impresión –según señalan Moscovitch et al. (2005)– de que existe una
consolidación prolongada.
DI

f) La información sobre el contexto espacio-temporal que caracteriza a toda


memoria episódica depende, no obstante, de la implicación continua del
complejo hipocampal (que representa el contexto espacial) y del córtex
frontal (que representa el contexto temporal).
O
US

La teoría de huellas múltiples plantea que la memoria episódica y la memoria


semántica deben ser consideradas separadamente –en contra de lo que hace el modelo
estándar, que da el mismo tratamiento a ambos sistemas de memoria–. En la nueva teoría
se argumenta que el modelo tradicional es correcto respecto a la consolidación de la
memoria semántica pero es erróneo respecto a la memoria episódica. No existe, según
esta teoría, un proceso de consolidación a largo plazo, sino que el complejo hipocampal y
el neocórtex interactúan a lo largo del tiempo y determinan el contenido o el tipo de
conocimiento de la memoria episódica y de la memoria semántica, pero –y he aquí la
reivindicación básica de esta teoría– la recuperación de las memorias episódicas siempre
depende del complejo hipocampal, que proporciona la información contextual. Esta idea
central de la teoría de huellas múltiples ha sido confirmada rigurosamente en diferentes
estudios con neuroimágenes, en los que se demuestra que la recuperación de memorias
episódicas remotas implica siempre la activación del hipocampo13.

225
6.4.4. Reconsolidación

Con el último cambio de siglo, coincidiendo curiosamente (o irónicamente) con la


celebración del primer centenario de la introducción del término consolidación, se
publicaron unos datos que supusieron un desafío serio al propio concepto de
consolidación. En efecto, Nader et al. (2000) demostraron que si una memoria
consolidada se reactiva, se vuelve inestable y vulnerable a los efectos de los bloqueadores
de la consolidación, por lo que, tras cada recuperación, las memorias tienen que ser
“reconsolidadas”. En otras palabras, el recuerdo de un episodio remoto, y, por tanto, bien
consolidado, devuelve a la correspondiente huella de memoria a un estado de fragilidad
que hace necesaria, una vez más, la consolidación o “reconsolidación” de dicha memoria.
Por tanto, la reconsolidación es un proceso que se pone en marcha con la
recuperación.

O
La reaparición del fenómeno de la reconsolidación14 está suponiendo un verdadero

IC
impulso tanto de la neurociencia cognitiva como de la psicología cognitiva de la memoria
al haber obligado a revisar el propio concepto de consolidación y sus relaciones con
procesos básicos como la codificación y la recuperación.
CT
En ese sentido, reconsolidación suena a recodificación –como observa Nadel
(2007)–, y todo ello, a su vez, recuerda algunas ideas contenidas en la teoría de huellas
múltiples; en concreto, que la reactivación de una huella de memoria trae consigo la

creación de una nueva huella del mismo episodio que es codificada, representada y
distribuida en una red hipocampal.
DI

6.4.5. Consolidación/reconsolidación, recuperación y dinámica de la memoria:


O

Una perspectiva cognitiva


US

Una de las ideas especialmente interesantes que se deriva de ‘la hipótesis de la


reconsolidación’ es la posibilidad de que la consolidación de una huella de memoria sea
un proceso que ocurre más de una vez. Dicha posibilidad no es compatible con la idea de
que las huellas de memoria son elementos fijos y únicos, como se asume en el modelo
estándar, sino que destaca la importancia de que cualquier huella de memoria, sea nueva
o vieja, esté siempre abierta o sea susceptible a la modificación, como asume la teoría de
huellas múltiples. El hecho de que para esta última teoría todo acto de recuperación
implique un proceso de ‘multiplicación’ de la huella recuperada significa asumir que las
huellas de memoria no sólo están sometidas a procesos pasivos, como el decaimiento
subyacente al olvido, y a procesos activos aunque indirectos, como la interferencia
retroactiva, sino que también están sujetas a procesos de transformación significativa,
como ocurre cada vez que una experiencia nueva se integra y modifica el conocimiento

226
preexistente.
La inestabilidad que el proceso de recuperación produce en las huellas de memoria
consolidadas y la necesidad subsiguiente de recodificar o reconsolidar tales huellas es una
prueba de la capacidad transformadora de la memoria. Por eso, cuando la teoría de
huellas múltiples pone el acento en los procesos de recuperación, está asumiendo una
dinámica de la memoria similar a la propugnada por Bartlett (1932), para quien la
memoria es el resultado de procesos constructivos y reconstructivos, y está en perfecta
consonancia también con las ideas de Tulving (1983) sobre la interacción ineludible entre
codificación y recuperación.
El enfoque constructivista de la moderna psicología de la memoria asume que los
procesos de formación y consolidación de las memorias imprimen un carácter dinámico a
los sistemas de memoria. Ante cada nuevo aprendizaje, una buena parte de las memorias
experimentan cambios: las memorias nuevas, por los procesos mismos de consolidación
ya comentados, y las preexistentes que están relacionadas con las nuevas, porque

O
asimilan éstas y se reorganizan. Esta idea ya se encuentra, en cierto modo, en la obra de

IC
Frederic Bartlett Remembering, publicada en 1932, donde el investigador británico
insistió en los procesos constructivos y reconstructivos de la memoria y en cómo, a
medida que pasa el tiempo, los recuerdos cambian. Bartlett comprobó que el transcurso
CT
del tiempo hace que se olviden detalles o se cambien por otros que encajan mejor en
nuestros esquemas o modelos del mundo, de modo que lo que se retiene es una versión

esquematizada y con frecuencia distorsionada del evento original. En el momento de la
recuperación, señaló este autor, se reconstruye el evento en función del esquema o
modelo. En consecuencia, el proceso de recordar se convierte en una fuente permanente
DI

de transformación y reorganización de las memorias, que es básicamente lo mismo que


se deriva de la idea de reconsolidación.
En 1982, Tulving introdujo el concepto de “ecforia sinergística” para hacer hincapié
en que el resultado de un acto de recuperación depende tanto de la información
O

representada en la huella de memoria como de la información proporcionada por el


US

contexto de recuperación. De esta manera, Tulving destacaba la idea de que la


recuperación, al estar regulada por una fuente de información derivada del pasado y otra
del presente, consiste en realidad en la formación de nuevas memorias a partir de una
experiencia previa. Que es en esencia lo que plantea la teoría de huellas múltiples.
Esta interdependencia entre el pasado y el presente, en el sentido de que es la
memoria del pasado la que organiza y da significado a las experiencias presentes es una
idea clave para entender la dinámica de la memoria, en general, y del proceso de
recuperación, en particular. Es interesante subrayar que esta idea, surgida en el seno de la
psicología cognitiva de la memoria, actualmente es compartida por neurobiólogos
interesados en encontrar una explicación funcional para procesos como la consolidación y
la reconsolidación. Un ejemplo excelente de lo que estamos diciendo lo encontramos en
Susan J. Sara (2007, p. 188), experta en reconsolidación, cuando escribe: “Cada vez que
una memoria es recuperada, se integra en las experiencias perceptivas y emocionales del
momento presente y pasa a formar parte de una nueva memoria”. Desde una perspectiva

227
teórica de corte constructivista, Sara (2000) considera el proceso de reconsolidación
como un mecanismo de puesta al día de la memoria, o de adaptación de la memoria
reactivada a las circunstancias presentes, que permite a los animales organizar
adaptativamente su conducta.
En mi opinión, planteamientos y sugerencias como éstas resultan especialmente
interesantes porque vienen a poner de manifiesto, entre otras cosas, la precisión con la
que encajan las teorías psicológicas sobre la dinámica de la memoria con las más
recientes hipótesis neurobiológicas sobre dicha dinámica, además de suponer una prueba
a favor de la plausibilidad biológica de las teorías psicológicas. La investigación sobre los
procesos de consolidación está rompiendo actualmente las fronteras epistemológicas que
tradicionalmente han impedido el trasvase de resultados y el progreso subsiguiente entre
los investigadores de la memoria del nivel cognitivo y del nivel implementacional o
neurobiológico. La íntima relación, o tal vez sea más apropiado decir solapamiento, que
se postula entre consolidación, recuperación y reconsolidación –cuyas fronteras

O
conceptuales algunos destacados psicobiólogos (e.g., Sara, 2007) sugieren eliminar– nos

IC
permite destacar, en este punto final del capítulo, el papel fundamental que los procesos
de recuperación (que serán analizados en el próximo capítulo) juegan en la dinámica
interna y externa de los sistemas de memoria.
CT

DI
O
US

228

También podría gustarte