Explora Libros electrónicos
Categorías
Explora Audiolibros
Categorías
Explora Revistas
Categorías
Explora Documentos
Categorías
NEUROPSICOLÓGICA
DE LAS FUNCIONES
EJECUTIVAS
2
COLECCIÓN:
BIBLIOTECA DE NEUROPSICOLOGÍA
Serie:
GUÍAS PRÁCTICAS DE EVALUACIÓN NEUROPSICOLÓGICA
Coordinadores:
Fernando Maestú Unturbe
Nuria Paúl Lapedriza
3
4
5
Consulte nuestra página web: www.sintesis.com
En ella encontrará el catálogo completo y comentado
© EDITORIAL SÍNTESIS, S. A.
Vallehermoso, 34. 28015 Madrid
Teléfono: 91 593 20 98
www.sintesis.com
ISBN: 978-84-917165-5-6
Reservados todos los derechos. Está prohibido, bajo las sanciones penales y el resarcimiento civil previstos en las
leyes, reproducir, registrar o transmitir esta publicación, íntegra o parcialmente, por cualquier sistema de
recuperación y por cualquier medio, sea mecánico, electrónico, magnético, electroóptico, por fotocopia o
cualquier otro, sin la autorización previa por escrito de Editorial Síntesis, S. A.
6
Índice
Prólogo
1. Fundamentos generales
1.1. ¿Qué son las funciones ejecutivas?
1.1.1. Control ejecutivo: fácil de identificar, difícil de definir
1.1.2. Deconstruyendo las funciones ejecutivas
1.1.3. Sustrato neurobiológico del control ejecutivo
1.2. Funciones ejecutivas y ciclo vital
1.2.1. Desarrollo del control ejecutivo
1.2.2. Envejecimiento del control ejecutivo
1.2.3. Construcción sociocultural de las funciones ejecutivas
1.3. Funciones ejecutivas: ¿una ilusión pedagógica?
1.4. Evaluación neuropsicológica: interpretando los resultados
1.4.1. Nociones básicas de estadística descriptiva
1.4.2. Propiedades psicométricas de los test neuropsicológicos
1.4.3. Evaluación neuropsicológica y validez ecológica
7
2.3. Medidas basadas en rendimiento y medidas de calificación
2.3.1. Modelo de doble procesamiento y evaluación de las
funciones ejecutivas
2.4. Evaluación y rehabilitación
2.4.1. Análisis de resultados en rehabilitación: ¿son los test
neuropsicológicos la medida adecuada?
2.4.2. Cambio de perspectiva
2.4.3. Planificación de objetivos y evaluación de resultados
2.5. Evaluación de las funciones ejecutivas en el contexto forense
2.6. Evaluando la simulación del déficit disejecutivo
2.6.1. Diagnóstico diferencial de la simulación
2.6.2. Herramientas para detectar a los simuladores
8
3.2.1. Behavioral dysexecutive syndrome inventory
3.2.2. Behavior rating inventory of executive function-adult
version
3.2.3. Dysexecutive questionnaire
3.2.4. Frontal systems behavior scale
3.2.5. Inventario de síntomas prefrontales
3.2.6. Executive function index
3.2.7. Frontal behavioral inventory
3.2.8. Problem solving inventory
3.3. Caso clínico
Bibliografía
9
10
Prólogo
11
En este complejo procesamiento, participan estructuras subcorticales, entre las que
destaca el papel de los ganglios de la base, como sistema de aprendizaje reforzado
(Koziol y Budding, 2009). Dentro de estos sistemas, destacan los componentes estriados
ventrales. Obviamente, en una visión holística de la función cerebral, el cerebelo
desempeña un destacado papel en la direccionalidad y la medida justa (ortometría) de las
actividades ejecutivas y no ejecutivas.
También es muy cierto que no existen homúnculos pensantes y ejecutivos en el
cerebro; hecho reconocido en esta obra. El cerebro no toma decisiones inteligentes. El
cerebro, como conjunto de redes neuronales, es absolutamente estúpido. El cerebro
simplemente computa información. Es la conducta la que tiene la propiedad de
inteligente. Este hecho forma parte de la problemática de la confusión entre el todo y las
partes en neurociencias (Bennett y Hacker, 2003).
En el capítulo sobre procedimientos de evaluación de las funciones ejecutivas en
población adulta, se establece una diferenciación entre medidas basadas en el rendimiento
y medidas de calificación (información aportada, fundamentalmente por terceros). Esta
clásica distinción tiene una relevancia práctica significativa que el lector reconocerá. En el
capítulo sobre procedimientos de evaluación de las funciones ejecutivas en la población
pediátrica, se repite la citada diferenciación. Además, se dedica un apartado específico a
la evaluación del control ejecutivo en los primeros años de vida. En este ámbito, cabe
recordar que, ya en la obra de Luria, se explica que un elemento fundamental en la
fisiología de los procesos mentales humanos es que su localización “no es estable,
constante, ya que cambia en el cuso del desarrollo del niño, y en las etapas ulteriores de
aprendizaje” (Luria, 1973: 74). Con esta afirmación, Luria indica que cada actividad
consciente compleja tiene originalmente una localización expandida y relacionada con
ayudas externas para su realización. Con posterioridad, esta actividad pierde
gradualmente tales ayudas para convertirse en una actividad motora automatizada. Este
hecho queda claramente ejemplificado en el aprendizaje de la escritura o de otros
procesos como las praxias constructivas gráficas. Dicho de otra forma, lo que
inicialmente es asociativo y ejecutivo pasa a ser automático o sensoriomotor. Estos
hechos tienen una importancia capital para reconocer la diferencia entre la evaluación del
adulto y del niño. En este ámbito, es muy importante recordar el papel fundamental de la
escolarización. Las praxias constructivas son un claro ejemplo.
Espero, obviamente, que el libro tenga una gran aceptación y que sirva para el
desarrollo de este ámbito complejo de la neuropsicología en sus aspectos teóricos y
prácticos. Se lo merece. También deseo que esta obra tenga continuidad temporal con
futuras ediciones. El tiempo va dando una perspectiva que obliga a los cambios, porque
la ciencia no es estática. Esto es lo que reiteradamente he planteado con la palabra rusa
perestroika. Lo que en su día enseñamos a nuestros estudiantes no es la verdad, es la
hipotética verdad temporal en el devenir de la ciencia y sus tecnologías.
Acabo, con una felicitación cordial a Alberto, animándolo a seguir por esta senda
de estudio y de excelencia.
12
Dr. Jordi Peña-Casanova
Director del máster en Neuropsicología y Neurología de la Conducta.
Departamento de Psiquiatría y Medicina legal.
Universitat Autònoma de Barcelona
13
1
Fundamentos generales
La medusa, con apenas 5.600 neuronas, o la hormiga, con poco más de 250.000
neuronas, son capaces de buscar alimentos y evitar a depredadores. Los animales con
cerebros más grandes, como es el caso del ser humano (con un cerebro formado por
86.000 millones de neuronas), disponen de un abanico de comportamientos más amplio y
flexible. Pero la flexibilidad conlleva un coste: los sistemas sensoriales y motores
proporcionan información detallada sobre el mundo exterior y un amplio repertorio de
acciones, pero tal situación comporta un mayor potencial de interferencia y confusión.
Así mismo, el procesamiento cerebral es competitivo. Diferentes vías, procedentes de
diferentes fuentes de información, compiten por expresarse en el comportamiento
humano.
La abundante información que se procesa sobre el mundo exterior y la miríada de
posibles respuestas comportamentales requieren procesos cerebrales de control que
gestionen la incertidumbre. Para hacer frente a esta multitud de posibilidades y reducir la
confusión, se dispone de mecanismos que coordinan los procesos sensoriales y motores.
Estos mecanismos de control reciben el nombre de funciones ejecutivas.
Las funciones ejecutivas (también denominadas control ejecutivo) engloban a una
familia de procesos cerebrales que permiten a los seres humanos formular planes,
ejecutarlos, anticipar posibles consecuencias y adaptar el comportamiento en función de
los obstáculos que puedan surgir en el camino.
Cuando el control ejecutivo está mermado o alterado, la capacidad funcional de la
persona acostumbra a verse seriamente comprometida y restringe su conducta a una serie
de comportamientos más o menos rígidos y estereotipados, que se caracterizan por:
14
estímulo-respuesta en función del contexto externo.
Antes de intentar aportar una respuesta a la pregunta ¿qué son las funciones
ejecutivas?, es preciso detenerse un instante en otra cuestión no menos importante: ¿cuál
es su origen?, ¿por qué poseemos control ejecutivo? Prácticamente todos los esfuerzos
dirigidos a comprender qué son las funciones ejecutivas han ignorado sistemáticamente
cuáles pueden ser sus orígenes y propósitos evolutivos. Tal situación se explica por el
escaso interés que ha despertado en el seno de la neuropsicología el motivo por el cual
los seres humanos disponen de este complejo mecanismo cognitivo.
El control ejecutivo puede definirse, de forma concisa, como todo aquel proceso
cerebral responsable de la asignación de recursos mentales para adaptar al organismo a
un entorno impredecible y cambiante. Procesos que hacen uso de representaciones
internas (objetivos) para la selección, modulación y coordinación de procesos cognitivos
y motores subordinados. Tal control es posible (y necesario) por los cambios evolutivos
en el tamaño y estructura del cerebro; cambios que han comportado un aumento
significativo de la longitud de las cadenas sinápticas que enlazan sensación y acción.
Uno de los principales cometidos del sistema nervioso central es vehicular cómo la
15
información sensorial se vincula a respuestas adaptativas. En el caso de los anfibios,
reptiles o aves, el vínculo entre estímulo-respuesta acostumbra a ser rígido, lo que limita
la gama de eventos que pueden identificar. También genera comportamientos instintivos
y automáticos resistentes al cambio; incluso cuando sus consecuencias son de carácter
negativo.
En los mamíferos, existe una mayor distancia entre estímulo y respuesta. Al
mismo tiempo que eventos sensoriales idénticos pueden desencadenar reacciones
diferentes, dependiendo de las particularidades del entorno. Este distanciamiento entre
estímulo y respuesta otorga al organismo libertad biológica para elegir, entre las opciones
disponibles, la más pertinente. Esta flexibilidad conductual es producto de la interposición
de procesos intermedios o integradores no observables entre la sensación (estímulo) y la
acción (respuesta); lo que, en términos generales, recibe el nombre de cognición. La
cognición (cognoscere, lat. “conocer”) es la facultad que permite procesar información a
partir de percepciones, conocimiento adquirido (experiencia) o características subjetivas.
En 1967, Neisser define cognición como todo proceso cerebral mediante el cual las
aferencias externas e internas son transformadas, reducidas, elaboradas, almacenadas,
recuperadas y utilizadas.
La mediación de la cognición entre sensación y acción implica que todo lo que se
sabe y conoce sobre la realidad es participado no solo por los órganos de los sentidos,
sino también por sistemas cerebrales complejos que interpretan y reinterpretan la
información sensorial para emitir respuestas acordes a las necesidades del momento.
Patrones de respuestas que son diferentes dependiendo del contexto, experiencias
pasadas, necesidades presentes y potenciales consecuencias futuras.
Utilizando como marco conceptual la evolución biológica de la especie humana,
Coolidge y Wynn (2009) plantean la existencia de dos momentos temporales (o saltos)
caracterizados por desarrollos cognitivos extraordinariamente significativos:
16
memoria operativa o memoria de trabajo. Como resultado, se produce un
salto cualitativo y cuantitativo en nuestra capacidad de planificación y
razonamiento abstracto.
El control ejecutivo es necesario para hacer frente a nuevas tareas o situaciones que
obligan al individuo a formular una meta, planificar y elegir entre secuencias alternativas
de conducta para alcanzarla; comparar las diferentes opciones con respecto a sus
probabilidades de éxito y eficiencia en relación con el objetivo elegido, e iniciar el plan de
acción seleccionado, ejecutarlo y modificarlo si es necesario para lograr el objetivo
establecido inicialmente.
Las tareas o situaciones que no requieren de control ejecutivo tienden a ser
provocadas por inputs ambientales o por asociaciones estímulo-respuesta previamente
aprendidas. Aquellas que demandan control ejecutivo pueden ser iniciadas y controladas
17
independientemente de los inputs ambientales, pues presentan la flexibilidad adaptativa
suficiente como para alcanzar el objetivo incluso cuando el entorno cambia y no hay
disponible experiencia previa aprendida que haga las veces de guía. Norman y Shallice
(1980, 1986) describen cinco tipos de situaciones en las que la activación automática de
la conducta no es suficiente:
18
– Procesamiento automático: secuencia de nodos que casi siempre se activa en
respuesta a un input con una configuración particular y sin necesidad de
control activo por parte del sujeto.
– Procesamiento controlado: secuencia de nodos activados bajo el control del
sujeto, que pueden ser alterados en situaciones nuevas para las cuales no
existen secuencias automáticas aprendidas.
19
misma tarea. Cada vez que el sujeto descubre el criterio de selección (categoría) la
velocidad de respuesta acostumbra a ser más rápida (puesto que el procesamiento pasa a
ser automático). Cuando se produce el cambio de criterio, la respuesta acostumbra a ser
más lenta y reflexiva (ya que entra en juego procesos cognitivos controlados).
La teoría del procesamiento de la información de Shiffrin y Schneider distingue
entre procesos cognitivos controlados y procesos cognitivos automáticos. Sin embargo,
no logra explicar plenamente cómo la información es seleccionada o inhibida frente a una
tarea concreta. Este vacío conceptual es subsanado por Posner y Snyder (1975) al
proponer el término control cognitivo. Concepto que glosa la capacidad de manejar los
pensamientos y emociones necesarios para la adaptación comportamental.
Por último, es preciso señalar que la diferenciación entre procesos controlados y
procesos automáticos favorece, en el último tercio del siglo xx, el auge de teorías e
hipótesis cognitivas jerárquico-categóricas; que consideran que los procesos cognitivos se
organizan en componentes independientes pero interrelacionados a nivel funcional.
Corriente teórica plenamente vigente, y dominante, aún hoy en día.
20
– Baron (2004): las habilidades de funcionamiento ejecutivo permiten que el
individuo perciba estímulos de su entorno, responda de manera adaptativa,
cambie con flexibilidad el foco de atención, anticipe metas futuras, considere
las consecuencias y responda de manera integrada y con sentido común.
– Dawson y Guare (2010): las habilidades ejecutivas nos permiten organizar
nuestro comportamiento a través del tiempo y anular demandas inmediatas a
favor de objetivos a más largo plazo.
– Barkley (2011): las funciones ejecutivas son un conjunto de acciones
autodirigidas destinadas a alterar un futuro (alcanzar un objetivo).
21
debe ser activado.
– Inhibición de respuestas (comportamiento de interrupción): capacidad para
inhibir las tendencias de respuesta automática o prepotente; crítica para el
comportamiento flexible dirigido a objetivos.
– Persistencia de la actividad (comportamiento de mantenimiento):
capacidad de mantener la atención y persistir hasta la finalización de una
actividad; se basa en una memoria de trabajo intacta.
– Organización (gestión de acciones y pensamientos): está involucrada en
controlar cómo se organiza y secuencia la información. Permite evitar
responder a información superflua borrándola de la memoria de trabajo. Así
mismo ayuda en los procesos necesarios para recuperar y secuenciar
información de forma organizada.
– Pensamiento generativo (creatividad, fluidez, flexibilidad cognitiva):
capacidad para generar soluciones, y pensar de manera flexible, para
resolver un problema.
– Monitorización (seguimiento y modificación del propio comportamiento):
capacidad para comprender las propias acciones y sentimientos, e incorporar
la retroalimentación del entorno para modificar el comportamiento.
22
especialmente en contextos en los que el comportamiento es desafiado por distractores
ambientales o mentales o por respuestas habituales aprendidas. Identifican dos
componentes especialmente importantes ante la presencia de distractores: mantenimiento
de objetivos y monitorización. El primero constituye un mecanismo proactivo que se
inicia antes de la necesidad de control y se mantiene hasta la finalización de la tarea. El
segundo, de naturaleza reactiva, se moviliza cuando se identifica un conflicto en el
transcurso del comportamiento que pueda comprometer la consecución del objetivo
deseado.
Junto a los modelos fundamentados en procesos cognitivos de orden superior, se
hallan aquellos basados en microprocesos (o procesos cognitivos básicos). Dentro de esta
tipología, el modelo formulado por Miyake, Friedman, Emerson, Witzki, Howerter y
Wager (2000) es uno de los que gozan de mayor popularidad entre investigadores y
clínicos. Estos autores proponen un modelo ejecutivo factorial en el que identifican tres
componentes ejecutivos básicos claramente diferenciados, aunque no totalmente
independientes, que posibilitan el control ejecutivo:
23
memoria de trabajo (o activar) la nueva.
Las tres funciones ejecutivas básicas descritas constituyen, según Diamond, la base
sobre la que se asientan procesos ejecutivos de orden superior como la resolución de
problemas, el razonamiento o la planificación.
La mayor parte de los modelos ejecutivos multicomponente, ya estén basados en
macro o microprocesos, proporcionan una visión componencial del control ejecutivo;
pero no hay que dejarse llevar por las apariencias. Si bien parecen reducir el control
ejecutivo a un conjunto de procesos cognitivos, ya sean de orden superior o inferior, en
realidad, conciben el control ejecutivo como un sistema con propiedades emergentes. La
mayor parte de los modelos teóricos existentes conciben el control ejecutivo como un
sistema que presenta un cierto orden o patrón autoorganizado de actividad visible cuando
se mira desde una perspectiva global, pero que no es reductible, o difícilmente
predecible, a partir de sus componentes fundamentales.
Desde la perspectiva de los sistemas dinámicos, los sistemas no pueden
descomponerse en relaciones aisladas, ya que todos sus elementos mantienen entre sí
una mutua dependencia. La totalidad, desde esta perspectiva, es algo más que la suma de
sus partes, y el reduccionismo no es una manera válida de abordar los fenómenos
complejos. La comprensión del sistema no se obtiene a través del conocimiento de sus
componentes, sino de la comprensión de las relaciones múltiples que se establecen entre
ellos. Estas relaciones, por otra parte, no siempre son lineales. A una misma causa no
siempre corresponde un mismo efecto, sino que ese efecto dependerá del estado del
sistema y de las relaciones que mantienen sus elementos entre sí en ese preciso instante.
El abecedario está formado por un número limitado de letras que, combinadas,
permiten construir una amplia variedad de palabras que, a su vez, se articulan entre ellas
formando oraciones. Estudiar el lenguaje obviando su gramática y sintaxis y reduciéndolo
al análisis de las palabras o las letras que las integran no parece la opción más acertada.
Curiosamente, esta opción claramente reduccionista es la que adoptan muchos
profesionales al conceptualizar el control ejecutivo. Cuando, probablemente, sea más
acertado concebirlo como un nuevo nivel de organización (sistema emergente) producto
de la interacción de los procesos cognitivos que lo conforman.
Pero, ¿cuáles son los procesos cerebrales que pueden considerarse ejecutivos? La
ausencia de una definición operacional brinda la posibilidad de realizar innumerables
interpretaciones sobre la naturaleza de las funciones ejecutivas; todas ellas plausibles
hasta que se demuestre lo contrario. Sin una definición coherente, acompañada de una
teoría verosímil que la sustente, las funciones ejecutivas se han convertido en un
metaconstructo neuropsicológico, o término paraguas, en el que tienen cabida un sinfín
de procesos cognitivos.
En 1994, se celebró en Washington DC una conferencia, organizada por el
National Institute of Child Health and Human Development, en la que se solicitó a diez
expertos en funciones ejecutivas que indicaran qué procesos las integran. Identificaron 33
componentes. Tras obtener este amplio listado, acordaron, por consenso, que las
funciones ejecutivas están formadas por seis componentes: autorregulación,
24
secuenciación del comportamiento, flexibilidad, inhibición de la respuesta, planificación y
organización conductual. Años después, en el 2009, Best, Miller y Jones identifican
quince componentes ejecutivos tras una exhaustiva revisión de la bibliografía. Estos
autores llegan a la conclusión de que las funciones ejecutivas están integradas por cuatro
componentes: inhibición, memoria de trabajo, flexibilidad y planificación. ¿Por qué Best,
Miller y Jones eligen estos cuatro componentes y no otros? Simplemente, porque son los
más utilizados y citados en la literatura especializada. Situación que no hace
necesariamente que sean los procesos cognitivos más importantes para comprender qué
son las funciones ejecutivas. Como dice Barkley (2012: 22), “it is only an indication of a
psychometric popularity contest”. Retomando la pregunta formulada, ¿cuáles son los
procesos cerebrales que pueden considerarse ejecutivos? –y dada la riqueza
terminológica ubicada bajo el paraguas ejecutivo–, no es extraño que aun a día de hoy
sea difícil construir una definición operacional explícita, consensuada, simple y clara de la
naturaleza de las funciones ejecutivas.
A pesar de que no existe una definición operacional consensuada que determine qué son
las funciones ejecutivas, muchos investigadores han intentado localizar el lugar del
cerebro dónde residen. Gran parte de lo que se conoce acerca de los sustratos
neurobiológicos del control ejecutivo deriva de estudios neuropsicológicos realizados en
pacientes con lesiones cerebrales. En las últimas décadas, las técnicas de neuroimagen
han permitido estudiar las bases neuroanatómicas de estos procesos cerebrales en
personas sanas, pacientes neurológicos con lesiones cerebrales estructurales y
poblaciones psiquiátricas. Los resultados obtenidos apuntan a los lóbulos frontales, más
concretamente a la corteza prefrontal, como el sustrato neurobiológico del control
ejecutivo.
25
Figura 1.1. Dos formas de secuenciación temporal de la acción. Parte superior: secuencia rutinaria y
sobreaprendida de acciones dirigidas a una meta; cada acción lleva al siguiente eslabón de la cadena. Parte
inferior: secuencia nueva y compleja; existe una contingencia entre las acciones a través del tiempo según el plan,
objetivo y acciones previas.
26
sensorial o motor para la percepción sensorial esperada o acción motora en
el curso de una secuencia de acciones dirigidas a objetivos.
– Memoria de trabajo: es la atención enfocada en una representación interna
para una acción intencionada en un futuro próximo. Se trata de una función
cognitiva predictiva, caracterizada esencialmente por la retención temporal
de un elemento de información para ejecutar una acción prospectiva. De tal
forma, Fuster entiende que la memoria de trabajo es una forma de atención
focalizada sobre una representación interna, básicamente memoria a largo
plazo actualizada y activada ad hoc para ser utilizada de forma prospectiva.
– Toma de decisiones: elección intencional de un curso de acción en un futuro
inmediato o alejado en el tiempo.
– Control de errores: mecanismo cognitivo dedicado a obtener y generar
señales sobre el éxito o fracaso de una acción, actividad o acto después de
su ejecución.
– Control inhibitorio: protege las estructuras de comportamiento de
interferencias externas e internas.
27
rostrales de la corteza prefrontal dorsolateral).
4. Branching: activación de los episodios de comportamiento o planes de
acción en función de las acciones que están desarrollándose
concomitantemente (asociado a las regiones más anteriores de la corteza
prefrontal, llamadas también polares o polo rostral).
Apuntar que, si bien la corteza prefrontal es esencial para el control ejecutivo, toda
funcionalidad atribuida a esta región cortical carece de sentido si no se considera su
ubicación en un mapa funcional conexionista cortico-subcortical. Por otra parte, no es
posible vincular procesos cognitivos de carácter ejecutivo con regiones prefrontales
concretas; aunque hay ciertas áreas de dominancia para determinados procesos. Fuster
subraya que esta dominancia no depende del proceso per se como del contenido
cognitivo particular con el que opera en un momento dado. Así, por ejemplo, un foco
dominante de actividad eléctrica o metabólica en la corteza prefrontal dorsolateral
durante la ejecución de una tarea de memoria de trabajo no es indicativo de la
localización del citado proceso en esa región cerebral, sino más bien de un signo de
activación de un nodo de la red cortical distribuida asociada a la memoria de trabajo. De
tal forma, es posible atribuir un dominio cortical preferido a un proceso cognitivo, el
cual dependerá de la distribución espaciotemporal dominante de la actividad cortical
asociada.
De este principio, se deriva que la infraestructura neuroanatómica vinculada a un
determinado proceso cognitivo también puede servir para otros procesos cognitivos (u
otros procesos cerebrales). Tal planteamiento sería aplicable tanto a la percepción, como
a la atención, memoria, lenguaje o funciones ejecutivas. En este marco conceptual, se
genera una pregunta trascendente de difícil respuesta: ¿tiene sentido establecer
diferencias entre procesos cognitivos tal y como se hace actualmente? Punto que se
retomará en otro apartado de este capítulo.
Por último, en la corteza prefrontal, a diferencia de otras regiones corticales, es
difícil establecer disociaciones dobles. Las funciones prefrontales, entre ellas las
implicadas en el control ejecutivo, se superponen anatómicamente y ninguna se localiza
específicamente en una región particular. De hecho, caer en la falacia reduccionista que
asume que el sistema cognitivo está compuesto por una colección de componentes o
módulos de procesamiento encapsulados, cada uno dedicado a realizar un proceso
cognitivo particular, no deja vislumbrar el papel supraordinado de la corteza prefrontal en
la dimensión temporal prospectiva del comportamiento.
28
pasado y planificar vislumbrando el futuro, así como considerar varias opciones para,
posteriormente, seleccionar la que consideran más acertada. Sin embargo, la capacidad
de los preescolares para controlar conscientemente sus pensamientos, acciones y
emociones es limitada. Y a menudo su conocimiento sobre lo que deben hacer supera su
capacidad para hacerlo.
El desarrollo del control ejecutivo, al igual que sucede con otros procesos
cognitivos, sigue un curso en el que es posible identificar tres etapas. Una primera etapa
emergente, donde se vislumbran indicios de la existencia de un procesamiento ejecutivo
todavía en fase embrionaria. Posteriormente, se produce una etapa de desarrollo,
caracterizada por una mayor integración ejecutiva si bien no plenamente funcional. Y,
finalmente, una última etapa en la que los procesos ejecutivos son plenamente operativos
y funcionales.
Los procesos cognitivos que conforman las funciones ejecutivas presentan diferentes
trayectorias de desarrollo; caracterizados por saltos temporales que coinciden con tres
periodos claves en la maduración de su sustrato neurobiológico: entre el nacimiento y los
2 años de edad, de los 7 a los 9 años y en la adolescencia tardía, entre los 16 y 19 años
de edad.
En los primeros seis meses de vida, el bebé puede recordar representaciones
simples. No obstante, si está jugando con un juguete y se cubre con una toalla, este deja
de existir para él: no lo busca y se comporta como si no existiera. Alrededor de los ocho
meses, son capaces de buscar el objeto que le ha sido ocultado y recuperarlo. Esta
conducta sugiere una forma embrionaria de procesamiento ejecutivo: el bebé puede
mantener online información que no se halla presente (representación del juguete y su
ubicación espacial) para la consecución de un objetivo (levantar la toalla y recuperar el
juguete). Paralelamente, durante el primer año de vida, emerge la habilidad de suprimir
respuestas dominantes. La capacidad para dejar de hacer una actividad placentera (jugar
con un peluche) frente a una demanda del cuidador es la primera forma de inhibición
observada en humanos. Los bebés de 8 meses son capaces de inhibir una conducta
placentera en el 40% de las ocasiones, mientras que, entre los 22 y 33 meses, este
porcentaje se sitúa alrededor del 85%. No obstante, estas formas embrionarias de
funcionamiento ejecutivo son muy frágiles y fácilmente alterables.
Una de las pruebas que más interés ha suscitado en la investigación del desarrollo
del control ejecutivo durante los primeros años de vida es la tarea A-no B. En esta tarea,
se colocan frente al niño dos pantallas opacas. Ante su mirada, se oculta un juguete tras
una de las pantallas (pantalla A) y se insta a que lo busque. Tras diversos ensayos, y
siempre ante la mirada atenta del niño, se esconde el juguete tras la otra pantalla (pantalla
B). La mayoría de bebés con edades comprendidas entre los 8 y 12 meses no tiene
dificultad alguna para realizar esta tarea, siempre y cuando el intervalo temporal en el que
29
se produce el cambio de ubicación del juguete no exceda los 2 o 3 segundos. Sin
embargo, ante demoras temporales más largas, insisten en buscar el juguete tras la
pantalla A, a pesar de que esta ya no sea la ubicación donde se encuentra. Con el
aumento de edad, los bebés son capaces de resistir demoras de tiempo cada vez más
amplias. Así, por ejemplo, es necesaria una demora de cinco segundos para que bebés de
9 meses cometan el error de buscar el juguete tras la pantalla A. Según Diamond (2006) ,
la dificultad para ejecutar correctamente la tarea A-no B se explica a una inhibición
ineficiente de la tendencia a repetir conductas exitosas y a un desvanecimiento de la
información (localización del juguete) tras la demora temporal. El aumento del periodo de
resistencia a la demora entre los 7 y 12 meses responde a una mayor capacidad para
mantener información online. La habilidad para manipular y transformar esta
información inicia su desarrollo posteriormente, entre los 15 y 30 meses de edad.
El uso de reglas para guiar la conducta en un niño de 3 años es superior a las
rudimentarias reglas empleadas por uno de 2 años. Si bien esta capacidad es todavía muy
limitada, tal y como puede observarse en los estudios realizados con la dimensional
change card sort (Garon, 2008). En esta prueba, los niños han de clasificar una serie de
tarjetas de acuerdo con la forma o color de los dibujos que contienen (estrella roja,
camión azul, etc.). Los resultados muestran que los niños de 3 años presentan
dificultades para cambiar de regla clasificatoria. Así, por ejemplo, si inicialmente se les
solicita que clasifiquen las tarjetas por la dimensión color (“pon las tarjetas rojas aquí y
las azules allí”) y, posteriormente, se cambia a la dimensión forma (“pon las estrellas aquí
y los camiones allí”), un niño de 3 años continúa clasificando las tarjetas según la
dimensión inicial (en este caso, el color). No es hasta los 4 años cuando el niño cambia
de dimensión sin problemas. Esta capacidad para utilizar un par de reglas arbitrarias
constituye el paso previo a la adquisición de la habilidad para integrar dos pares
incompatibles de reglas en un solo sistema de reglas; cambio que se produce alrededor de
los 5 años. Estos cambios tienen implicaciones significativas en la conducta del niño: le
permiten formular y utilizar juegos de reglas más complejos para regular su conducta.
Antes de los 3 años, a grandes rasgos, los niños son altamente dependientes de los
estímulos de su entorno, responden de forma rígida y estereotipada y su conducta está
orientada al aquí y ahora (al presente). Entre los 3 y 5 años, emerge la capacidad de
actuar de forma más flexible, así como de orientarse hacia el futuro. Gradualmente, el
niño muestra mayor capacidad para inhibir respuestas automáticas y respuestas asociadas
a refuerzos; si bien en pruebas como la day-night task se hacen patentes las dificultades
de los niños de 3 y 4 años para guiar sus acciones mediante reglas que requieren actuar
de forma contraria a sus inclinaciones. Alrededor de los 6 años, es posible observar una
mejora en la capacidad para controlar los impulsos; a los 9 años, los niños pueden regular
y monitorizar sus comportamientos de forma más eficiente.
La capacidad para aprender de los errores y formular estrategias alternativas se
adquiere de forma progresiva a lo largo de la infancia. Los niños más pequeños utilizan
estrategias muy simples que acostumbran a ser bastante ineficientes, azarosas o
fragmentadas. Entre los 7 y 10 años, la planificación de conductas y elaboración de
30
estrategias para su consecución es sensiblemente más organizada y eficiente. A pesar de
estas mejoras organizativas, en el periodo comprendido entre los 11 y 13 años, es posible
observar una regresión a estrategias fragmentadas, poco elaboradas. Esta paradoja podría
estar asociada a un conflicto interprocesos cognitivos en un periodo de transición entre
fases de desarrollo de las funciones ejecutivas. La implementación de estrategias
conceptuales y holísticas, por ejemplo, choca con la utilización de procesos de
autorregulación; procesos que requieren descomponer la actividad para una
monitorización precisa de su ejecución. El balance, y priorización, entre ambos procesos
requiere control ejecutivo. Y este es posible únicamente cuando cada uno de ellos
alcanza el umbral de desarrollo óptimo.
Llegada la adolescencia se constata una asombrosa contradicción: los jóvenes
muestran una disociación entre su capacidad de saber y hacer. Frecuentemente, saben lo
que tienen que hacer, pero no lo hacen, o al menos no aplican su conocimiento de
manera consistente. Tal situación muestra que, si bien se acostumbra a presuponer que
los adolescentes se comportan de manera similar a los adultos, su control ejecutivo aún
no es plenamente funcional. Los sistemas de regulación conductual son dirigidos
gradualmente por las funciones ejecutivas; inmersas estas en un largo proceso de
ensamblaje sometido a demandas crecientes de autorregulación.
Tradicionalmente, se consideraba que el control ejecutivo mejoraba de forma lineal
a medida que el individuo crecía. Sin embargo, cada vez hay más datos que apuntan a
que su desarrollo sigue un curso no lineal. Al igual que sucede entre los 11 y 13 años, por
ejemplo, en la adolescencia tardía, se constata un peor desempeño en tareas ejecutivas
en comparación con el rendimiento obtenido en la adolescencia temprana; diferencias
posiblemente explicadas por los procesos de reorganización neuronal que acontece en
este periodo vital.
31
orientación teórica. Los términos más utilizados clásicamente son inteligencia fluida e
inteligencia cristalizada. Otra forma de entender esta dicotomía es considerar que una
categoría agrupa procesos (razonamiento) y otros productos (conocimiento) asociados
con la cognición. En términos generales, los adultos mayores acumulan conocimiento
(sabiduría), fruto de una vida plagada de experiencias, pero ven reducida su capacidad
para utilizarlo.
En el caso de las funciones ejecutivas, es evidente su vulnerabilidad observando el
comportamiento cotidiano de los adultos mayores:
En el transcurso del ciclo vital, las funciones ejecutivas dibujan una gráfica en
forma de U invertida, lo que muestra un marcado desarrollo durante la infancia y
adolescencia, seguida por una disminución progresiva y gradual en la edad adulta. Los
niños pequeños, al igual que los adultos mayores, tienden a responder a las demandas del
entorno (control ejecutivo reactivo), mientras que los niños mayores y adultos jóvenes
acostumbran a ser más habilidosos a la hora de planificar y anticipar (control ejecutivo
proactivo).
El control inhibitorio empeora sustancialmente en los adultos mayores. Estos
presentan una buena capacidad para atender a estímulos relevantes, pero dificultades
para suprimir o ignorar aquellos que no lo son. Independientemente de si están o no
aparentemente preparados o del intervalo temporal entre estímulos relevantes e
irrelevantes, los adultos mayores tienen más dificultades que los adultos jóvenes a la hora
de suprimir información innecesaria y prescindible. Por otra parte, el deterioro del control
inhibitorio explicaría, al menos en parte, los cambios en la memoria de trabajo descritos
en la literatura. Si bien en las actividades que requieren baja participación de memoria de
trabajo no muestran dificultades, en aquellas con una alta carga en memoria de trabajo, el
rendimiento disminuye de forma acusada.
Estudios experimentales sugieren que hay diferencias de edad en la forma en que
las personas forman e infieren conceptos. Cuando se solicita a un adulto mayor que
clasifique objetos tiende a hacerlo en función de relaciones funcionales y no tanto por
relaciones semánticas más abstractas (naranja y plátano son frutas; perro y león son
animales). En la twenty questions task, por ejemplo, el sujeto tiene que descubrir,
empleando un máximo de 20 preguntas cerradas de sí o no, qué estímulo objetivo ha
seleccionado el examinador de un conjunto de 30 estímulos. Los adultos mayores hacen
preguntas que descartan una sola alternativa, mientras que las realizadas por los adultos
32
jóvenes eliminan categorías completas de alternativas. Del mismo modo, en pruebas tipo
Wisconsin card sorting test, en las que se presenta una serie de estímulos que difieren en
múltiples dimensiones (forma, color, tamaño, etc.) y tienen que inferir la dimensión
particular correcta, a partir de la retroalimentación del examinador, acostumbran a rendir
peor que los adultos jóvenes. Incluso parece que respondan al azar, no beneficiándose de
la retroalimentación proporcionada a través de múltiples ensayos. En otros casos, tienden
a realizar selecciones repetitivas: mostrando francas dificultades para revisar sus
selecciones anteriores y planificar sus próximos movimientos. Tales dificultades se
observan incluso cuando las demandas de memoria de trabajo se mantienen al mínimo
(al introducir ayudas externas como pueden ser notas escritas).
En línea con lo descrito en el anterior párrafo, a menudo, los adultos mayores
abordan actividades de razonamiento de forma concreta. En tareas de clasificación, en
lugar de ordenar los objetos o estímulos sobre la base de categorías semánticas
abstractas, pueden agruparlos de acuerdo con la existencia de conexiones funcionales
entre ellos o bien para formar un patrón. En el subtest semejanzas de la escala de
inteligencia de Wechsler para adultos, por ejemplo, en comparación con los adultos
jóvenes, los adultos mayores tienen más probabilidades de identificar indicios concretos y
perceptivos en lugar de deducir el indicio abstracto común que une a ambos estímulos.
Por ejemplo, ante la pregunta ¿qué tienen en común una pera y una manzana?, en lugar
de responder que son frutas, indican que ambas pueden comerse. El establecimiento de
semejanzas implica de la participación de procesos cognitivos complejos. Descubrir las
semejanzas supone la separación (abstracción) de un indicio fundamental común y la
comparación (generalización) de ambos estímulos según dicho indicio.
Respecto a la flexibilidad, aunque existen evidencias sobre su disminución en los
adultos mayores, las implicaciones de estos hallazgos en la vida cotidiana son menos
claras. En tareas familiares, o en situaciones en las que no se requieren rápidos cambios
de comportamiento, los cambios graduales en la flexibilidad identificados en el laboratorio
tienen un impacto mínimo.
La toma de decisiones también se deteriora en el adulto mayor. Estos toman
decisiones menos ventajosas, dependen más de la heurística al formar juicios y, a
menudo, recaban y revisan un menor volumen de información en comparación con los
adultos más jóvenes. Sin embargo, cuando existe una motivación poderosa, las
diferencias relacionadas con la edad pueden reducirse, razón por la que los adultos
mayores procesan la información de una manera más preparada y apropiada. Igualmente,
los cambios en los horizontes temporales (es decir, la conciencia que el tiempo de vida
restante es muy limitado) pueden, en casos concretos, implicar decisiones más acertadas.
En determinados contextos, los adultos mayores son capaces de rendir igual de
bien, si no mejor, que los adultos más jóvenes; a pesar de los cambios cognitivos
experimentados con la edad. Por ejemplo, los adultos mayores acostumbran a generar
menos soluciones frente a un problema concreto, pero su calidad puede ser similar a las
elaboradas por un adulto joven. También hay evidencia de que los adultos mayores
abordan los problemas interpersonales de una manera cualitativamente diferente, pues
33
esta área de resolución de problemas permanece relativamente intacta. Además, el
rendimiento en las tareas de razonamiento e inducción que requieren utilizar el
conocimiento y experiencia adquirida en el transcurso de la vida tienden a mostrar
escasos déficits.
Usualmente se pierde de vista que el cerebro es un órgano que forma parte del cuerpo
(embodied) y está incrustado en un medio sociocultural (embedded), del cual depende
ineludiblemente. El entorno en el que vive un individuo y las experiencias a las que está
expuesto acostumbran a ignorarse al describe el desarrollo del control ejecutivo. Cuando
la relevancia de elementos sociales y culturales son elementos sine qua non para
entender su desarrollo. Así mismo, no hay que subestimar que la dinámica de estos
procesos cognitivos en el transcurso de la vida está determinada, en última instancia, por
la interacción entre individuo (genoma) y entorno.
La neuropsicología asume que la mente opera bajo leyes naturales y universales
independientes de contenido y contexto. No obstante, las personas somos seres
culturales, cuyas acciones, pensamientos y sentimientos se hallan inmersas en entornos
socioculturales. Tal y como se indica desde la psicología cultural, la psicología
sociocultural o la psicología transcultural, la forma, contenido y función de los
fenómenos mentales (percibir, recordar y conocer) es inseparable del contexto
sociocultural en el que se producen. Los animales están condicionados por la biología,
mientras que las personas por la cultura. Es, pues, necesario concebir que los procesos
cerebrales no tienen lugar en el vacío, sino que están inmersos en un contexto físico y
temporal concreto. Si se estudian cerebros aislados, los resultados pueden no ser
relevantes para entender la base cerebral del comportamiento humano. Tal y como señala
Bruner, desde la psicología cultural, se asume que no es posible entender la actividad
mental si no se tiene en cuenta el contexto cultural en el que se produce y los recursos
culturales que proporcionan a la mente su forma específica.
La neuropsicología fundamenta su explicación del comportamiento en factores
esencialmente biológicos. El cuerpo de conocimiento que se ha generado en esta
disciplina psicobiológica trata de hallar vínculos entre los cambios cerebrales (fisiológicos)
y variaciones comportamentales, de manera que estos últimos se explican en función de
los primeros. Entendiendo que la mente, concebida como un producto derivado de los
procesos cerebrales, es un sistema contenido, encerrado y aislado del entorno, ubicado
dentro de la cavidad craneal. Lo que Donaldson ha denominado solipsismo cognitivo.
Desde este punto de vista, la mente es una entidad autosuficiente, gracias a la cual las
personas afrontan el mundo de manera autónoma. Y la cultura es, simplemente, una
fuerza que ayuda a moldear la mente, pero incapaz de influir sustancialmente en sus
dinámicas básicas.
Centrarse en aquello que sucede dentro de la cabeza aporta, sin lugar a dudas,
34
información para entender el funcionamiento cerebral. Pero proporciona, en el mejor de
los casos, una visión parcial del desarrollo y consolidación de los procesos cerebrales. Y
es que el ser humano no es exclusivamente un ser cognitivo. Ni debe obviarse que los
procesos cerebrales son sensibles al contexto concreto en el que tienen lugar.
¿Por qué la neuropsicología acostumbra a olvidar la importancia del entorno en el
desarrollo y consolidación de los procesos cerebrales? Tal vez porque, históricamente, al
menos en la cultura occidental, esta disciplina se ha desarrollado a partir de modelos
teóricos que persiguen identificar elementos explicativos comunes y universales para
entender el funcionamiento del cerebro desde una perspectiva centrada en el sujeto; que
no contempla la influencia de las variaciones culturales. A la par, las teorías de
procesamiento de la información y su forma de ver el funcionamiento del cerebro son un
factor clave para entender este desafortunado sesgo.
Desde la psicología evolutiva y de la educación, las teorías culturales contextuales
conciben el entorno como un verdadero motor de desarrollo. Por su repercusión e
impacto en marcos conceptuales actuales y su notoria ruptura con visiones individualistas
del desarrollo, destacan la teoría sociohistórica de Vygotsky (1979) y la teoría ecológica
de Bronfenbrenner (1987).
Davis-Kean y Eccles (2005) proponen el modelo de funcionamiento ejecutivo
social; derivado, en parte, de la teoría ecológica de Bronfenbrenner. Este modelo
describe el papel de personas e instituciones sociales como gestores (lo que las autoras
denominan funcionarios ejecutivos) de la vida cotidiana de los niños.
En el centro del modelo, se sitúa el niño, que recibe recursos y procesa la
información del entorno que lo rodea. Al tiempo que aporta sus propias capacidades
cognitivas, personalidad y temperamento y otros factores constitucionales (figura 1.2). A
su alrededor, se articulan diversos funcionarios ejecutivos, donde los más cercanos son la
familia y la escuela. Este modelo propone que las escuelas, por ejemplo, actúan como
funcionarios ejecutivos de los niños cuando establecen programas para la gestión de su
tiempo y actividades. De manera similar, las familias ejercen de funcionarios ejecutivos
cuando instauran procedimientos para el manejo de las múltiples tareas vinculadas con la
crianza y educación de los hijos: horarios de comida, preparación para ir a la escuela,
actividades extraescolares, deberes o rutinas a la hora de ir dormir. Con la ayuda de
personas e instituciones de referencia, los niños, eventualmente, aprenden a gestionar y
organizar estas tareas y se convierten, en última instancia, en adultos autónomos y
socialmente integrados.
35
Figura 1.2. Modelo de funcionamiento ejecutivo social.
Fuente: modificado de Davis-Kean y Eccles, 2005.
36
Uno de los ejemplos más claros es la memoria de trabajo. Tanto los estudiosos de la
memoria como los del control ejecutivo, la consideran parte de su dominio de
investigación. Es más, Alan Baddeley, uno de los principales teóricos de este constructo,
escribe en 1993 un texto con el sugerente título Working memory or working attention?
Otro ejemplo. ¿Atención dividida o flexibilidad? La primera es uno de los componentes
del modelo clínico de atención de Sholberg y Mateer, mientras que la segunda es para
muchos una de las piedras angulares del control ejecutivo.
Retomando la definición de cognición de Neisser, esta es todo proceso cerebral
mediante el cual las aferencias externas e internas son transformadas, reducidas,
elaboradas, almacenadas, recuperadas y utilizadas. De lo cual podría derivarse que
aquello que se denomina funciones cognitivas (percepción, atención, memoria o
funciones ejecutivas, entre otras) son divisiones hipotético-teóricas de la cognición.
37
el medio sociocultural en el que vive.
38
satisfacer la necesidad de controlar la acción. Ya en la década de 1950, Sperry propone
que “its primary function is essentially the transforming of sensory patterns into patterns
of motor coordination”. El pensamiento evoluciona filogenéticamente para guiar las
acciones físicas necesarias para la supervivencia del organismo. Se piensa para controlar
y anticipar las consecuencias de los actos. No se hace con el propósito de reflexionar o
razonar per se. Los procesos cognitivos cobran sentido según se traducen en conductas.
Su importancia deriva de sus efectos potenciales; de su efecto sobre el comportamiento.
En este contexto, la actividad motora no es subsidiaria de las demandas del
procesamiento cognitivo, sino a la inversa: el procesamiento cognitivo es un medio para
una mejor regulación de la respuesta manifiesta. Y aquello que se denominan funciones
ejecutivas (o control ejecutivo) se convierte en un elemento clave para desarrollar
comportamientos más eficientes.
39
interpreta los resultados obtenidos en los test (y otros procedimientos como entrevistas,
cuestionarios o escalas) y los integra con la información premórbida y las circunstancias
personales actuales del examinado.
Los test neuropsicológicos (o pruebas neuropsicológicas) son herramientas
objetivas, estandarizadas y normalizadas que permiten evaluar dominios cognitivos, de
forma cuantitativa o cualitativa. La objetividad hace referencia a la sustitución del juicio
personal del examinador (basado en criterios subjetivos) por unas normas determinadas y
conocidas que permiten obtener e interpretar las puntuaciones de las personas evaluadas
en igualdad de condiciones. En esta línea, la estandarización es el proceso de unificación
de materiales, instrucciones y sistemas de calificación explícitos. Sin este proceso, no es
posible compara el rendimiento de múltiples personas o las puntuaciones de una misma
persona en diferentes administraciones. En cuanto a la normalización, es el proceso que
permite comparar el rendimiento de una persona concreta respecto a lo que se denomina
la muestra normativa. Esto es, el grupo representativo de personas con características
similares a las de la persona evaluada (edad, género, nivel educativo, etc.) que sirve de
marco de referencia para la interpretación de sus puntuaciones.
40
– Tiene una única moda, que coincide con su media y mediana.
– La curva normal es asintótica al eje de abscisas. Por ello, cualquier valor
entre menos infinito y más infinito es teóricamente posible. El área total bajo
la curva es, por tanto, igual a 1.
– Es simétrica con respecto a su media. Es decir, para este tipo de variable,
existe una probabilidad de un 50% de observar un dato mayor que la media
y un 50% de observar un dato menor.
– La distancia entre la línea trazada en la media y el punto de inflexión de la
curva es igual a una desviación estándar. Cuanto mayor sea la desviación
estándar, más aplanada será la curva.
– El área bajo la curva comprendida entre los valores situados
aproximadamente a dos desviaciones estándar de la media es igual a 0,95.
41
– El efecto de un factor externo (un tratamiento) que cambia la ubicación de la
media, mediana y moda, influyendo en la variabilidad y forma de la
distribución.
– La presencia de efecto suelo o techo en las puntuaciones.
Si una prueba es demasiado fácil, se espera que la mayoría de los sujetos obtengan
puntuaciones máximas o bien puntuaciones muy altas. Es el denominado efecto techo:
muchas puntuaciones se sitúan en la parte superior de la distribución. Por el contrario,
cuando la prueba es demasiado difícil, la mayoría de las puntuaciones tenderán a ser
bajas o muy bajas (situándose en la parte inferior de la distribución): es el efecto suelo.
La presencia de cualquiera de estos dos efectos influye en la distribución de las
puntuaciones y condiciona la utilidad de la medida.
42
– Su simplicidad conceptual y su universalidad, dado que no hay que tener
conocimientos matemáticos ni estadísticos, hacen que sean fácilmente
comprensibles.
– En su cálculo e interpretación, ya que solo centran su atención en el orden de
las observaciones, resulta irrelevante como se distribuyen los valores objeto
de análisis.
– Es posible abordar cualquier tipo de distribución mediante percentiles. Esta
característica es especialmente interesante en neuropsicología, donde es
relativamente frecuente que las variables de interés no se ajusten a una
distribución normal.
43
Es preciso señalar que, en la explicación de cómo interpretar una puntuación Z, se
habla de muestra y no de población. Una población es un conjunto de elementos que
presentan una característica común. Puesto que las poblaciones acostumbran a ser
demasiado grande para abordarse en su totalidad, se selecciona una colección de algunos
elementos para su estudio. Esta selección es la muestra.
En esta diferencia, descansa una de las consideraciones más relevantes al
interpretar las puntuaciones Z: las inferencias a las que puede llegarse mediante el uso de
estas puntuaciones dependen de la muestra utilizada; concretamente, de su media y
desviación estándar, medidas con las que se calculan las puntuaciones Z. De forma que
resulta imprescindible que la muestra sea representativa de la población estudiada (que
contenga las características relevantes de la población).
44
Los profesionales pueden cuantificar el margen de error asociado a la puntuación
obtenida para estimar la puntuación verdadera. Cuando se conoce la desviación estándar
de la muestra y la fiabilidad de las puntuaciones obtenidas, es posible calcular una
estimación del error asociado a las puntuaciones obtenidas. Este valor se conoce como
error estándar de medida (EEM).
El EEM es un buen índice para indicar la precisión de la prueba, pero no es fácil
de interpretar. Otro método más fácil de comprender es el intervalo de confianza. El
intervalo de confianza expresa entre qué límites se sitúa la media de la población con un
determinado grado de confianza o de seguridad. Lo más típico es operar con un nivel de
confianza del 95%. Esto quiere decir que la probabilidad de error es de un 5%.
A) Fiabilidad
45
no depende únicamente de las características propias del instrumento, sino también de las
características de los sujetos que forman la muestra utilizada para su estimación. No es
posible asumir la fiabilidad obtenida con determinadas muestras como aval de la
fiabilidad del instrumento.
Un malentendido frecuente es que la fiabilidad puede calcularse. En realidad,
según la teoría clásica de los test, nunca puede ser calculada directamente, sino
únicamente ser estimada. Asociada a este malentendido, está la creencia de que existen
diferentes tipos de fiabilidad: cuando lo que realmente existen son diferentes métodos
estadísticos para estimarla o métodos de estimación.
Otro error muy arraigado entre los profesionales clínicos es que existen ciertos
estándares en relación con los niveles mínimos aceptables para que una medida tenga
fiabilidad. En diversos textos, se indican puntos de corte según los cuales se considera
cuándo un nivel de fiabilidad es aceptable. Por ejemplo, las pruebas con una fiabilidad
inferior a 0,60 no son fiables; aquellas con valores situados entre 0,60 y 0,70 son
marginalmente fiables, y, por encima de 0,70, son relativamente fiables. El problema de
este tipo de estándares es que no advierten de que se trata de estimaciones de la
fiabilidad y, por lo tanto, deben tratarse con cautela. Es necesario no perder de vista que
la estimación de la fiabilidad de una medida concreta no es un objetivo en sí mismo, sino
que su finalidad última es permitir la estimación del EEM que contienen las puntuaciones
observadas y, de esta manera, inferir la puntuación verdadera que corresponden a una
puntuación observada cualquiera.
B) Validez
46
evidencias:
47
mide. De ello se desprende que la fiabilidad y la validez son una cuestión de grado y no,
como muchos profesionales piensan, algo que una medida posee o no.
C) Sensibilidad y especificidad
Así, una prueba será válida si es capaz de medir correctamente el fenómeno que
pretende medir. Pero, para poder estimar su validez, es preciso comparar la citada prueba
con un patrón de referencia o patrón oro (del inglés, gold standard); prueba que refleja
fielmente el fenómeno a medir. De este modo, una medida, muchas veces nueva, se
compara con una antigua y ampliamente aceptada para intentar determinar si la nueva
ofrece el mismo rendimiento, o similar, que la de referencia. Del cruce de los resultados
posibles en las dos medidas, se genera una tabla de 2 × 2, conocida como matriz de
decisión (cuadro 1.1). Esta matriz representa el escenario diagnóstico más simple, en el
que tanto el patrón oro como la prueba diagnóstica clasifican a los pacientes en dos
grupos en función de la presencia o ausencia de un síntoma, signo o enfermedad.
48
La sensibilidad es la proporción entre la tasa de verdaderos positivos sobre el total
de los pacientes en que la condición de estudio está presente. En otras palabras, la
sensibilidad responde a la pregunta ¿qué porcentaje de los pacientes con la condición de
estudio presente tiene un resultado positivo en el patrón oro? La especificidad es la
proporción entre la tasa de verdaderos negativos sobre el total de pacientes en que la
condición de estudio no está presente. O, lo que es lo mismo, ¿qué porcentaje de
pacientes sin la condición de estudio tiene un resultado negativo en el patrón oro?
Al interpretar la sensibilidad y especificidad de una prueba en neuropsicología, es
pertinente no perder de vista que estos estadísticos son características operativas de las
herramientas de medida que reflejan el grado de conformidad de los resultados obtenidos
en relación con otra medida que se considera el patrón oro. En neuropsicología, es muy
difícil, sino prácticamente imposible, disponer de un patrón oro válido.
La metodología utilizada para establecer la sensibilidad y especificidad de un
instrumento de medida se articula a partir de un modelo eminentemente médico. En
medicina, el patrón oro suele ser una prueba diagnóstica muy precisa que identifica con
un margen de error exiguo el fenómeno medido. En neuropsicología, la situación es
mucho más compleja, ya que los fenómenos por medir acostumbran a ser constructos
para los cuales no tiene por qué existir un consenso con respecto a las definiciones
fundamentales o los criterios diagnósticos.
D) Valores predictivos
49
paciente presenta la condición a estudio (o no la presente)? Ni la sensibilidad ni la
especificidad aportan esta información. Para ello, deben calcularse los valores
predictivos.
El valor predictivo positivo es la probabilidad de presentar la condición estudiada si
se obtiene un resultado positivo en la prueba. El valor predictivo positivo puede
estimarse, por tanto, a partir de la proporción de pacientes con un resultado positivo en la
prueba que, finalmente, resultan presentar el síntoma, signo o enfermedad. El valor
predictivo negativo es la probabilidad de que un sujeto con un resultado negativo no
presente la condición estudiada y se halla dividiendo el número de verdaderos negativos
entre el total de pacientes con un resultado negativo en la prueba.
Los valores predictivos informan de la probabilidad de presentar la condición
estudiada una vez realizada la prueba y conocido su resultado (probabilidad posprueba).
Pero las predicciones derivadas de estos valores tienen una validez limitada porque
dependen de la prevalencia del síntoma, signo o enfermedad en la población donde se
aplica (probabilidad preprueba).
50
Desde finales de la ¿Cuándo o en qué contexto es especialmente relevante una
década de 1980 hasta la conducta? (Validez ecológica de los test neuropsicológicos).
actualidad
– Definir los perfiles clínicos que caracterizan diferentes tipos de trastornos que
cursan con alteraciones cognitivas.
– Contribuir a clarificar diagnósticos, especialmente en aquellos casos en que
no se detectan alteraciones estructurales en las pruebas de neuroimagen.
– Planificar programas de rehabilitación individualizados a partir de las
limitaciones del sujeto, pero también de sus capacidades preservadas.
– Valorar la eficacia de diferentes intervenciones en términos de funcionamiento
cognitivo.
– Identificar factores pronósticos (de evolución).
– Valoraciones médico-legales.
– Verificar hipótesis sobre los vínculos entre cerebro y conducta que permita
mejorar la comprensión de las relaciones entre cerebro y funcionamiento
cognitivo.
51
cotidiana. Un inciso: no debe confundirse, ni equipararse, la expresión validez ecológica
a términos psicométricos como validez de contenido o validez predictiva.
En 1956, Brunswik introduce el término validez ecológica para describir aquellas
condiciones bajo las cuales es posible generalizar los resultados obtenidos en
experimentos controlados a situaciones que tienen lugar en el mundo real. Para
Bronfenbrenner (1977), una investigación es válida, ecológicamente hablando, si se
desarrolla en un ambiente natural, utilizando objetos y actividades del día a día. Plantea
que la artificialidad del laboratorio o la consulta incluye no solo las condiciones de la
situación experimental o de evaluación, sino también el tipo y naturaleza de las tareas
propuestas; muchas veces desconectadas de los problemas cotidianos. Tomando
prestadas las palabras de este autor, gran parte de la investigación en psicología cognitiva
ha consistido en estudiar las conductas de sujetos ubicados en entornos extraños, ante
personas extrañas, con tareas artificiales y durante periodos de tiempo lo más breves
posibles.
En el ámbito de la neuropsicología, Kvavilashvili y Ellis (2004) proponen que la
validez ecológica está determinada por el grado de representatividad de un test y el nivel
de generalización de sus resultados. Según estos autores, la representatividad de un test
depende del nivel de correspondencia que se establece entre este y las situaciones reales
con las que puede encontrarse el individuo. En cuanto a la generalización de los
resultados, el nivel de validez ecológica será mayor si la ejecución del sujeto permite
predecir los problemas o limitaciones que este puede presentar en su vida cotidiana. El
marco conceptual propuesto por Kvavilashvili y Ellis asume que las demandas cognitivas
que exigen las distintas situaciones a las que se enfrenta una persona en su vida cotidiana
son idiosincrásicas y fluctúan como resultado de su naturaleza específica. Así mismo, el
rendimiento cognitivo está sometido a oscilaciones dentro del propio individuo
(variabilidad intrasujeto); oscilaciones que dependen tanto de aspectos personales (fatiga,
motivación, alcohol o abuso de sustancias, etc.) como situacionales (entornos que
demanden velocidad en el procesamiento de la información, carga de trabajo de la tarea,
etc.).
La validez ecológica de la evaluación neuropsicológica no depende exclusivamente
de los test administrados, sino también de una adecuada contextualización de la
información obtenida en estos. El conocimiento de la realidad en la cual está inmerso el
sujeto, junto a sus características personales, es fundamental, ya que permite delimitar y
comprender mejor los hallazgos de la evaluación, lo cual, en definitiva, debe permitir al
profesional evitar realizar inferencias erróneas respecto a las dificultades que el sujeto
puede encontrarse en su vida cotidiana. Los seres humanos no producen conductas en el
vacío, sino en un entorno cambiante que condiciona el abanico de actos que se
despliegan en cada momento.
Al hablar de validez ecológica, algunos autores enfatizan la importancia del
realismo de los materiales utilizados. Con todo, no hay que confundir validez ecológica
con validez aparente. La validez aparente hace referencia al grado en que un instrumento
parece medir lo que se quiere medir. ¿Y cómo intentan lograr tal propósito?
52
Embelleciendo las medidas, simulando características que aparentemente son propias de
situaciones de la vida real. Pero que un test utilice materiales o utensilios habituales del
día a día no es suficiente para asegurar la validez ecológica del mismo. Si bien los test de
orientación ecológica muestran mayor validez aparente que los test neuropsicológicos
tradicionales, los resultados obtenidos por el sujeto en ellos no siempre permiten
determinar su capacidad funcional. Por otro lado, un test puede no tener validez aparente
y, sin embargo, reproducir las demandas cognitivas que el sujeto necesita para desarrollar
satisfactoriamente sus actividades cotidianas y, por tanto, constituir una herramienta útil
para la descripción y predicción de su funcionamiento en el día a día.
En neuropsicología, existen dos enfoques metodológicos principales para abordar la
validez ecológica. El primer enfoque defiende el uso de pruebas que imitan las demandas
cognitivas propias de escenarios cotidianos. El segundo el uso de pruebas
neuropsicólogicas que han demostrado su capacidad para predecir el comportamiento
cotidiano de una persona (capacidad laboral o integración social).
El primer enfoque (verosimilitud) sostiene que las demandas cognitivas del test se
asemejan a las demandas cognitivas de escenarios cotidianos. Según esta aproximación,
un test debe reproducir las demandas cognitivas que el sujeto necesita en las actividades
que desarrolla en su día a día. La behavioural assessment of the dysexecutive syndrome
trata de reproducir las demandas ejecutivas que una persona puede encontrarse en su
vida cotidiana. Sin embargo, esta aproximación pasa por alto si los datos obtenidos,
normalmente en condiciones artificiales (una consulta), a pesar de su aparente
verosimilitud, reflejan con precisión las demandas cognitivas del entorno del paciente.
El segundo enfoque (veridicabilidad) intenta identificar el grado en que las pruebas
están relacionadas con medidas funcionales. Desde esta aproximación, se plantea que los
test neuropsicológicos tradicionales (que no se diseñaron desde una perspectiva
ecológica) aportan información sobre la capacidad funcional del sujeto en su vida
cotidiana.
Spooner y Pachana (2006) identifican cinco argumentos que contribuyen a
perpetuar la resistencia de los neuropsicólogos a la incorporación de medidas con validez
ecológica en sus protocolos de evaluación:
53
la evaluación y desarrollan un apego romántico a pruebas o baterías
concretas. Esta situación se explicaría, al menos en parte, por el alto grado
de familiaridad con las pruebas utilizadas.
3. Validez aparente, o el grado en que un instrumento parece medir lo que
quiere medirse.
4. Solapamientos con terapia ocupacional. La terapia ocupacional se ocupa de la
evaluación y rehabilitación de habilidades funcionales, incluyendo la
comprensión del impacto de las dificultades cognitivas en las actividades de
vida diaria. Algunos neuropsicológicos creen que el uso de pruebas con
verosimilitud puede suponer una invasión de las competencias propias de la
terapia ocupacional.
5. Pensar que los test neuropsicológicas miden constructos específicos. En el
contexto clínico, acostumbra a ser más útil y conveniente informar los
hallazgos de la evaluación en términos de desempeño en dominios
específicos y discretos en lugar de hacer juicios más amplios sobre la
funcionalidad en la vida diaria.
54
2
El proceso de evaluación de las funciones
ejecutivas
55
no parece ser útil en el caso de las funciones ejecutivas.
Parte del problema reside en cómo se definen conceptualmente las funciones
ejecutivas. A grandes rasgos, las diversas definiciones utilizadas para delimitar conceptos
como atención, memoria o lenguaje pivotan en torno a qué y cuánto conocimiento,
habilidad o capacidad posee una persona para realizar una determinada actividad. Por el
contrario, las definiciones de funciones ejecutivas acostumbran a comprender el cómo lo
hace. Las cuestiones que se plantean en torno a estos procesos cognitivos intentan
responder a preguntas del tipo: ¿qué nivel de rendimiento es capaz de alcanzar?, ¿cómo
inicia o detiene una actividad?, ¿cómo se autocorrige de forma consistente y eficaz? o
¿cómo reacciona y responde a los cambios introducidos en las demandas asociadas a la
actividad?
Gran parte de las pruebas que se utilizan en la evaluación de las funciones
ejecutivas hacen francamente difícil que el examinador pueda observar cómo el paciente
planifica una actividad dirigida a un objetivo, si la inicia o si lleva a cabo los planes
trazados. Las particularidades del entorno de evaluación, así como las características de
numerosas pruebas ejecutivas, sitúan al examinador en una posición de desventaja a la
hora de percibir alteraciones en estos procesos cognitivos. Normalmente, es el
examinador, y no el paciente, el que decide lo que este último debe hacer, qué elementos
utilizará y el marco temporal dentro del cual se moverá. Actuando en última instancia
como un mecanismo de control ejecutivo externo. Tal situación condiciona que, con
demasiada frecuencia, el examinador no disponga de información suficiente para valorar
el impacto de los déficits ejecutivos sobre la capacidad funcional del paciente.
A fin de minimizar las limitaciones derivadas del empleo de la metodología propia
de la psicología experimental, los test neuropsicológicos empleados para medir las
funciones ejecutivas deberían reunir, al menos, estas características:
56
viabilidad de administración, la validación de las pruebas con poblaciones similares, la
aplicación de estas por diferentes grupos de trabajo y la existencia de protocolos claros y
precisos de administración y puntuación.
Burgess y Alderman (2004) proponen los siguientes criterios de selección:
57
valiosa información, no sustituyen a los test neuropsicológicos; en todo caso, han de
concebirse como medidas complementarias.
Frente a los partidarios de los test neuropsicológicos y los valedores de los
cuestionarios y escalas, un tercer colectivo defiende que la mejor forma de evaluar las
funciones ejecutivas es valorar el comportamiento del sujeto en entornos reales
controlados. Este enfoque tiene sus ventajas e inconvenientes. Entre los inconvenientes
más destacados, está el lugar en que se realizan las exploraciones. Evaluar en el mundo
real, sin la estructura que otorga la consulta, comporta hacer frente a problemas o
situaciones imprevisibles y asumir que es difícil obtener dos evaluaciones exactamente
iguales (a causa de las pequeñas modificaciones que se producen entre exploraciones).
Los defensores de este enfoque, por el contrario, creen que estos inconvenientes
son sus fortalezas. En entornos reales, pueden observarse las interacciones sociales y el
comportamiento del sujeto en ausencia de las instrucciones y directrices del examinador.
Igualmente, permite valorar procesos cognitivos que, en la consulta, normalmente, es
difícil evaluar; tal es el caso de la memoria prospectiva o la capacidad de multitarea. El
multiple errands test, el test of functional executive abilities o el naturalistic action test
son solo algunos de los muchos ejemplos de herramientas para valorar el funcionamiento
ejecutivo en entornos reales.
En el siguiente apartado, se describen algunas consideraciones específicas sobre la
evaluación de las funciones ejecutivas. Pero, antes, es preciso detallar unas
recomendaciones generales:
58
las diferencias. En términos generales, solo deben tenerse en cuenta las
discrepancias en las que una puntuación es sensiblemente baja (por debajo
del percentil 5) y la otra se sitúa dentro del intervalo de normalidad.
Obtener un mal resultado en una prueba ejecutiva no implica necesariamente una lesión o
alteración de los lóbulos frontales. Con excesiva frecuencia, la literatura equipara lóbulos
frontales con funciones ejecutivas. No obstante, no es correcto afirmar que un
determinado rendimiento en una prueba ejecutiva es indicativo de daño frontal. Esta
correspondencia que ha predominado por décadas, y que aún hoy en día es considerada
válida por muchos profesionales, debe ser desterrada.
Esta relación hunde sus raíces en el estudio de pacientes con lesiones en los
lóbulos frontales. Desde la primera mitad del siglo XX, múltiples investigadores han
observado un estrecho vínculo entre los cambios observados en la regulación del
comportamiento en pacientes neurológicos o quirúrgicos y daños a nivel frontal. Estos
hallazgos se han traducido en un amplio consenso respecto a que los lóbulos frontales
son el asiento de las funciones ejecutivas y que toda prueba que muestra sensibilidad
específica a lesiones en esta región cerebral es invariablemente una prueba ejecutiva. Sin
embargo, este argumento es más que cuestionable.
No todos los profesionales clínicos e investigadores aceptan que la principal (sino
única) función de los lóbulos frontales son las funciones ejecutivas. El modelo de
funcionamiento frontal propuesto por Stuss (2011) es un claro ejemplo de este cambio de
perspectiva. Este autor propone que es posible atribuir a los lóbulos frontales cuatro
procesos cardinales, cada uno de los cuales relacionado con una región frontal específica:
59
3. Autorregulación conductual y emocional. Las lesiones localizadas en
regiones frontales ventromediales generan dificultades para integrar aspectos
motivacionales y emocionales implicados en el comportamiento.
4. Metacognición. Esta función integra y coordina la energía, motivación,
emoción y cognición necesarias para llevar a cabo actividades complejas y
novedosas. Las lesiones en regiones frontopolares afectan a esta función
integradora.
60
Siempre se cree que se tiene muy claro lo que miden las pruebas que se utilizan.
Pero ¿y si es un error? Ante la pregunta de qué es lo que mide una prueba específica,
entre las posibles respuestas válidas, cabe la posibilidad de que la respuesta sea “porque
mi mentor me lo dijo”. Si ese alguien pregunta sobre dónde aprendió dicho mentor lo que
mide esa prueba, la respuesta probablemente sea algo del estilo “porque sus mentores se
lo dijeron”. Y así sucesivamente. Si bien esto puede parecer una broma de mal gusto, es
una realidad que se produce con más frecuencia de la que cabría esperar.
Los términos utilizados para organizar y clasificar las demandas cognitivas
agrupadas bajo el paraguas conceptual de funciones ejecutivas tienen una pobre validez
de constructo. Tal situación, probablemente, responde a una confusión entre los niveles
de descripción de los índices de desempeño de los test y las características del sistema
cognitivo. La validez de constructo trata de asegurar que las variables o constructos
medidos por una prueba tienen entidad y rigor y que se encuentran integradas en un
marco teórico coherente. Un claro ejemplo del problema de validez de constructo
asociado a las funciones ejecutivas se halla en el término inhibición.
Múltiples modelos teóricos sitúan la inhibición como un elemento o subfunción
clave en el entramado cognitivo que llamamos funciones ejecutivas. Se acostumbra a
definir como la capacidad para impedir de forma deliberada o controlada la producción
de respuestas predominantes automáticas cuando la situación lo requiere, la cual se ve
alterada con la edad o presencia de patologías neurológicas o psiquiátricas. Pero no ha
sido posible demostrar que este término tenga validez de constructo empíricamente
demostrable, incluso cuando se evalúa mediante tareas que se han tomado como
definiciones operacionales de su existencia. Esta situación se repite con múltiples
categorías lingüísticas tomadas del discurso cotidiano para describir los subcomponentes
de las funciones ejecutivas. Términos como planificación o flexibilidad pueden
proporcionar una taxonomía conveniente de las demandas asociadas a los test
neuropsicológicos, pero no de los procesos funcionales mediante los cuales se llevan a
cabo.
61
Teuber en el año 1972, que considera que los diferentes componentes de las funciones
ejecutivas se relacionan unos con otros (unidad), al mismo tiempo que muestran cierta
autonomía (diversidad).
Dentro del enfoque no unitario, existen múltiples definiciones que describen las
funciones ejecutivas a partir de la enumeración de subfunciones o subprocesos (lo que
algunos han venido a denominar definiciones tipo lista de la compra). Si bien a priori
este tipo de definiciones son muy atractivas, entrañan problemas. Algunos conceptos de
la lista pueden superponerse o bien estar situados en niveles de análisis descriptivos
diferentes. Así, no es extraño observar que diferentes autores utilizan el mismo término
para referirse a procesos conceptualmente diferentes o, por el contrario, utilizan términos
diferentes para describir el mismo proceso.
Adoptar una visión unitaria de las funciones ejecutivas, o no unitaria, implica no
solo problemas conceptuales, sino también operativos. De tal forma, las discrepancias
conceptuales entre la visión unitaria y no unitaria de las funciones ejecutivas repercuten
directamente en la evaluación de tales procesos cognitivos. Concretamente, a nivel
clínico, el marco teórico utilizado para comprender qué son y cómo actúan las funciones
ejecutivas es fundamental, ya que tiene un impacto significativo en cómo evaluarlas. En
función del marco teórico adoptado por el clínico, este seleccionará y utilizará un tipo u
otro de pruebas e interpretará los resultados de una determinada manera.
Por último, señalar que la falta de consenso conceptual, unido a la dificultad para
establecer distinciones empíricas entre test ejecutivos y no ejecutivos, contribuye
directamente a los problemas de validez de constructo y fiabilidad observados en la
evaluación de las funciones ejecutivas.
Supóngase que cualquier medida neuropsicológica está sujeta a dos fuentes primarias de
error de medición: la primera es el error aleatorio que surge de factores que cambian de
persona a persona y de una ocasión a otra (fluctuaciones en la excitación o fatiga, ruido
externo o interrupciones) y la segunda es la participación no aleatoria de los procesos
cognitivos que no pretenden medirse. Respecto a esta última fuente primaria de error,
muchos (si no la mayoría) de los test ejecutivos involucran a su propósito principal un
rango de procesos incidentales mayor que los test no ejecutivos.
62
El resultado obtenido en un test ejecutivo es el producto de la varianza atribuida al
subproceso ejecutivo valorado por la prueba (A); la varianza propia de los aspectos
ejecutivos comunes implicados en toda prueba ejecutiva (B); el error no aleatorio
relacionado con los procesos no ejecutivos implicados en la prueba (C), y el error
aleatorio (D) (figura 2.1). En ocasiones, la cantidad de varianza atribuible a las funciones
ejecutivas (A y B) es relativamente menor que la varianza no ejecutiva (C y D).
En la evaluación de las funciones ejecutivas, la denominada impureza de la tarea
remite a la idea de que cualquier prueba ejecutiva involucra procesos cognitivos no
ejecutivos: por definición, las funciones ejecutivas operan sobre otros procesos
cognitivos. Situación que puede repercutir de forma crítica en el desempeño y en los
resultados en un determinado test ejecutivo. Por ejemplo, un rendimiento exitoso en el
Wisconsin card sorting test requiere un procesamiento visual conveniente, capacidad
numérica básica, habilidades de inducción de reglas, capacidad de procesar
retroalimentación, flexibilidad cognitiva y un nivel motivación adecuado. En otras
palabras, existen múltiples maneras de comprometer el desempeño en este test ejecutivo,
por lo que resulta difícil averiguar si la fuente procede de un subproceso ejecutivo o de
otro componente no ejecutivo. De lo cual se deriva que un resultado deficitario en esta
prueba no comporta automáticamente un deterioro a nivel ejecutivo.
Para que un test neuropsicológico sea útil para evaluar debe ser fiable. Los test poco
fiables pueden generar resultados engañosos con un escaso poder predictivo. Por
desgracia, los test ejecutivos tienden a tener una fiabilidad que, de forma general, se sitúa
por debajo de los niveles considerados aceptables en la práctica clínica. Esta
problemática responde, al menos en parte, al concepto de novedad.
Se considera que las funciones ejecutivas, generalmente, entran en juego cuando
una tarea es novedosa, pero se reduce su participación en administraciones sucesivas. De
lo que se desprende que una prueba ejecutiva, por definición, no puede ser novedosa tras
la primera administración. Ante esta situación, algunos autores defienden el uso de
formas paralelas para contrarrestar esta situación. Otros son abiertamente contrarios a su
uso, pues incluso las formas paralelas de una misma prueba no superan este problema: el
contenido puede ser nuevo, pero no el formato.
La baja fiabilidad de los test ejecutivos tiene importantes implicaciones a nivel
clínico. En primer lugar, limita la utilidad diagnóstica de determinadas pruebas. En
segundo lugar, condiciona los niveles de asociación entre las puntuaciones de diferentes
pruebas, lo que hace problemático el análisis de patrones. Y, en tercer lugar, genera
problemas al interpretar cambios en los resultados vinculados a la variable tiempo
(cambios asociados al neurodesarrollo, efecto de intervenciones o evolución de patologías
progresivas).
63
2.2.6. Necesidad de novedad
Los test ejecutivos persiguen, entre otros objetivos, medir el procesamiento cognitivo en
situaciones no rutinarias. Ahora bien, la novedad disminuye con la práctica y repetición,
y, por lo tanto, la validez de constructo de una prueba cuyo propósito es medir la
adaptabilidad a la novedad se reduce con cada nueva administración.
Por si esto no fuera poco, el grado de novedad de una tarea también puede variar
entre sujetos, así que es extremadamente difícil saber hasta qué punto la realización de
una prueba ciertamente activa los procesos ejecutivos esperados. Así, la prueba de
fluidez verbal por letra es novedosa porque, en la mayoría de las situaciones cotidianas,
las búsquedas a través de la memoria no se llevan a cabo utilizando criterios fonémicos.
Sin embargo, hay situaciones, como pueden ser los juegos de palabras o los crucigramas,
en que este tipo de búsqueda es la opción preponderante. De forma que los expertos en
crucigramas pueden encontrar el formato (si no el contenido exacto) de esta prueba de
fluidez verbal bastante familiar, sin requerir la participación de procesos ejecutivos.
El ejemplo descrito muestra que es difícil asegurar que un test es novedoso para
todos los individuos y que, en cualquier test ejecutivo, puede haber diferencias
individuales en como una persona afronta una prueba concreta según sus experiencias
vitales anteriores. Disminuyendo, por tanto, la carga ejecutiva de ese test para ese
individuo en particular.
En conclusión, hay que tener especial cuidado al interpretar los resultados de una
persona en un test ejecutivo sin saber si el formato y contenido le son novedosos o bien
familiares.
Imagine que está jugando un partido de tenis. Los procesos implicados en devolver la
pelota lanzada por el contrincante pueden clasificarse en:
El ejemplo descrito, al igual que sucede con otras tareas, sigue un patrón de
ejecución en serie: sentir el entorno, pensar y actuar sobre él. Este marco de
procesamiento de la información es el que se utiliza comúnmente cuando se evalúan,
mediante test neuropsicológicos, las funciones ejecutivas: percibir, pensar y ejecutar una
respuesta. Sin embargo, esto no es lo que sucede en la vida real.
64
En el día a día, se vive inmerso en un entorno dinámico en constante cambio que
obliga a implementar comportamientos flexibles fruto de múltiples interacciones con
objetos y personas en tiempo real. Situación que requiere la combinación de
procesamientos de la información en serie con procesamientos en paralelo. Este
paradigma interactivo probablemente ayuda a entender por qué los test neuropsicológicos
empleados en la evaluación de las funciones ejecutivas presentan serias limitaciones para
predecir comportamientos reales.
El mundo real se caracteriza por generar situaciones complejas y volubles que
generan una amplia variedad de oportunidades de respuesta. La interacción con estos
entornos no puede descomponerse en secuencias de eventos autónomos que comienzan
con un estímulo discreto y terminan con una respuesta concreta (tal y como sucede en
las evaluaciones neuropsicológicas). Implican la modificación continua de las acciones en
curso a través de retroalimentación, la evaluación de opciones alternativas y el
intercambio permanente entre optar por persistir en una actividad o cambiar a otra.
En el siglo XIX, el médico y fisiólogo francés Claude Bernard, uno de los fundadores de
la medicina experimental, afirmó que la variabilidad individual era un obstáculo para el
diagnóstico médico. “Si pudiéramos demostrar que lo anormal o patológico es una mera
desviación cuantitativa de lo normal –escribió–, tendríamos la clave para diagnosticar y
tratar”.
Actualmente, se acepta qué existe variabilidad dentro de lo que se denomina
normalidad, y que esta no es absoluta ni universal. Al tiempo que se considera la
variable contexto en su definición: lo que es normal para una persona puede no serlo para
otra, y la misma persona puede ser normal en un ambiente, pero no en otro. Esta
realidad compleja comporta que una cuestión como cuál es el funcionamiento normal en
un test ejecutivo tenga una respuesta bastante más compleja de lo que a primera vista
parece. Por lo que, probablemente, sería más adecuado reformularla de la siguiente
manera: ¿qué rendimiento se considera normal en un test ejecutivo concreto para una
determinada persona?
Es muy habitual que los profesionales clínicos y asistenciales subestimen las tasas
básicas de dispersión (variabilidad entre las pruebas) en la población general, cuando la
variabilidad intraindividual es común en adultos normales. Schretlen y colaboradores han
demostrado que las discrepancias máximas entre las puntuaciones más altas y más bajas
en una batería de test neuropsicológicos varían de 1,6 a 6,1 desviaciones estándares;
observando discrepancias máximas superiores a 3 desviaciones estándar en más del 60%
de la población estudiada. Estos autores concluyen que la simple presencia de
variabilidad no es indicadora de patología o disfunción cerebral. Estos datos ponen de
manifiesto que las puntuaciones anormales no son infrecuentes en personas sanas y que
incluso las pruebas neuropsicológicas más sensibles pueden tener una tasa de falsos
65
positivos potencialmente alta. Situación de la que no escapan los test ejecutivos.
En la práctica neuropsicológica clínica, toda aquella puntuación que se sitúa una
desviación estándar por debajo de la media se considera anormal o patológica. Sin
embargo, en el momento en que se administran múltiples test, la probabilidad de obtener
una puntuación anormal aumenta. Ingraham y Aiken han estimado que, en una batería
neuropsicológica de solo seis test, más del 20% de la muestra normativa podría obtener
rendimientos anormales en, al menos, dos de las pruebas.
Tras revisar diversos estudios con sujetos sanos, Binder y colaboradores
identifican que el rendimiento anormal en algunos test de una batería neuropsicológica es
psicométricamente normal. Por lo que concluyen que la presencia de anomalías no indica
necesariamente la presencia de disfunción cerebral, ya que las puntuaciones bajas y la
gran variabilidad intraindividual son a menudo características de los adultos sanos.
Hay varios principios psicométricos claves que los neuropsicólogos clínicos han de
tener en cuenta al interpretar las puntuaciones obtenidas por un sujeto en una batería
neuropsicológica para la evaluación de las funciones ejecutivas:
66
Tradicionalmente, la evaluación de las funciones ejecutivas se ha limitado a administrar
medidas basadas en el rendimiento (del inglés, performance-based measures). Estas
medidas tienen una validez interna robusta, control sobre variables secundarias o externas
y capacidad para fraccionar y examinar por separado los componentes que integran las
funciones ejecutivas. Sin embargo, su validez ecológica o valor predictivo respecto a la
capacidad funcional del paciente está en entredicho. Ante la creciente demanda por
capturar las manifestaciones conductuales derivadas de los déficits ejecutivos, surgen
diversas medidas que se denominan de calificación (del inglés, rating measures).
Las medidas basadas en el rendimiento comprenden todos aquellos procedimientos
estandarizados administrados por un examinador con el objetivo de explorar las
dimensiones cognitivas que subyacen al comportamiento. Este conjunto de medidas está
integrado, por lo que se denominan test neuropsicológicos.
Las medidas de calificación, ya sea en forma de escalas o cuestionarios, consisten
en una serie de categorías ante las cuales un observador (sea el propio paciente o una
tercera persona) debe emitir un juicio, indicando el grado de intensidad o frecuencia de
una conducta o característica y aportando información sobre los problemas cotidianos
derivados del impacto de los déficits cognitivos que el paciente presenta.
Existe una gran controversia sobre la relación que existe entre las medidas basadas
en el rendimiento y las medidas de calificación. Si ambas valoran el mismo constructo
general, entonces ambas deberían presentar una relación positiva perfecta o casi perfecta.
No obstante, muestran una escasa relación. Tales resultados no son sorprendentes desde
una perspectiva operacional: ambos tipos de medidas son diferentes en cuanto a cómo
son administradas, y puntuadas, así como en el tipo de información que proporcionan.
De lo que se deriva que no pueden interpretarse como medidas equivalentes e
intercambiables. De hecho, proporcionan información complementaria, y no redundante,
sobre los procesos cognitivos responsables de la conducta humana. Las medidas basadas
en el rendimiento evalúan las habilidades subyacentes, mientras que las medidas de
calificación, su aplicación. Dicho de otro modo, las medidas basadas en el rendimiento
informan sobre lo que la persona hace y las medidas de calificación sobre lo que es capaz
de hacer (o no hacer).
Las medidas basadas en el rendimiento proporcionan valiosa información sobre la
eficiencia de determinados procesos cerebrales necesarios para el control conductual. Sin
embargo, pasan por alto el problema de la búsqueda racional de la meta, lo que no
permite explorar en su plenitud las funciones ejecutivas. Además, carecen de los apoyos
(o distracciones) ambientales que pueden facilitar (o dificultar) al paciente su desempeño
en la vida cotidiana. Este tipo de medidas son administradas en condiciones estructuradas
y estandarizadas, donde los estímulos presentados están cuidadosamente controlados y el
examinador proporciona retroalimentación sobre la ejecución, cuyo propósito último es
maximizar el rendimiento del paciente. En el cuadro 2.1, se especifican las principales
diferencias entre los test neuropsicológicos y la vida cotidiana.
67
Vida cotidiana Evaluación neuropsicológica
Entornos no estructurados y ambiguos. Situaciones estructuradas.
Motivación endógena (generada por la Motivación exógena (procedente del
persona). examinador).
Enfatización del fracaso. No se considera el fracaso.
No existen condiciones protectoras. Entornos protegidos, sin competencia.
Marco temporal real. Marco temporal condensado.
Actividades vinculadas a respuestas Pruebas en las que, por norma general, no
afectivas. se considera el componente afectivo.
Decisiones adaptativas. Decisiones verídicas.
68
ejecutivas
69
Figura 2.2. Modelo de doble procesamiento de Stanovich.
Partiendo de este marco teórico, Stanovich considera que las medidas basadas en
el rendimiento utilizadas para explorar las funciones ejecutivas únicamente valoran a nivel
algorítmico, obviando el nivel reflexivo, mientras que las medidas de calificación
permiten valorar el nivel reflexivo. Por otro lado, según este mismo autor, las medidas
basadas en el rendimiento persiguen el rendimiento óptimo y no el rendimiento típico.
Las actividades de rendimiento típico se caracterizan por la ausencia de instrucciones
externas, por lo que es la propia persona quien determina, en parte, el propósito de las
actividades. En las situaciones caracterizadas por un rendimiento óptimo, por el
contrario, la interpretación de las actividades está determinada externamente, se instruye
a la persona para que trabaje para lograr el rendimiento máximo y se le explica cómo
hacerlo.
Por ejemplo, en el trail making test parte B, sus instrucciones definen de forma
precisa qué debe hacer el sujeto para alcanzar el rendimiento óptimo. Así, esta tarea
demanda al nivel algorítmico que inhiba el funcionamiento del sistema 1, sin necesidad de
que intervenga el nivel reflexivo. Algo similar sucede con el test de Stroop. En la
condición palabra-color, el nivel algorítmico ha de suprimir la respuesta automática
(dependiente del sistema 1) de leer la palabra para poder denominar el color de la tinta en
que esta está escrita, por lo que no requiere el nivel reflexivo. Las tareas de fluencia,
verbal o no verbal, constituyen otro claro ejemplo. El examinador especifica
explícitamente el objetivo de la tarea: evocar el mayor número de elementos posibles en
70
un tiempo determinado (se persigue el rendimiento óptimo). El Wisconsin card sorting
test es una de las pocas medidas clásicas basadas en el rendimiento que demanda la
intervención del nivel reflexivo. Aunque la estructura general está determinada, es
necesario el nivel reflexivo para descubrir las categorías y reglas que rigen la tarea.
Con tales argumentos, Stanovich considera que las medidas basadas en el
rendimiento utilizadas para explorar las funciones ejecutivas realmente no evalúan tales
procesos cognitivos, sino procesos cognitivos de supervisión. Es decir, valoran la
capacidad para seguir unas normas generadas externamente y, en función de estas,
obtener el rendimiento máximo posible. Si el rendimiento en tales medidas estuviera
determinado por unas normas autogeneradas y autorreguladas, existiría un control
ejecutivo real y, por tanto, serían auténticas medidas de funcionamiento ejecutivo.
¿Quiere decir esto que los únicos instrumentos que permiten valorar plenamente las
funciones ejecutivas son las medidas de calificación? Si bien algunos autores ciertamente
consideran que es así, tal aseveración es más que cuestionable. En todo caso, es posible
afirmar que las medidas basadas en el rendimiento aportan información directa y objetiva
sobre los procesos propios del nivel algorítmico, siendo las medidas de calificación
indicadores indirectos del funcionamiento del nivel reflexivo. Estas medidas recogen
información sobre el funcionamiento cotidiano de la persona (reportado por el propio
interesado o terceras personas) o, lo que es lo mismo, aportan indicadores indirectos o
subjetivos de su capacidad ejecutiva.
71
aprendizaje.
– Los datos cuantitativos proporcionan
– Se ha centrado exclusivamente en los
información limitada cuando se
déficits, obviando la funcionalidad y
planifican programas de rehabilitación
participación.
neuropsicológica.
Figura 2.3. Modelo biopsicosocial del funcionamiento y la discapacidad de la Organización Mundial de la Salud.
72
1. Neuropatofisiológico: alteración subyacente del funcionamiento físico (por
ejemplo, traumatismo craneoencefálico).
2. Déficit: toda pérdida o anomalía que se producen como resultado de un daño
o enfermedad a nivel neuropatofisiológico. Es la exteriorización directa de
las consecuencias de una enfermedad o trastorno (por ejemplo, disfunción
ejecutiva).
3. Limitaciones funcionales: repercusión directa del déficit en la capacidad del
sujeto para realizar actividades en los términos considerados normales para
cualquier sujeto de sus características (edad, género, cultura, etc.). Supone
la objetivación del déficit (por ejemplo, problemas para controlar los gastos
mensuales, dificultades para planificar y elaborar un plato).
4. Restricciones en la participación: impacto que las limitaciones funcionales
tienen sobre la capacidad de la persona para llevar a cabo sus actividades
sociales y desempeñar el rol social que le es propio. Es la socialización de la
problemática causada en un sujeto por las consecuencias de una enfermedad
o trastorno, manifestada a través del déficit o las limitaciones en las
actividades (por ejemplo, impacto de la disfunción ejecutiva en la capacidad
productiva del individuo).
73
considera de valor.
Tras una lesión cerebral, en los primeros días y semanas, generalmente, intentan
restaurarse las funciones pérdidas o mermadas. Transcurrido un tiempo, si la restauración
de la función no se ha producido, los profesionales reajustan sus objetivos e introducen el
uso de estrategias compensatorias. Si bien la restauración de la función (o al menos su
restauración parcial) puede ocurrir años después de la lesión, en la mayoría de los casos,
cuando las técnicas restitutivas no son útiles la alternativa de elección es el entrenamiento
en estrategias compensatorias. Algunos autores sugieren que las técnicas restitutivas se
basan en las propiedades plásticas del cerebro, mientras que las estrategias
compensatorias en la suposición que estas propiedades son limitadas. Pese al escenario
descrito en las líneas anteriores, técnicas restitutivas y estrategias compensatorias no
tienen por qué ser mutuamente excluyentes, por lo que pueden combinarse a lo largo del
proceso rehabilitador en función de las necesidades, habilidades y capacidades del
paciente.
Llegados a este punto, se plantea una de las cuestiones cardinales en rehabilitación
neuropsicológica: ¿cómo evaluar los resultados de los programas de intervención? La
inmensa mayoría de estudios utilizan test neuropsicológicos estandarizados como
principal o única medida de cambio. Una reducida minoría argumenta que es un error
utilizar este tipo de instrumentos para evaluar el resultado o la efectividad de un
determinado tratamiento. Según este colectivo, es inadecuado emplear test
neuropsicológicos para planificar programas de intervención, puesto que el propósito de
la rehabilitación no es entrenar a los pacientes para que sean capaces de desenvolverse
satisfactoriamente en estas pruebas.
Al mismo tiempo, defienden que la relación entre el desempeño en los test
neuropsicológicos y las habilidades de la vida cotidiana es más bien modesta. Si bien las
medidas basadas en el rendimiento proporcionan información en relación con las
fortalezas y debilidades cognitivas de la persona, no dicen mucho acerca de cómo se
adapta a su vida cotidiana y afronta los contratiempos que se puedan presentar. Como
tampoco indican lo que las personas con alteraciones cognitivas y sus familiares esperan
de la rehabilitación o lo que es importante para ellos.
74
metodología es ampliamente aceptada entre los profesionales sanitarios, pero ¿es
aplicable a todos los pacientes que reciben rehabilitación neuropsicológica?
Por ejemplo, Pedro sufre un traumatismo craneoencefálico en un accidente de
tráfico de camino a su trabajo. Como consecuencia, presenta un deterioro de sus
funciones ejecutivas que no le ha impedido reanudar su vida tras seguir un programa
interdisciplinar de neurorrehabilitación. Se ha reincorporado a su trabajo y no tiene
dificultades para gestionar su economía personal o hacerse cargo de sus
responsabilidades familiares. Puede hacer todas estas cosas porque utiliza estrategias
compensatorias de forma muy eficiente y tiene una buena capacidad de organización y
planificación. Desde el punto de vista de un profesional que trabaja en el ámbito de la
neurorrehabilitación, Pedro es un claro ejemplo de éxito. Tras largos meses de trabajo e
intensos programas de tratamiento, ha alcanzado unas cotas de funcionalidad más que
aceptables. Empero, su desempeño en los test ejecutivos es francamente pobre. Es más,
no se observan cambios en los resultados obtenidos en los test administrados antes y
después de la intervención. Según la metodología descrita en el párrafo anterior, ha de
concluirse que Pedro no ha mejorado. Situación que plantea una nueva pregunta: ¿son
los test neuropsicológicos adecuados para medir resultados en rehabilitación?
Antes de continuar, una matización. No pretende decirse que los test
neuropsicológicos no sean útiles en rehabilitación. Por supuesto que lo son. Permiten
construir un mapa cognitivo del paciente, con sus fortalezas y debilidades, y observar
que estrategias utiliza para resolver los problemas que se le plantean, al mismo tiempo
que responden a preguntas específicas que son clínicamente relevantes. Los test
ejecutivos, como medidas basadas en el rendimiento que son, exploran las dimensiones
cognitivas que subyacen al comportamiento generado en el contexto de evaluación. Con
todo, no son capaces de captar el estado funcional de la persona tal y como se
manifiestan en los escenarios de la vida cotidiana. De tal forma, en el ámbito de la
rehabilitación, y concretamente al evaluar sus resultados, ha de considerarse la utilización
de pruebas diseñadas específicamente para medir funcionalidad. Los efectos del
tratamiento, por tanto, han de medirse en términos de mejoras funcionales; aspectos
históricamente descuidados al evaluar el resultado de la rehabilitación. Retomando el
marco conceptual descrito en la CIF, los test neuropsicológicos son excelentes
herramientas para detectar déficits cognitivos y comprender la naturaleza del sistema
cognitivo resultante de la patología neurológica o psiquiátrica, por lo que su capacidad
para predecir funcionalidad y participación es limitada. En sentido contrario, la situación
no es mucho mejor: la reducción de las limitaciones funciones o las restricciones en la
participación pueden o no traducirse en una mejora en las puntuaciones del paciente en
los test neuropsicológicos. Siguiendo con esta línea argumental, sería, pues, inadecuado
utilizar las puntuaciones en los test para medir los resultados de la rehabilitación y
necesario introducir medidas funcionalmente relevantes para evaluar el éxito o fracaso de
un programa de intervención.
Los test neuropsicológicos aportan valiosa información sobre si, en comparación
con los datos normativos, la puntuación del paciente es normal; cómo se sitúa el paciente
75
respecto a la población general en función de sus resultados, o si el déficit cognitivo que
ha emergido en la prueba está restringido a tal o cual proceso cognitivo o tipo de material.
Indudablemente, está información es importante para trazar con precisión el perfil
cognitivo, pero los profesionales también necesitan otro tipo de información para diseñar
programas de intervención acordes a las necesidades y capacidades del paciente. Es muy
frecuente que el profesional informe a pacientes y familiares que los resultados en el test
ejecutivo X están Y desviaciones estándar por debajo de la media, lo cual indica que el
proceso ejecutivo que explora ese test está alterado. Ante tal mensaje, familia y paciente
acostumbran a mirar desconcertados al profesional y realizarle preguntas del tipo “Pero
¿podrá volver a trabajar?”, “¿Podrá encargarse del cuidado de sus hijos como hacía
antes?” o “¿Será posible que lleve una vida independiente?”. En otros casos, la pregunta
es todavía más directa, poniendo en serios aprietos al profesional: “De acuerdo… ¿y eso
qué quiere decir?”. Para el paciente y sus familiares, que el primero falle al alternar
números y letras en el trail making test parte B no parece tener relación con su
capacidad para desenvolverse satisfactoriamente en su puesto de trabajo. En otras
ocasiones, la interpretación y justificación aportada por la familia, o el propio paciente, es
que “este tipo de cosas no le interesan” o “que nunca se le ha dado bien”.
Aquellos lectores que se dedican a la práctica clínica seguro que están familiarizados con
el siguiente enigma: paciente que es funcionalmente independiente, a pesar de mostrar
evidentes dificultades cognitivas objetivadas mediante test neuropsicológicos. Cuántas
veces el profesional ha de oír de boca del paciente o su familia que no tiene dificultad
alguna para manejarse en las actividades cotidianas, si bien el profesional constata
claramente que el paciente falla estrepitosamente en la ejecución de diversos test
ejecutivos. Este enigma no es tal enigma y tiene una explicación.
Tal y como se ha descrito previamente en este capítulo, los test neuropsicológicos
son medidas basadas en el rendimiento: medidas administradas en condiciones
estructuradas en las que no tiene cabida la presencia de ayudas que puedan asistir al
paciente en resolución de los problemas que se le presentan. Mientras que, en la vida
cotidiana, puede utilizar (y utiliza) múltiples estrategias compensatorias y dispositivos de
ayuda externos.
La mayoría de las herramientas de evaluación utilizadas en la rehabilitación de las
funciones ejecutivas se centran en identificar áreas de funcionamiento cognitivo
deficitarias, evaluando el funcionamiento ejecutivo en entornos estructurados en los que
no está permitido el uso de ayudas externas. Sin embargo, frecuentemente, la
rehabilitación tiene entre sus objetivos ayudar a las personas a mejorar su funcionalidad
gracias a la utilización de estrategias compensatorias. Emplear como medida de
resultados instrumentos que valoran déficit, y no funcionalidad o participación,
probablemente no es la mejor alternativa: no puede suponerse que la capacidad cognitiva
76
de un paciente ha cambiado como resultado de un tratamiento basado en el
adiestramiento en estrategias compensatorias. En todo caso, esperaran observarse
cambios en el comportamiento del paciente. Bajo condiciones normales, durante la
administración de test ejecutivos, no está permitida la utilización de las estrategias
compensatorias enseñadas en los programas de rehabilitación. Sin embargo, en
situaciones reales, es probable que estas mismas personas las utilicen. Por ello, es
habitual encontrar estudios en los que no se obtienen diferencias significativas
intergrupales (grupo tratamiento frente a grupo control) al comparar su rendimiento en
test ejecutivos; por el contrario, existen diferencias en las medidas funcionales. No es
extraño que no se observen cambios en los test, ya que tales medidas evalúan déficit.
Aspecto que parece no ser susceptible de cambio.
Los test ejecutivos son medidas que aportan información sobre lo que la persona
hace y no de lo que son capaces de hacer. Bueno, en realidad, no es exactamente así.
Estás medidas acostumbran a centrase en los déficits ejecutivos de la persona, aquello
que es incapaz de hacer, en lugar de centrarse en las capacidades preservadas (aquello
que puede hacer). Así, la mayoría de las herramientas de evaluación utilizadas en la
rehabilitación de las funciones ejecutivas se centran en identificar áreas de
funcionamiento cognitivo deficitarias, de lo cual se deriva que solo informan parcialmente
sobre los resultados de la intervención. En rehabilitación neuropsicológica, la evaluación
debería centrarse en los resultados funcionales obtenidos por el sujeto,
independientemente de los mecanismos subyacentes utilizados. Adoptando la
terminología de la CIF, una evaluación basada en el desempeño cognitivo (esto es, en la
capacidad funcional) beneficiaría a la rehabilitación de las funciones ejecutivas más que
una evaluación convencional, basada en detectar los posibles déficits asociados a un daño
o enfermedad a nivel neuropatofisiológico.
¿Qué pasaría si los pacientes pudieran utilizar ayudas externas para responder a los
test neuropsicológicos? Indudablemente, supondría un cambio importante en la
metodología empleada para medir resultados en rehabilitación neuropsicológica: por un
lado, modificando las condiciones bajo las cuales se desarrolla la evaluación y, por otro,
del papel desempeñado por examinador y examinado. En el planteamiento metodológico
tradicional, el examinador es un observador imparcial y el examinado es concebido como
una variable independiente que es medida en un entorno artificial diferente al suyo.
Introducir la posibilidad de que el examinado utilice todas las estrategias compensatorias
o ayudas externas a su disposición modifica sensiblemente este planteamiento, ya que
proporciona una magnífica oportunidad para observar su capacidad para aplicar a una
situación de evaluación aquello aprendido en la rehabilitación.
77
aumentar la participación en actividades que la persona considera de valor.
¿Y que actividades se consideran de valor? No hay una única respuesta para esta
pregunta, puesto que aquellas actividades que son importantes para una persona lo son
para esa persona y no tienen por qué serlo para otra. Así, no es posible (ni pertinente)
establecer un mismo objetivo para todos los pacientes. Para algunos pacientes, ser
capaces de ir a comprar y encargarse del cuidado de los hijos es un triunfo; para otros,
puede representar un rotundo fracaso.
Para responder a esta realidad, es imprescindible utilizar enfoques individualizados,
mediante los cuales diseñar e implementar objetivos significativos –y alcanzables–según
las necesidades y habilidades de cada persona.
Los programas de rehabilitación basados en objetivos se fundamentan en los
siguientes principios:
78
Figura 2.4. Planificación de objetivos en rehabilitación.
79
previa con el paciente o su familia.
Independientemente de la forma en la que se establecen los objetivos, estos
ayudan a dirigir la atención hacia actividades relevantes y alejarse de todas aquellas que
no lo son. Precisar que, a diferencia de otras disciplinas en las que se emplea el
establecimiento de objetivos, en rehabilitación neuropsicológica, es aconsejable combinar
objetivos a largo plazo con objetivos a corto plazo. La retroalimentación regular, basada
en la consecución de hitos a lo largo de la intervención, es crítica, lo que permite
establecer marcadores claros de progreso hacia el objetivo u objetivos a largo plazo. Esto
ayuda a que el paciente adquiera mayor control y conocimiento respecto al proceso
rehabilitador y a que sea capaz de apreciar los cambios entre el estado inicial y estado
final (derivado de la consecución de los objetivos a largo plazo).
La planificación de objetivos en la rehabilitación de las funciones ejecutivas
permite mejorar los resultados, y autonomía, de los pacientes, así como responder a
requerimientos contractuales, legislativos o profesionales. Así mismo, la planificación de
objetivos también puede ser un buen marco para la evaluación de resultados en
rehabilitación. Cada vez más autores proponen los objetivos individualizados como una
herramienta para medir la efectividad de los programas de intervención neuropsicológica;
especialmente en situaciones en las que la heterogeneidad de las poblaciones de pacientes
plantea serios problemas para la selección de procedimientos estandarizados. En tales
casos, los tratamientos se evalúan en función del nivel de consecución de los objetivos
establecidos al comienzo de la rehabilitación. Entre las medidas que se enmarcan en este
enfoque, la goal attainment scaling (GAS) es el método más utilizado para cuantificar la
relación entre los resultados previstos y los observados al final de la intervención.
Una de las cuestiones centrales del derecho penal es si el imputado ha cometido algún
delito y, si es así, hasta qué punto es responsable de este (determinación de la
responsabilidad criminal). Esta cuestión parte de la premisa que las personas adultas
tienen la capacidad de monitorizar y controlar su comportamiento, a menos que se
demuestre lo contrario. En este escenario, el neuropsicólogo ha de ser capaz de
determinar la presencia, o ausencia, de alteraciones ejecutivas y el posible impacto en la
capacidad de la persona para controlar y regular su conducta. No obstante, la principal
área de actuación de la neuropsicología forense se sitúa en el derecho civil y laboral,
cuyos ámbitos cardinales de actuación son la incapacitación legal o laboral y la valoración
de daños, secuelas y déficits como consecuencia de una lesión cerebral adquirida.
La neuropsicología forense, como especialidad de la neuropsicología aplicada a los
procedimientos legales civiles y criminales, aporta a la justicia la posibilidad de:
80
– Establecer el efecto de esta disfunción.
– Pronunciarse respecto al pronóstico derivado de tal disfunción.
– Establecer la relación entre la disfunción y la causa que se juzga.
81
administradas son una prueba inequívoca de que el imputado no presenta déficit
ejecutivo alguno. Por ello, es esencial complementar la información derivada de los test
con aquella proporcionada por las observaciones realizadas por terceros (o el propio
profesional durante la evaluación).
Del párrafo anterior, se desprende que, para presentar pruebas sobre
funcionamiento ejecutivo en el ámbito judicial, han de considerarse tres aspectos
fundamentales:
82
Por último, un aspecto importante que ha de valorarse en el entorno forense es el
nivel de esfuerzo e implicación del individuo en la evaluación neuropsicológica; aspecto
directamente vinculado con uno de los temas cardinales de la neuropsicología forense: la
simulación. La simulación implica la producción intencionada, planificada y consciente,
de síntomas físicos, emocionales o cognitivos desproporcionados o falsos motivados por
incentivos externos. El neuropsicólogo forense ha de ser suficientemente hábil como para
poder detectar, durante el transcurso de la evaluación, que el comportamiento del
demandante refleja un esfuerzo deliberadamente pobre o es indicativo de simulación.
Se espera que la gran mayoría de las personas que son remitidas para una evaluación
neuropsicológica cooperen y realicen los test que la integran lo mejor posible. Si bien
algunas personas pueden mostrar signos de fatiga o distractibilidad, se supone que, dentro
de sus posibilidades, están esforzándose al máximo. Esto acostumbra a ser así en el
ámbito clínico. No obstante, en ocasiones, las personas que son remitidos a exploración
no aspiran a realizar los test lo mejor posible, sino que intentan tergiversar su rendimiento
y engañar al examinador, así como que este último concluya que sufre o presenta
determinados déficits o síntomas.
La simulación puede entenderse desde diferentes perspectivas, aunque la
perspectiva adaptativa es la que goza de mayor aceptación. Según esta, la conducta del
simulador es resultado de su interpretación de que esa es la mejor alternativa de la que se
dispone para solucionar la situación en la que se encuentra.
Desde la perspectiva adaptativa, se considera que la simulación es más probable
cuando:
83
mentales (DSM-5), hay que sospechar de la posibilidad de simulación cuando se observa
alguna combinación de las siguientes condiciones:
84
diagnósticos específicos para detectar la simulación de déficits cognitivos. Estos autores
plantean que la simulación de una alteración cognitiva está basada en la fabricación o
exageración volitiva de disfunción cognitiva y en las ganancias secundarias externas
obtenidas. Las categorías diagnósticas propuestas son: simulación definitiva, probable y
posible. Un diagnóstico definitivo de simulación conlleva una evidencia clara de
exageración o fabricación volitiva de daño cognitivo, en ausencia de explicaciones
alternativas plausibles. Sus criterios diagnósticos son:
85
enfermedad o discapacidad, es mandatorio realizar el diagnóstico diferencial. El objetivo
es descartar otros trastornos mentales que, por sus características, son parecidos a la
simulación. Entre estos, destaca el trastorno facticio; si bien tampoco hay que olvidar el
trastorno de conversión, diagnóstico incluido en la categoría trastornos de síntomas
somáticos del DSM-5 (denominados trastornos somatoformos en el DSM-IV). La
principal diferencia entre trastornos de conversión y la simulación es que, en esta última,
hay conciencia del fingimiento intencionado de los síntomas; cosa que no sucede en el
trastorno de conversión.
En lo que respecta al trastorno facticio, sus criterios diagnósticos incluyen:
86
El rendimiento de cualquier persona en un test neuropsicológico se fundamenta en sus
niveles de cooperación y motivación. Características que condicionan que este tipo de
medidas sean particularmente vulnerables a la simulación: el aspirante a simulador,
simplemente, tiene que cometer errores, de forma deliberada, en la ejecución de estas
pruebas para manipular los resultados. A fin de salvar este contratiempo, se han diseñado
y desarrollado medidas especializadas con el propósito de identificar rendimientos
anómalos.
Las pruebas basadas en el efecto suelo son tareas que las personas con déficits
graves son capaces de realizar correctamente, pero que los simuladores fallan porque
sobreestiman su dificultad. El test de los 15 ítems de Rey es un ejemplo de este tipo de
pruebas. Otra categoría la forman las pruebas de producción de respuestas inusuales que
se basan en habilidades sobreaprendidas (como reconocer letras o contar puntos). El
principio que subyace a este grupo de pruebas es similar al de las pruebas con efecto
suelo: los pacientes con déficits graves las realizan de forma correcta y los simuladores
no. Pero, si hay un tipo de prueba que destaca por encima de las demás por ser la más
utilizada en la detección de simulación, estas son las pruebas de elección forzosa o
pruebas de validación del síntoma (PVS).
En las PVS, se presentan, de forma secuencial, una serie de estímulos (típicamente
visuales, ya sean verbales o no verbales) y, a continuación, se administran ensayos en los
que un estímulo previamente presentado se empareja con un nuevo estímulo. Después,
se solicita al sujeto que identifique, para cada par de estímulos, el elemento que se le ha
mostrado al inicio. El principio que subyace a este tipo de pruebas es que la posibilidad
de contestar correctamente es del 50%, por lo que una ejecución significativamente por
debajo del nivel del azar indica que el sujeto conoce la respuesta correcta y
deliberadamente elige la incorrecta. Esto es, si el número de errores supera este
porcentaje es plausible pensar que el sujeto está cogiendo de forma deliberada la opción
errónea.
Para entender el funcionamiento de las PVS, es básico comprender a qué se hace
referencia cuando se habla de la sensibilidad y especificidad de una prueba. La
sensibilidad es la capacidad de una medida para clasificar correctamente a los sujetos con
una condición particular. En el caso concreto de las PVS, refleja el porcentaje de
individuos con un rendimiento anómalo detectados como tales (verdaderos positivos). La
especificidad hace referencia a la capacidad de la medida para identificar de forma
correcta a los individuos que no presenta la condición. Es decir, la especificidad indica el
porcentaje de individuos con un rendimiento normal en las PVS clasificados como
individuos con un rendimiento normal.
La sensibilidad y la especificidad están interrelacionadas. De forma que, cuando la
sensibilidad aumenta, la especificidad disminuye, y viceversa. Como norma general, se
acostumbra a fijar una especificidad ≥90%; de modo que, como máximo, solo el 10% de
los individuos con rendimiento normal son clasificados erróneamente. En el ámbito
forense, es más importante clasificar bien a los individuos con rendimiento normal que
permitir que uno con rendimiento anómalo permanezca sin ser detectado. De forma
87
general, las PVS tienen buena especificidad (menor porcentaje de falsos positivos) en
detrimento de una menor sensibilidad (lo cual implica un mayor porcentaje de falsos
negativos). Dicho de otra manera, cuando alguien presenta un rendimiento anómalo en
este tipo de medidas, puede estarse casi seguro de que finge o exagera. Ahora bien, si el
simulador capta la trampa, es factible que su rendimiento se sitúe en el rango de la
normalidad. Frente a esta cuestión, el lector, probablemente, se pregunta por qué no
elegir PVS que puedan detectar a todos los individuos con rendimientos anómalos. La
respuesta es simple: las estrategias de simulación no son homogéneas y ninguna PVS está
preparada para captar todas las posibles respuestas emitidas por los simuladores.
Junto con las pruebas desarrolladas para la detección de simulación, se encuentran
unas técnicas que también pueden ser de gran utilidad. La estrategia de la curva de
rendimiento presupone que los examinados no tomaran en consideración el nivel de
dificultad de los ítems para decidir cuáles fallar. Por norma general, los examinados se
manejan mejor con los ítems fáciles y peor con los difíciles. Si el patrón de respuestas de
un paciente funciona a la inversa, hay que sospechar que está simulando. Otra técnica es
analizar las características cuantitativas o cualitativas de las respuestas erróneas para
discriminar simuladores de no simuladores (técnica conocida como magnitud del error).
En línea con esta técnica, varios autores han estudiado la posibilidad de utilizar test
ejecutivos tradicionales como medidas de simulación. Por ejemplo, en el test de Stroop,
los simuladores presentan tiempos de reacción sensiblemente más prolongados que los
pacientes con daño cerebral, un porcentaje de errores incrementado y un efecto Stroop
ausente o invertido (tiempos de reacción más largos en la condición congruente que en la
incongruente). Dado que esta última alteración no es habitual en pacientes con daño
cerebral, se ha propuesto como indicador de simulación.
Más allá de la utilización de un determinado tipo de prueba o técnica de detección,
es importante considerar ciertos aspectos al valorar la posibilidad de que un paciente esté
simulando déficits ejecutivos. Primero, un rendimiento indicativo de poco esfuerzo no
implica que el sujeto esté simulando; al mismo tiempo que una buena ejecución no lo
descarta. Segundo, el orden de administración de los test puede influir en la capacidad de
una prueba para revelar simulación. La literatura indica que la capacidad de detección es
superior cuando la prueba se administra al inicio de la evaluación. La explicación de este
fenómeno radica en que los sujetos no tienen una referencia para comparar la dificultad
de un test respecto al resto, por lo que es más fácil que se sobreestime su complejidad.
Tercero, advertir al examinado sobre la utilización de herramientas diseñadas para
detectar simulación disminuye su sensibilidad. Otros indicadores que pueden hacer
sospechar de la presencia de simulación son:
88
problemas para manejarse con éxito en una prueba simple de flexibilidad,
pero es capaz de adaptarse a las demandas de su entorno sin dificultades,
habrá buenas razones para sospechar que simula.
– Poca colaboración o actitud evasiva del individuo durante la evaluación.
– Incompatibilidad entre los resultados en la evaluación y el perfil de los
síntomas propios de las lesiones neurológicas subyacentes.
– Presencia de patrones atípicos en los resultados de los test ejecutivos que no
son consistentes con el curso esperado de la patología o afección que
presenta el individuo.
– Exhibición de síntomas inverosímiles. Cuando se solicita al simulador que
explique espontáneamente los síntomas que presenta, es posible que refiera
síntomas inusuales o improbables en una patología concreta. Es preferible
obtener información sobre los síntomas en un formato de preguntas abiertas
en lugar de que los pacientes tengan que seleccionar síntomas de un listado.
En este caso, el paciente recibe ayuda indirecta sobre que síntomas debe
reportar.
89
3
Procedimientos de evaluación de las
funciones ejecutivas en población adulta
Existen multitud de pruebas que permiten evaluar control ejecutivo y es posible emplear
diferentes criterios para clasificarlas. Por ejemplo, de acuerdo con su forma de
administración (individual frente a conjunta –en forma de batería–) o en función de los
procesos cognitivos que evalúan –inhibición, memoria de trabajo, flexibilidad,
planificación, etc.–. En este caso, se ha optado por una clasificación basada en el origen
90
de la prueba.
El criterio basado en el origen permite clasificar las pruebas según el propósito por
el cual fueron creadas, al tiempo que dibuja una cronología evolutiva de los test utilizados
en evaluación neuropsicológica. Según este criterio, se diferencian tres tipos de pruebas:
Gran parte de las pruebas más utilizadas en la evaluación clínica del control
ejecutivo han sido creadas en ámbitos ajenos a la neuropsicología. Las medidas de
fluidez verbal tienen su origen en el Thurstone word fluency test, ideada en la década de
1930. El Wisconsin card sorting test se crea en 1948 como una prueba de razonamiento
abstracto. Y el trail making test es una adaptación del Partington’s pathways test, creada
en 1938, y adoptada durante la segunda guerra mundial por el ejército norteamericano
como parte de la batería de pruebas empleada en la selección de soldados.
Estas medidas, que se incluirían bajo el título pruebas clásicas, son incorporadas
en la segunda mitad del siglo XX al cuerpo de pruebas neuropsicológicas ante la escasez
de herramientas que evalúen el funcionamiento cerebral. Posteriormente, se les ha
dotado de un marco teórico que posibilite explicar, desde una perspectiva
neuropsicológica, los resultados obtenidos tras su administración.
El otro gran grupo de medidas neuropsicológicas empleadas en la práctica clínica
es el denominado pruebas basadas en modelos teóricos. El Iowa gambling task, por
ejemplo, se crea tomando como base teórica la hipótesis del marcador somático de
Antonio Damasio. Otros ejemplos son el Brixton test o el Hayling test, ambos diseñados
por Burgess y Shallice.
En cuanto al tercer grupo, las pruebas experimentales, está formado por tareas o
paradigmas que generan muestras altamente estructuradas de conducta
extraordinariamente útiles en investigación (principalmente en el campo de la
neuroimagen). No se han considerado objeto de este capítulo por su limitado uso en
neuropsicología clínica.
Sin lugar a dudas, el Wisconsin card sorting test (WCST; en castellano, test de
clasificación de cartas de Wisconsin) es la medida más utilizada para evaluar el control
ejecutivo. Se considera una prueba ejecutiva en la medida en que requiere planificación
91
estratégica, búsqueda organizada, capacidad de utilizar la retroalimentación ambiental
para cambiar el conjunto cognitivo, comportamiento orientado a objetivos y capacidad de
modular la impulsividad.
Fue concebido por Grant y Berg en 1948 como un índice de razonamiento
abstracto, formación de conceptos y capacidad de adaptar las estrategias cognitivas a las
contingencias contextuales cambiantes. La propuesta original de Grant y Berg se basa en
los trabajos de Ach y Goldstein, respectivamente. A principios del siglo XX, Ach
desarrolla una tarea de clasificación en la que el sujeto debe ordenar diversas tarjetas con
palabras sin sentido, basándose en rasgos comunes compartidos por los objetos
representados por las palabras. En 1920, Goldstein crea una nueva tarea de clasificación
para estudiar en pacientes con daño cerebral, lo que denominó actitud concreta y actitud
abstracta.
Milner adapta en 1963 el procedimiento desarrollado por Grant y Berg para medir
la disfunción de la corteza prefrontal en pacientes con lesiones cerebrales, que se
convirtió en el modelo de la actual administración estándar del WCST (conocida como la
versión de Heaton). En 1981, Heaton normaliza las instrucciones de la prueba, así como
los procedimientos de puntuación, y formaliza la prueba como un instrumento clínico.
Desde su publicación, la versión de Heaton ha ganado popularidad y es el formato más
utilizado tanto para fines clínicos como investigadores.
La versión de Heaton del WCST consiste en cuatro cartas-estímulo, colocadas
delante del sujeto: la primera con un triángulo rojo, la segunda con dos estrellas verdes, la
tercera con tres cruces amarillas y la cuarta con cuatro círculos azules. Al sujeto se le
muestran cartas que tienen diseños similares a los de las cartas-estímulo, que varían en
color, forma geométrica y número. Este tiene que emparejar las cartas con una de las
cartas-estímulo y, para cada ensayo, obtiene un feedback positivo si el emparejamiento
es correcto o negativo si es incorrecto. Cada diez emparejamientos correctos el criterio
de asociación (categoría) cambia sin previo aviso. El sujeto debe modificar su criterio de
clasificación y encontrar el nuevo. Las categorías son color (C), forma (F) y número (N).
La prueba finaliza tras completar seis categorías (CFNCFN) o realizar un máximo de 128
ensayos.
El WCST es la prueba por excelencia para la evaluación de las funciones
ejecutivas en entornos clínicos. Sin embargo, no queda claro qué procesos ejecutivos
evalúa. Por otra parte, esta prueba requiere procesamiento visual básico, habilidad
numérica, velocidad de procesamiento, etc., sin olvidar mantener el nivel de motivación
apropiado para finalizarla. Tal amalgama de procesos cognitivos condiciona que el
rendimiento en el WCST pueda explicarse por la presencia de múltiples déficits, no
exclusivamente de carácter ejecutivo.
92
trail making test. Aunque, originalmente, esta prueba se diseña como una medida de
inteligencia, numerosos estudios han establecido su validez y sensibilidad al daño
cerebral, tanto en niños como en adultos. A mediados de la década de 1940, la
Partington’s pathways test se incorpora a la army individual test battery y, en 1958, a la
batería neuropsicológica de Halstead-Reitan, ya bajo el nombre de trail making test.
El trail making test (TMT; en castellano, prueba de los senderos o prueba del
trazo) está formado por dos partes. La parte A consiste en una página en la que hay
distribuida de forma aleatoria los números del 1 al 25 dentro de círculos. Se indica al
paciente que una los números en orden ascendente (1, 2, 3, 4…) lo más rápido que
pueda. En la parte B, se presenta una página en la que hay números (del 1 al 13) y letras
(A a L) dentro de círculos. En esta ocasión, el sujeto tiene que unir con líneas, de forma
alterna, números y letras (1-A-2-B-3-C…). La parte A se utiliza generalmente como
condición basal, puesto que se cree que la latencia de la respuesta en esta condición es un
reflejo del tiempo de reacción simple. La parte B plantea demandas adicionales sobre la
capacidad de alternar y modificar de forma flexible el curso de acción, así como un
componente de inhibición. A diferencia de lo que ocurre en la parte B, el desempeño
exitoso en la parte A apenas depende de habilidades ejecutivas.
El TMT goza de considerable popularidad, y existen múltiples publicaciones que
documentan la utilidad de esta prueba como predictor de las actividades instrumentales
de la vida diaria en el envejecimiento y del resultado funcional después de lesiones
cerebrales. Pero, como toda prueba, no está exenta de limitaciones.
En primer lugar, no dispone de formas alternativas (únicamente existe una forma
del TMT, en la que la disposición de los círculos siempre es la misma). Esta situación
hace que sea difícil investigar experimentalmente los procesos cognitivos que subyacen a
su ejecución. En segundo lugar, las investigaciones han demostrado que existen efectos
significativos en la práctica con la administración repetida de las formas existentes, que
son evidentes incluso tras dos exposiciones en un mismo día y detectables hasta un año
después de la administración inicial. Dichos efectos representan uno de los problemas
más frecuentes cuando se utiliza el TMT en investigación. Cualquier mejora observada
durante la segunda administración puede ser, simplemente, debida a la exposición previa,
lo que hace que sea difícil interpretar la existencia de posibles mejoras, así como
establecer su fiabilidad. En este sentido, la parte B parece ser más sensible a los efectos
de la práctica que la parte A. Después de la primera administración, el sujeto aprende los
trucos y entresijos de la prueba, la novedad desaparece, y es capaz de refinar sus
estrategias y mejorar así los resultados en la prueba. Esta singularidad socava
sustancialmente la sensibilidad diagnóstica del TMT. En tercer lugar, existen dificultades
vinculadas a la conexión manual de los círculos mediante el trazo de una línea. Este
requisito aporta un plus de variabilidad en el rendimiento ocasionado por una serie de
factores no relacionados con los procesos cognitivos de interés (ataxia, afectación del
control motor o artritis). Las limitaciones descritas dificultan la interpretación del
rendimiento en la prueba, por lo que no queda, en ocasiones, del todo claro si el
resultado final refleja un déficit cognitivo verdadero o, más bien, problemas de otra
93
índole relacionados con la administración o el formato de la prueba. Al tiempo que
interpretar la ejecución sin otra fuente de información adicional, no permite determinar si
un individuo manipula deliberadamente su ejecución para lograr un beneficio.
94
reconocían los números arábigo-índico occidentales (1, 2, 3, 4…) sin apenas dificultades.
Las pruebas de fluidez verbal, también conocidas como tareas de generación continua,
miden la producción cronometrada de palabras individuales bajo condiciones de
búsqueda restringida. En función del tipo de restricción a la que está sometida el sujeto,
estas pruebas pueden agruparse en:
– Pruebas de fluidez verbal fonémica: requieren que los sujetos produzcan (de
forma oral o escrita) tantas palabras como puedan, que comiencen con una
letra específica, durante un periodo fijo de tiempo.
– Pruebas de fluidez verbal semántica: demandan que los sujetos produzcan
(de forma oral o escrita) tantas palabras como puedan dentro de una
categoría específica (por ejemplo, animales) en un rango temporal
preestablecido.
95
Con el propósito de aumentar las demandas de control ejecutivo, se han propuesto
variantes que valoran la fluidez verbal combinando fluidez fonémica y fluidez semántica
(nombres de animales que empiezan con la letra a) o la conmutación entre categorías
semánticas (alternar palabras de las categorías frutas y muebles). Crawford y
colaboradores (1995) proponen la excluded letter fluency task: generar palabras que no
contengan una vocal específica (por ejemplo, palabras que no contengan la vocal I).
En 1966, Zangwill observa el potencial de las pruebas de fluencia ideacional para
captar problemas ejecutivos. Tareas como la uses for common objects task (en
castellano, tarea de usos alternativos) requiere la generación de usos inusuales para
objetos cotidianos. Este tipo de tareas permiten observar problemas de autoiniciación y
creatividad en pacientes con disfunción ejecutiva. Es habitual que estas personas tengan
dificultades para ir más allá de los usos convencionales de objetos cotidianos.
Las pruebas de fluidez verbal son rápidas y sencillas de administrar, puesto que no
requieren ningún material a excepción de un cronómetro o temporizador, y una magnifica
elección cuando se dispone de un tiempo limitado de evaluación. Las pruebas de fluidez
fonémica demandan más recursos ejecutivos, ya que, a diferencia de la fluidez
semántica, comporta estrategias no habituales. Estas últimas siguen estrategias similares a
las utilizadas por el cerebro para almacenar información, lo que permite búsquedas
organizadas. Al generar palabras pertenecientes a la categoría animales, por ejemplo, el
sujeto puede tomar muestras de subdominios (animales de granja, animales domésticos,
animales de la sabana, etc.). Por el contrario, la generación de palabras que comiencen
por la letra P requiere realizar búsquedas no heurísticas que demandan una mayor
organización estratégica de la producción verbal e inhibición de respuestas.
Como puntos débiles, hay que señalar que las diferentes pruebas de fluidez
semántica no son comparables, puesto que no son equivalentes, al tiempo que se ven
afectadas por diversas variables relacionadas con el sujeto. Por ejemplo, la edad afecta a
la fluidez semántica (y más que no a la fluidez fonémica). Así mismo, el supuesto
generalmente aceptado en neuropsicología según el cual las pruebas de fluidez verbal son
medidas de funcionamiento ejecutivo es cuestionable. No debe olvidarse que, en la
literatura psicométrica, las pruebas de fluidez verbal se utilizan como medida de la
velocidad de procesamiento de la información.
Las medidas de fluidez no verbal se crean como análogos no lingüísticos de las pruebas
de fluidez verbal. Una de las primeras herramientas de este tipo es el design fluency test
(DFT; en castellano, prueba de fluidez de diseños), ideado por Jones-Gotman y Milner
en 1977. El propósito de esta prueba es que el sujeto genere tantos diseños abstractos
diferentes como le sea posible.
El DFT se compone de dos partes. En la primera (condición de respuesta libre), el
sujeto tiene que dibujar diseños nuevos abstractos (que no sean garabatos) durante cinco
96
minutos. Mientras que, en la segunda parte (condición de respuesta fija), tiene que
producir en cuatro minutos diseños que contengan exactamente cuatro líneas. El
rendimiento en la condición de respuesta libre parece ser más sensible al deterioro
neurológico; probablemente, por su formato poco estructurado y más proclive a activar
procesos de control ejecutivo.
Una de las principales críticas a el DFT es que sus criterios de puntuación son
difíciles de interpretar y excesivamente dependientes del juicio del examinador. Para
subsanar este contratiempo, sus autoras generaron años después unos criterios de
administración y puntuación más detallados. Por otra parte, los pacientes con importantes
déficits cognitivos, a menudo, tienen dificultades para entender las demandas de la tarea.
En un intento de dar respuesta a los problemas detectados en el DFT, Regard y
colaboradores crean en 1982 el five-point test (FPT; en castellano, prueba de cinco
puntos). En esta prueba, se presenta al sujeto una hoja de papel con 40 matrices de
puntos dispuestos en 8 filas y 5 columnas. Cada una de las matrices está formada por
cinco puntos, dispuestos como los cinco puntos de un dado de seis caras. Y se le solicita
que, en un intervalo de cinco minutos, produzca tantas figuras diferentes como le sea
posible conectando los puntos de cada matriz. En 1994, Lee y colaboradores reducen el
tiempo de ejecución del FPT a tres minutos para hacerlo comparable al COWA.
El FPT y el DFT proporcionan un grado diferente de estructuración al sujeto. Otra
diferencia reseñable es que la mayoría de diseños generados en el FPT se consideran
válidos, mientras que las mismas producciones probablemente son vistas como
repeticiones en el DFT. De forma que el DFT es más exigente a la hora de puntuar un
diseño como novedoso y por tanto válido.
Ruff desarrolla a mediados de la década de 1990 una variante del FPT conocida
como el Ruff figural fluency test (RFFT; en castellano, prueba de fluidez figurativa de
Ruff). La prueba está formada por 5 condiciones, en 5 hojas diferentes, cada una de las
cuales consta de 35 matrices de 5 puntos, dispuestas en 7 filas y 5 columnas. La
configuración de los puntos dentro de las matrices varía para cada condición. En dos de
las condiciones, se incluye la presencia de elementos distractores (rombos y líneas,
respectivamente).
En comparación con el DFT, el RFFT está altamente estructurado y, al igual que el
FPT, valora el número de respuestas generadas y no su singularidad. Hay que tener en
cuenta que tanto el DFT como el FPT se han desarrollado como análogos a las medidas
de fluidez verbal, pero es el RFFT el que, por su estructuración, comporta una mayor
demanda de control ejecutivo.
Como puntos débiles del RFFT, es preciso destacar que, si bien los estímulos que
integran esta prueba se diseñaron para variar en el nivel de dificultad (mediante el uso de
interferencia), no hay diferencias significativas entre las cinco partes de la prueba. Por
otra parte, su estructura facilita la administración y puntuación, pero también condiciona
su capacidad para valorar la iniciativa y organización en pacientes con déficit ejecutivo.
No hay que olvidar que las medidas de fluidez no verbal no son apropiadas en
aquellos pacientes que déficits motores significativos (por ejemplo, paresia o ataxia) o
97
graves alteraciones visuales. Así mismo, al igual que tantas otras pruebas utilizadas en la
práctica clínica, este tipo de pruebas no están diseñadas para identificar simulación.
Las medidas de fluidez no verbal muestran asociaciones estadísticas parciales con
las medidas de fluidez verbal, lo que sugiere que comparten algunos procesos cognitivos
comunes, aunque no idénticos. Por ejemplo, a diferencia de las medidas de fluidez
verbal, la generación de diseños gráficos no busca en almacenes semánticos o
fonológicos, sino que se crean sobre la marcha. Por otra parte, esta situación también
puede derivar en una alta probabilidad de respuestas perseverativas (ya que el sujeto es
más susceptible de ser atraído por los diseños generados previamente y repetirlos).
Aunque existen diferencias importantes entre las tareas utilizadas para evaluar la
inhibición de respuestas, todas comparten una característica en común: el sujeto debe
inhibir la tendencia natural a responder a determinados estímulos en beneficio de otros.
La prueba más conocida es el test de Stroop.
El test de Stroop es uno de los paradigmas de exploración más antiguos de la
psicología experimental. En 1883, a partir de una sugerencia de Wilheim Wundt, James
Catell examina las velocidades relativas de la denominación del color y la lectura de la
palabra del color. En el primer tercio del siglo XX, el doctorando John Ridley Stroop
investiga la interferencia en las reacciones verbales seriales, ideando para ello el
paradigma experimental que lleva su nombre.
Se han desarrollado diversas versiones del test de Stroop, sin embargo, una de las
más utilizadas es la de Golden, cuya versión se compone de tres condiciones:
– Condición 1: página con 100 palabras que designan colores (rojo, verde y
azul) impresas en tinta negra.
– Condición 2: página con 100 equis impresas en tinta roja, verde y azul.
– Condición 3: página donde hay 100 palabras en las que el color de la tinta y
la palabra escrita no coinciden (por ejemplo, la palabra rojo impresa en tinta
de color azul).
El sujeto debe leer, por columnas, las palabras o nombrar el color de la tinta en
función de la condición lo más rápido posible en un intervalo de tiempo limitado (45
segundos). En la última condición, la tendencia natural es leer las palabras y no el color
de la tinta en la que estas están impresas. Situación que condiciona una disminución
significativa del tiempo de reacción por el denominado efecto de interferencia o efecto
Stroop. Pero ¿por qué se produce este efecto?
Se ha argumentado que existe una distinción entre los procesos automáticos y
voluntarios involucrados en la lectura de las palabras (condición 1) y el color de la tinta
no congruente con la palabra escrita (condición 3). Atender a las características léxicas de
98
las palabras es un proceso automático, mientras que leer el color de la tinta inhibiendo la
lectura de palabras es un proceso eminentemente voluntario y controlado, es decir,
comporta inhibir una respuesta sobreaprendida a favor de una respuesta inusual.
El test de Stroop tiene una larga historia como medida experimental en estudios
psicológicos, que se ha adaptado posteriormente para el uso en neuropsicología clínica.
Sin embargo, existen múltiples versiones del test de Stroop y esta diversidad plantea
desafíos significativos para el clínico. La plétora de estímulos y formatos de
administración puede ser un foco de confusión, lo que dificulta la comparabilidad de
rendimientos entre sujetos y estudios. Algunos autores han indicado que la presentación
por condiciones (es decir, ensayos separados donde los ítems son congruentes o
incongruentes) podrían permitir a los sujetos desarrollar estrategias compensatorias para
focalizarse en las dimensiones relevantes.
Para una adecuada interpretación de los resultados, es fundamental corroborar que
el sujeto tiene una buena agudeza visual, así como una correcta visión de colores. En los
casos de daño cerebral, no hay que subestimar el papel que la distractibilidad, el
enlentecimiento cognitivo o la perseveración, ya que estas alteraciones pueden influir en
la susceptibilidad al error.
El test de los cinco dígitos (TCD) es un instrumento creado por Sedó en el 2007 que
permite evaluar de forma breve y sencilla la capacidad para hacer frente a la
interferencia. Se basa en el paradigma Stroop, pero, en lugar de utilizar como estímulos
palabras y colores, utiliza números. Lo que minimiza barreras lingüísticas y posibilita su
administración a personas con competencias lectores limitadas. Además, su presentación
es acromática, lo que evita problemas en la percepción de colores.
El TCD está formado por cuatro condiciones diferentes que se secuencian en
orden creciente de dificultad: lectura, contar, elección y alternancia. En cada una de
estas, al sujeto se le presenta una lámina que contiene 50 estímulos distribuidos en 5
columnas con 10 filas cada una. Los estímulos son agrupaciones de asteriscos o números
(que se hallan dentro de pequeños rectángulos).
Las condiciones lectura y contar implican un procesamiento cognitivo
eminentemente automático de los estímulos. En la primera condición, leer el número que
se repite y, en la segunda, contar los asteriscos situados dentro de cada rectángulo. El
nivel de dificultad aumenta en la segunda parte del test (elección y alternancia).
En la condición elección, se presentan los números en una cantidad diferente a la
que indica el valor numérico del propio dígito. Este tipo de presentación obliga a un
procesamiento cognitivo controlado para seleccionar la respuesta correcta. El sujeto debe
contar la cantidad de números que aparecen en el recuadro, pero la disposición espacial
en la que se presenta genera un conflicto entre la tendencia natural por leer el número y
no contarlos.
99
En la cuarta y última condición, alternancia, el sujeto tiene que alternar entre
contar y leer. Cambiando del criterio principal (contar) al criterio secundario (leer) cada
vez que se encuentre con un rectángulo cuyo marco tenga un grosor mayor al habitual.
El Brixton test se compone de 56 páginas, cada una de las cuales muestra una matriz
formada por 10 círculos distribuidos en 2 filas. En cada página, uno de los círculos está
sombreado de color azul. La posición de este círculo va cambiando entre páginas;
cambios de posición que se rigen por una serie de reglas simples (que varían sin previo
aviso). Al sujeto se le muestra una página y ha de decidir en qué posición estará el
círculo azul en la siguiente página.
Conceptualmente, el Brixton test tiene algunas similitudes con el WCST. Sin
embargo, las reglas que rigen el funcionamiento del Brixton test no pueden ser deducidas
por las características perceptivas de los estímulos presentados. Además, los cambios de
regla se producen de manera variable sin un patrón regular, lo que hace que el contexto
de conocimiento previo no proporcione ayuda alguna. De forma que la creación de una
regla requiere de un mayor esfuerzo de abstracción que en el WCST.
El Brixton test no requiere respuestas verbales, pues el paciente puede señalar la
posición sin necesidad de expresar una respuesta oral. Característica que posibilita su
aplicabilidad en pacientes que presentan déficits lingüísticos. Como aspecto negativo, su
simplicidad y rígida estructuración permiten que algunos pacientes con alteraciones
ejecutivas no tengan dificultades para realizarla con éxito. Otras particularidades del
Brixton test que han de considerarse son que un déficit en memoria de trabajo puede
alterar el razonamiento inductivo necesario para un adecuado rendimiento y que
dificultades en atención sostenida pueden acarrear respuestas rápidas e impulsivas,
escasamente razonadas.
Si el Brixton test guarda ciertos paralelismos con el WCST, el Hayling test hace lo
propio con el test de Stroop. Consiste en dos series de 15 oraciones, a cada una de las
cuales les falta la última palabra. En la primera serie, el examinador lee cada una de las
oraciones en voz alta y el sujeto tiene que completarlas lo más rápidamente posible. Por
ejemplo, “las abejas producen…” y el paciente dice “miel”. Esta serie proporciona una
medida simple de velocidad de respuesta. En la segunda serie, el sujeto se enfrenta a una
actividad novedosa que consiste en completar la oración con una palabra que no tenga
relación alguna con la palabra que efectivamente la completa. Por ejemplo, “para clavar
un clavo, se utiliza un…” y el paciente dice “chocolate”. En esta segunda serie, el sujeto
debe inhibir una respuesta fuertemente activada (en este caso martillo) y generar
verbalmente una opción semánticamente distante (chocolate).
Los componentes cognitivos específicos necesarios para ejecutar correctamente el
Hayling test no están claros. Se ha propuesto que la generación de palabras en la
segunda sección de la prueba se facilita por estrategias heurísticas, tales como la
100
verbalización de objetos presentes en la consulta, pero no se sabe si su uso de tales
estrategias mejora realmente el rendimiento.
101
y duración, cantidad, peso y distancia y longitud. Todas las respuestas que caen entre el
percentil 5 y el 95, tomando como referencia las respuestas facilitadas por voluntarios
sanos, se consideran normales.
El CET es una prueba breve y fácil de administrar, mientras que el BCET tiene
unas propiedades psicométricas algo mejores. En ambos casos, sin embargo, el
rendimiento está fuertemente influenciado por las características individuales: los
hombres tienden a proporcionar estimaciones más precisas que las mujeres. Al mismo
tiempo, las personas con estudios universitarios realizan estimaciones más certeras que
aquellas con estudios primarios.
La relación del CET con otras pruebas utilizadas en la evaluación del control
ejecutivo parece modesta, lo que genera dudas sobre si realmente es posible considerarla
una prueba ejecutiva. Varios autores plantean que el rendimiento de un sujeto en el CET
depende de su estado intelectual general, el bagaje de conocimientos que cada uno tiene
y la capacidad de recuperación de información. Otros procesos cognitivos claves para
tener éxito en esta prueba son el razonamiento numérico y la visualización mental.
Klahr propone que los movimientos contraintuitivos son fundamentales para lograr
el éxito en las pruebas de la torre. Este autor define los movimientos contraintuitivos
como aquellos que se producen en una dirección alejada de la meta final, de tal forma
que implican planificación e inhibición de movimiento prepotentes que dirigen hacia ella.
La flexibilidad también entra en juego, ya que el sujeto debe cambiar de forma flexible
entre los subobjetivos o movimientos para alcanzar la configuración final.
102
Goel y Grafman indican que las pruebas de la torre no necesitan planificación, sino
el uso de estrategias perceptuales en tiempo real. Según este planteamiento, la
configuración actual guía de forma inmediata el movimiento siguiente, es decir, el sujeto
trata de acercar la configuración sucesivamente a la meta final con cada movimiento en
lugar de planificar de forma anticipatoria. Si el planteamiento de las estrategias
perceptuales es correcto, los procesos inhibitorios resultan particularmente importantes
para controlar sucesivos movimientos.
– Trail making test: es una variante del clásico TMT que está formada por
cinco subpruebas: exploración visual, secuenciación de números,
secuenciación de letras, alternación número-letra y velocidad motora.
– Verbal fluency test: prueba en la que el sujeto tiene que decir, en un minuto,
tantas palabras como pueda que comiencen con las letras F, A y S. Otras
pruebas de fluencia incluidas en esta prueba son la evocación categorial de
animales y nombres de niños y la evocación alternante entre las categorías
frutas y muebles.
– Design fluency: consiste en dibujar en un minuto tantos diseños diferentes
como sea posible trazando cuatro líneas rectas que conecten cinco puntos.
– Color-word interference test: modificación del test de Stroop que incluye una
condición de interferencia y conmutación, donde el sujeto debe realizar la
tarea de interferencia, salvo para las palabras con un borde dibujado a su
alrededor; en estos casos, debe leer la palabra.
– Sorting test: actualización de la California card sorting test desarrollada por
Delis a finales de la década de 1980, consiste en seis fichas con una palabra
escrita en cada una. El sujeto debe ordenar las fichas en dos grupos de
acuerdo con un principio y explicarlo. Posteriormente, tiene que ordenarlas
103
de forma diferente (y explicarlo). Y así sucesivamente, produciendo tantos
principios como sea posible. También incluye una condición de
reconocimiento de categoría.
– Twenty questions test: se muestra al sujeto una página con 30 objetos y debe
adivinar en cuál está pensando el examinador a través de 20 preguntas
cerradas tipo sí o no.
– Tower test: adaptación de las tradicionales pruebas de la torre. El sujeto debe
mover cinco anillos concéntricos entre tres clavijas para alcanzar la
disposición solicitada por el examinador. La forma de mover los anillos está
determinada por el cumplimiento de una serie de reglas.
– Proverb test: implica interpretar proverbios. Incluye una condición de
reconocimiento.
– Word context test: adaptación de la prueba diseñada por Kaplan en la década
de 1940 para estudiar la adquisición de significados de palabras en niños. Al
sujeto se le muestra una seudopalabra y debe descubrir su significado
basándose en una serie de pistas.