Documentos de Académico
Documentos de Profesional
Documentos de Cultura
REFERENCIAS:
RESUMEN
Este capítulo no es materia de examen.
1. LA PSICOLOGÍA DE LA CONSCIENCIA
La psicología científica desde sus comienzos hasta nuestros días se ha ido cuestionando y
replanteando su objeto de estudio y los métodos más adecuados que garantizaran su status
científico. Al encontrarse la psicología del pensamiento inmersa en el propio desarrollo de la
psicología como ciencia también se vio sometida a estos cambios, sufriendo no solo los cambios
metodológicos, sino incluso llegando a perder su legitimidad como objeto de estudio por ser el
pensamiento un proceso inobservable.
Cuando la psicología se instituyó como disciplina científica su fundador, Wundt, estableció que la
consciencia era su objeto de estudio y la introspección el método para analizar la propia experiencia
consciente de los sujetos. Wundt partía del supuesto de que la mente tenía actividad propia y
control sobre los acontecimientos y que ésta era producto de la síntesis de los elementos más
simples. Esta concepción holística de la mente se contraponía al método introspectivo que buscaba
la identificación de los elementos de la experiencia consciente. Esta crítica luego fue esgrimida por
la psicología de la Gestalt.
El estudio de la mente como actividad sintetizadora no entusiasmó a los discípulos de Wundt que
se inclinaron por una psicología más atomista. Para los estructuralistas todos los datos psicológicos
podían analizarse en elementos más simples. El pensamiento se identificaba con las ideas, las ideas
eran imágenes y las imágenes se reducían a las sensaciones. Para describir el pensamiento lo único
que hacía falta era analizar el contenido de consciencia en sus elementos constituyentes y descubrir
cómo se configuraba lo más complejo en términos de las leyes de la asociación. El pensamiento en
definitiva se reducía al análisis de las experiencias sensoriales más elementales por medio de la
introspección analítica, un método sumamente complejo y arduo.
Nos encontramos, por tanto, que la psicología incluso desde sus inicios se debatía los
planteamientos teóricos y metodológicos que la definían como ciencia. Si bien es cierto que la
psicología totalizadora de Wundt y la estructuralista de Titchener compartían el supuesto de que el
objeto de estudio de esta nueva ciencia era la mente entendida como experiencia consciente y el
método la introspección, también es verdad que no estaban de acuerdo con respecto a cómo se
debían definir ambos.
Otro discípulo de Wundt, Külpe establecía una vertiente distinta de la psicología conocida como
escuela de Wurzburgo, ampliando tanto su objeto de estudio como el tipo de tareas que podían
someterse al método de la introspección. A pesar de que la escuela de Wurzburgo no llegó a
constituirse en una alternativa teórica y metodológica propiamente dicha, de hecho, fue absorbida
por la psicología funcionalista, sus aportaciones sobre los procesos de pensamiento abrieron
nuevas perspectivas. Especialmente importantes fueron sus hallazgos sobre el pensamiento sin
imágenes, que ponía de manifiesto que el objeto de la psicología no tenía que reducirse al estudio
de la experiencia consciente, y la identificación del carácter directivo del pensamiento, que
descartaba la explicación asociacionista ofrecida por los estructuralistas. Mientras que los
seguidores de la psicología totalizadora y estructuralista se enfrentaban duramente a las
innovaciones propuestas por la escuela de Wurzburgo, surgía en Norteamérica el funcionalismo
como una alternativa que replanteaba el objeto de la psicología y admitía una concepción ecléctica
con respecto a su metodología.
Las polémicas que surgieron dentro del seno del conductismo formal no atrajeron demasiado
seguidores, y, por el contrario, provocó una postura más radical y en consonancia con el
conductismo de Watson. Skinner retoma nuevamente el objeto de estudio de la psicología
propuesto por Watson y rechaza abiertamente cualquier alusión a lo inobservable. El objeto de la
psicología es el estudio de la conducta como producto de las relaciones funcionales que se
establecen entre las variables ambientales y sus efectos en la conducta. La psicología experimental
de aquellos años se vio seriamente influida por esta postura radical del conductismo, pero no todos
desterraron en la misma medida una intervención de lo mental, aunque entendida bajo los mismos
principios conductistas y esta postura preparó el camino para el desarrollo de una futura psicología
cognitiva que fuera mentalista y objetiva.
movimiento cognitivo en psicología tenían sus raíces en el conductismo, esta influencia repercutió
principalmente en el planteamiento metodológico de sus investigaciones que pretendían seguir
garantizando el rigor del método científico. Ahora bien, el marco teórico del cual se parte es muy
distinto puesto que los procesos mentales adquieren protagonismo y control sobre el
comportamiento.
REFERENCIAS:
• RESUMEN M. GORETTI GONZÁLEZ
• GONZÁLEZ LABRA, M., SÁNCHEZ BALMASEDA, P., & ORENES
CASANOVA, I. (2019). PSICOLOGÍA DEL PENSAMIENTO. MADRID:
SANZ Y TORRES.
CAPÍTULO 2. PSICOLOGÍA DEL RAZONAMIENTO
1. INTRODUCCIÓN
El razonamiento es uno de los procesos cognitivos básicos por medio del cual utilizamos y aplicamos
nuestro conocimiento. Sin la posibilidad de hacer inferencias, dependeríamos de un conocimiento
muy específico y puntual para cada situación que afrontamos. P. ej., “Si un amigo dice que su hijo de
8 años es más alto que su sobrino de 9, pero más bajo que su hija de 7, podemos hacer varias
inferencias: sus hijos son más altos que su sobrino, su sobrino es el más bajo de los tres, sus hijos y
sus sobrinos son primos, su sobrino es muy bajito... todas ellas se pueden hacer sin conocer a los
niños y sin necesidad de que nuestro amigo las formule explícitamente. Podríamos decir que el
razonamiento permite “pasar de una información a otra”, dado que a partir del conocimiento sobre
uno o más enunciados podemos derivar otro enunciado o alcanzar una conclusión.”
Pero no todas las inferencias son iguales. En algunas se ha derivado la conclusión ceñida a la
información de los enunciados (ej., su hija de 7 años es la más alta de los tres niños) y en otras se ha
ido más allá de lo expresado en los enunciados (ej., inferir que su sobrino es muy bajito).
Las investigaciones sobre el razonamiento humano acudieron a la lógica en busca de un criterio para
evaluar el curso de estas inferencias e incluso identificar las propias leyes del razonamiento humano.
Se han diseñado tareas experimentales de acuerdo con la formalización y el concepto de análisis
lógico. Así, es habitual encontrar que estas tareas comprenden premisas y conclusiones que tienen
que ser evaluadas por los sujetos con respecto a su consecuencia lógica.
• El Razonamiento se refiere al proceso cognitivo básico por medio del cual utilizamos y
aplicamos nuestro conocimiento y que nos permite “pasar de una información a otra”, dado
que a partir del conocimiento sobre uno o más enunciados relacionados podemos derivar
otro enunciado o alcanzar una conclusión.
• Las Premisas son los enunciados a partir de los cuales razonamos.
• La Conclusión es el enunciado que se deriva de las premisas.
• El Argumento es el conjunto formado por las premisas y la conclusión.
Partiendo de las mismas premisas puede haber distintas conclusiones. Ej., “su hija es la más alta de
los tres” (inferencia deductiva) y “su sobrino es muy bajito” (inferencia inductiva). Asumiendo que
el contenido de las premisas sea verdadero:
• En la deducción hablamos de un argumento válido o inválido (las conclusiones se siguen
necesariamente de las premisas; las premisas llevan necesariamente a la conclusión).
• En la inducción de un argumento más o menos probable (las premisas sugieren o apoyan la
conclusión; es decir, la conclusión sólo se apoya con un nivel de probabilidad). Las leyes de
la lógica ofrecieron a la psicología un modelo normativo con el que evaluar el razonamiento
humano.
2. LÓGICA Y RAZONAMIENTO
Los estudios psicológicos sobre el razonamiento han seguido la distinción habitual de las dos ramas
de la lógica estandarizada sobre razonamiento deductivo e inductivo:
• Deductivo: parte de unas premisas para alcanzar una conclusión que se siga necesariamente
de las mismas. Es un procesamiento “hacia abajo” (de lo general a lo particular).
• Inductivo: se alcanza una conclusión que se encuentra más o menos apoyada por las
premisas. Es un procesamiento “haca arriba” (de lo particular a lo general).
Esta metáfora direccional en la que el razonamiento asciende o desciende por una “escalera teórica”
ha sido empleada por Platón, Aristóteles, y en múltiples tratados de lógica (Tiles, 1987).
Sin embargo, Skyrms (1986) señala que es un error diferenciar entre deducción e inducción como
argumentos que proceden de lo general a lo específico (deducción) y de lo específico a lo general
(inducción). La diferenciación entre argumentos deductivos e inductivos no se debe determinar por
la generalidad o particularidad de sus premisas o conclusiones, sino por las definiciones de validez
deductiva y de fuerza inductiva.
Inferencias (deductivas e inductivas): son la transición entre uno o más enunciados, en la que las
premisas aportan la información para poder alcanzar una conclusión.
• Conclusiones deductivas son tautológicas: sólo comprenden la información que viene
expresada en las premisas. En el razonamiento deductivo, la verdad de las premisas garantiza
la verdad de las conclusiones.
• Conclusiones inductivas son probabilísticas: van más allá de dicha información. En este
razonamiento las conclusiones son más o menos probables dependiendo del grado en que se
encuentren apoyadas por las premisas.
Desde Aristóteles y durante los 2.000 años siguientes, la deducción era el estudio de las conexiones
entre proposiciones. Las proposiciones son enunciados en los que se afirma o se niega algo y en los
que se establece una relación entre sujeto y predicado (ej., todos los A son B). El análisis de la
deducción se centraba en el establecimiento de las conexiones encadenadas de un silogismo o grupo
de silogismos por medio de la cópula “es”. El silogismo es un argumento en el que la conclusión
establece una nueva conexión entre las proposiciones a través de un término medio que las
relaciona (ej., en el argumento “todos los A son B, todos los B son C, luego todos los A son C” el
término medio B ha permitido una nueva conexión entre A y C).
Las proposiciones se convirtieron en la unidad básica de análisis y Frege, a finales de siglo XIX,
considera que las proposiciones pueden tratarse como funciones matemáticas, desarrollando un
marco de análisis más potente y flexible que la silogística aristotélica. Es a Principios del siglo XX,
cuando Whitehead y Russell (1910-1913) desarrollan formalmente el cálculo de predicados y
amplían el análisis de las proposiciones a otras formas relacionales distintas de la cópula “es”. Esta
nueva lógica matemática emplea símbolos por analogía con las matemáticas y analiza las relaciones
y funciones entre las proposiciones. De esta forma se logra el cálculo con una notación simbólica,
haciendo posible operar formalmente sin una contaminación de los contenidos.
La deducción se entiende como el proceso mediante el cual los enunciados se derivan de otros de
un modo puramente formal y esta derivación se realiza por la aplicación de las reglas de deducción.
Los términos de enlace (operadores lógicos) conectan dos proposiciones, excepto el término “no”
que actúa sobre una. Si hay que representar la agrupación de proposiciones con más de un operador
lógico se utilizan los paréntesis con el fin de indicar el operador que domina. De no haber paréntesis
se entiende que el operador menos frecuente es el que se corresponde con la negación, seguido de
la conjunción y la disyunción que tienen la misma potencia y por último el condicional que es el más
fuerte.
Ejemplo 1. Si me pagan las horas extra entonces estoy contento y trabajo feliz
Representación simbólica p→ (q Λ r)
Como podemos observar que el condicional actúa como término de enlace entre la proposición «Si me pagan
las horas extra» (el antecedente) y «estoy contento y trabajo feliz» (el consecuente). Además, el
consecuente de este condicional se encuentra constituido por una conjunción. Su representación simbólica
sería p → (q /\ r), aunque en este caso no hacen falta los paréntesis porque el condicional tiene prioridad
sobre los otros operadores.
Ejemplo 2. Si me pagan las horas extra entonces estoy contento y a la vez trabajo feliz
Representación simbólica (p →q) Λ r
Este ejemplo es una conjunción entre la proposición «Si me pagan las horas extra entonces estoy contento»
y «a la vez trabajo feliz». La primera proposición de esta conjunción, a su vez, está constituida por dos
proposiciones: «Si me pagan las horas extra» y «estoy contento» con el condicional como término de enlace.
La representación simbólica de este segundo ejemplo sería
(p → q) /\ r. En este caso los paréntesis son necesarios para indicar que la conjunción domina en esta
agrupación.
Las proposiciones formalizadas reciben el nombre de fórmulas lógicas y éstas se corresponden con
las premisas de un argumento. Las reglas de inferencia permiten dar el paso lógico que conduce de
las premisas a la conclusión (pasar de una proposición a otra). Cuando se dice que un argumento es
válido se entiende que la conclusión es una consecuencia lógica de las premisas en el que cada paso
se deduce por medio de una regla de inferencia.
Ejemplos de una deducción formal. El objetivo es ir acercándose paso a paso hacia una conclusión
válida.
Ejemplo 1. “Si sales a cazar, te pones ropa mimetizada. Si llevas ropa mimetizada, te pones la cartuchera.
Luego, si sales a cazar te pones la cartuchera. “
La primera premisa “Si sales a cazar, entonces te pones ropa mimetizada” se simboliza como
A → B. La segunda premisa “Si llevas ropa mimetizada, entonces te pones la cartuchera” se simboliza como
B → C. La conclusión “si sales a cazar te pones la cartuchera” se simboliza como A → C
Ejemplo 2. “Si eres socio de un club de futbol no tienes que comprar las entradas para los partidos. Manuel
va al partido del domingo y es socio del club. En consecuencia, no tiene que comprar la entrada.”
La primera premisa “si eres socio de un club de futbol, entonces no tienes que comprar las entradas para los
partidos” se simboliza como W → ¬ O. La segunda premisa “Manuel va al partido del domingo y es socio del
club de futbol” se simboliza como G ∧ W. La conclusión “no tiene que comprar la entrada” se simboliza
como ¬ O
Veamos a continuación un ejemplo de la aplicación del método de las tablas de verdad con un
argumento válido y otro no válido.
Se establecen todas las combinaciones posibles de los valores de verdad de las proposiciones, tanto
premisas como conclusiones y se busca alguna combinación en la que las premisas sean verdaderas
y la conclusión falsa. Si no la hay, el razonamiento válido se encontraría en la línea en la que las
premisas y la conclusión sean todas verdaderas.
Como puede verse por los valores de verdad de las premisas y la conclusión, no hay ningún caso en
el que siendo las premisas verdaderas se alcance una conclusión falsa y en la cuarta línea
encontramos el razonamiento válido.
A continuación, veremos un argumento inválido que se conoce como la falacia de afirmar el
consecuente:
Como podemos ver en esta segunda tabla de verdad, la tercera línea indica que hay una
combinación posible en la que siendo verdaderas las premisas se puede obtener una conclusión
falsa. Por tanto, este argumento no es válido y se trata de es un error bastante frecuente del
razonamiento humano.
Para examinar la forma lógica de la propia proposición, se utiliza el cálculo de predicados donde se
analiza la estructura interna descomponiendo una proposición en términos (expresión con la que
se nombra un único objeto) y predicados (aquello que se dice de los términos). Para los predicados
se suelen utilizar las letras F, G, H, ... y para los términos las letras x,y,z, colocándose el predicado
delante del término que va entre paréntesis. “Ramona es una estibadora” Ramona es el término (x)
y “es una estibadora” es el predicado, se expresa “F(x)”.
Un argumento inductivo es fuerte si es improbable que su conclusión sea falsa si sus premisas son
verdaderas. La fuerza inductiva depende del grado de improbabilidad. El grado de fuerza inductiva
está determinado por la relación de apoyo que se estables entre premisas y conclusiones. La
probabilidad de las premisas y conclusiones se conoce como probabilidad epistémica porque
depende de nuestro conocimiento y puede variar de una persona a otra y a lo largo del tiempo en
la misma persona. Existe el riesgo de alcanzar una conclusión falsa, pero ofrecen la enorme ventaja
de permitir descubrir y predecir nueva información en función de la información conocida.
La lógica inductiva estudia las pruebas para medir la probabilidad inductiva de los argumentos y
estudia las reglas para construir argumentos inductivos fuertes. Sin embargo, no existe acuerdo
sobre la forma de medir la fuerza inductiva de un argumento, ni aceptación consensuada de las
reglas y ni siquiera una definición precisa sobre la probabilidad inductiva.
Otra cuestión es la justificación de la inducción. Este problema se centra en determinar por qué se
consideran válidos los juicios sobre casos futuros o desconocidos. Una solución es mostrar que la
validez del razonamiento inductivo se basa en la ley de uniformidad de la naturaleza por la que se
puede suponer que el futuro será semejante al pasado, pero esto no es cierto. Francis Bacon 1620,
rechazó la aplicación de un principio general y propuso unas tablas de investigación en las que la
inducción procedía por exclusión y desestimación. Por tanto, podemos comprobar que la inducción
es una tarea mucho más compleja que la deducción. Si se asume que la naturaleza es uniforme,
entonces el problema está en determinar cuáles son las regularidades que se pueden proyectar a
situaciones futuras. Para poder identificar las regularidades que son proyectables hace falta
determinar cuáles son los aspectos de la naturaleza que se suponen son uniformes. Esta encrucijada
se conoce como “el nuevo acertijo de la inducción” y el problema de la construcción de una lógica
inductiva todavía no está resuelto. El análisis de las causas y de los efectos es un aspecto importante
tanto del razonamiento científico como del cotidiano. Si se conocen las causas se tiene control sobre
los efectos, de forma que se puede producir la causa para obtener el efecto deseado o se elimina la
causa para prevenir el efecto no deseado. David Hume (1739/1888) propuso un conjunto de reglas
para determinar la relación causal y estas nociones fueron desarrolladas por John Stuart MILL
(1843). Los Métodos de Mill son procedimientos para determinar si una causa es suficiente o es
necesaria para producir un determinado efecto, siempre que se tenga información sobre la
presencia o la ausencia de otras causas y sobre la presencia o ausencia del efecto en estas
situaciones.
Las causas son las condiciones que producen un efecto y que pueden ser suficientes, necesarias o
suficientes y necesarias. Por ejemplo: La presencia de oxígeno es una condición necesaria para la
combustión, pero no es suficiente. Si se quiere producir un efecto, hay que buscar las condiciones
que son suficientes (el oxígeno no serviría para producir el efecto de combustión) Cuando se busca
prevenir el efecto, entonces basta con identificar las condiciones necesarias. (Si se quiere prevenir
la combustión, se puede eliminar el oxígeno).
Los 6 principios por los que se rigen las condiciones necesarias y suficientes (Skyrms, 1986):
• Si A es una condición suficiente para B, entonces B es una condición necesaria para A.
Ejemplo: Si una buena nota es condición suficiente para el aprendizaje, entonces el
aprendizaje es condición necesaria para una buena nota.
• Si C es una condición necesaria para D, entonces D es una condición suficiente para C.
Ejemplo: Si el oxígeno es condición necesaria para la combustión, entonces la combustión es
condición suficiente para el oxígeno.
• Si A es una condición suficiente para B, entonces la ausencia de B es suficiente para la
ausencia de A. Ejemplo: Si una buena nota es suficiente para el aprendizaje, entonces la
ausencia de aprendizaje es condición suficiente para la ausencia de una buena nota.
• Si C es una condición necesaria para D, entonces la ausencia de D es condición necesaria
para la ausencia de C. Ejemplo: Si el oxígeno es condición necesaria para la combustión,
entonces la ausencia de combustión es una condición necesaria para la ausencia de oxígeno.
• Si A es una condición suficiente para B, entonces la ausencia de A es una condición
necesaria para la ausencia de B. Ejemplo: Si una buena nota es condición suficiente para el
aprendizaje, entonces la ausencia de una buena nota es condición necesaria para la ausencia
de aprendizaje.
• Si C es una condición necesaria para D, entonces la ausencia de C es una condición
suficiente para la ausencia de D. Ejemplo: Si el oxígeno es condición necesaria para la
combustión, entonces la ausencia de oxígeno es condición suficiente para la ausencia de
combustión.
Los métodos de Mill son unos procedimientos para descubrir y comprobar las condiciones que son
suficientes y/o necesarias para la ocurrencia de un efecto. John Stuart Mill (1843), propone cinco
métodos para guiar la búsqueda científica de las regularidades. En líneas generales su método
consiste en clasificar en unas tablas las observaciones sobre la presencia y ausencia de las supuestas
condiciones para la ocurrencia de un fenómeno con el fin de eliminar aquellas circunstancias que no
varían regularmente con el fenómeno observado. La propiedad o efecto que se analiza se llama
propiedad condicionada y las propiedades que son condiciones necesarias o suficientes de una
propiedad condicionada son propiedades condicionantes.
El Método de Diferencia se utiliza para identificar una condición suficiente en una ocurrencia en
particular. Para ello se busca que la propiedad condicionante y la propiedad condicionada se
encuentren presentes en una ocurrencia determinada (una ocurrencia particular viene señalada con
*). En la Tabla 2.6. se puede ver en el ejemplo 1 que la propiedad condicionante D es la condición
suficiente. Sin embargo, puede suceder, como en el ejemplo 2, que en la ocurrencia determinada
no se pueda identificar una única condición suficiente. En este caso se procede a la observación de
más ocurrencias de acuerdo con el principio de eliminación del método inverso de concordancia.
Este método requiere como mínimo la observación de dos ocurrencias: una en la que el fenómeno
que se investiga aparezca y otra en la que falte. Como puede observarse en este segundo ejemplo,
la propiedad B sólo se elimina en la ocurrencia particular. S in embargo, en la ocurrencia 1 y de
acuerdo con el método inverso de concordancia se elimina la propiedad A y en la ocurrencia 2 la
propiedad D. De esta forma, la propiedad condicionante C se identifica como condición suficiente.
El Método Combinado se utiliza para identificar las condiciones que son tanto suficientes como
necesarias. Como tenemos el Método Directo de Concordancia para identificar las condiciones
necesarias y dos métodos para identificar las condiciones suficientes podemos combinar el primero
con uno de los segundos y obtenemos dos Métodos Combinados. El Doble Método de Concordancia
combina el Método Directo y el Inverso de Concordancia y el Método Conjunto combina el Método
Directo de Concordancia y el de Diferencia. En la Tabla 2.7. se presenta el Doble Método de
Concordancia y podemos ver que la propiedad condicionante C es la condición tanto suficiente como
necesaria. Se puede observar que en la ocurrencia 1 se han eliminado las propiedades B y D, en la
ocurrencia 2 la propiedad A, en la ocurrencia 3 las propiedades B y D y en la ocurrencia 4 la propiedad
A.
Hay que tener en cuenta que solo hay dos principios de eliminación:
• Una condición necesaria del efecto no puede estar ausente cuando el efecto está presente.
• Una condición suficiente del efecto no puede estar presente cuando el efecto está ausente.
Ejemplo práctico. Supongamos que un colectivo de personas en exclusión social ocupa un bloque
de viviendas vacías y que son propiedad de BANKIA. Este colectivo habilito el edifico para hospedar
a personas sin hogar. Supongamos que en el edificio ocupado hay un huésped con síntomas de
intoxicación y queremos averiguar cuál es el alimento que pudo ocasionar dicha intoxicación. Como
en el edificio ocupado hay muchos huéspedes, las comidas son tipo buffet libre dónde pueden elegir
entre varios platos, vamos a utilizar el Método Inverso de Concordancia para reducir la búsqueda a
dos platos principales y a dos postres. Recordemos que el Método Inverso de Concordancia
identifica la condición suficiente (causa) mediante la búsqueda en diferentes casos de la ausencia
tanto de las propiedades condicionantes (posibles causas) como de la propiedad condicionada
(efecto). El principio de eliminación que subyace en este método es: una propiedad que se
encuentre presente cuando el fenómeno está ausente no puede ser condición suficiente del
fenómeno.
Para aplicar el Método Inverso de Concordancia empezamos por seleccionar al azar los huéspedes
que comieron en el edificio ocupado y que no presenten síntomas. Se diseña una tabla y se les
pregunta lo que han comido, podemos ir eliminando las comidas que no son condición suficiente
para la intoxicación. El huésped 1 nos informa de que podemos eliminar la carne y flan pues fue lo
que comió. El huésped 2 nos da el dato de que se puede eliminar las natillas pues las probó, pero no
está intoxicado, y los huéspedes 3 y 4 no nos dan más información que la que sabemos ya. Lo que
encontramos es que todos no comieron pescado y es el único alimento seleccionado al azar que
éstos no han comido. Podemos identificar al pescado como condición suficiente de la intoxicación.
En caso de no encontrar la condición suficiente, entonces tendríamos que ampliar la lista de
alimentos y continuar con la recogida de información.
Los sesgos o falacias de razonamiento se refieren a unas tendencias que son sistemáticas en el
proceso de razonamiento. Estos hacen que los sujetos comentan errores al considerar factores que
son irrelevantes para inferir. Según Evans (1989), los sesgos de razonamiento se pueden clasificar
en tres:
• Sesgo en la selección de la información.
• Sesgo de confirmación.
• Sesgos de contenido y contexto.
Trataremos el tema de los sesgos en función del carácter externo o interno de los factores que
inducen a error.
• Por factores externos entendemos aquellos aspectos de la información que son irrelevantes
para el razonamiento y que se encuentran vinculados con el impacto que ejerce la propia
presentación de esta información.
• Por factores internos se refiere a las propias restricciones o limitaciones estructurales del
sistema, a la tendencia que muestra el sistema a tener en cuenta su conocimiento particular
o su sistema de creencias en general, y a la tendencia hacia la confirmación, interactuando
con el propio conocimiento y el sistema de creencias.
También es habitual recurrir a los números o a la tradición para presentar el producto o una postura.
El mero hecho de que la mayoría consuma o asuma una postura, porque tradicionalmente se ha
consumido, influye sobre los sujetos, sin que éstos consideren la validez o fuerza de los argumentos.
Este impacto ejercido por la información irrelevante para el proceso de razonamiento puede estar
determinado por el interés emocional que tiene, por la concreción de los datos, por el carácter vívido
de la información, por la proximidad temporal y espacial entre los aspectos irrelevantes de la
información y el argumento o por su familiaridad.
También nos encontramos influidos por la fuente de la que provenga la información. El error de
razonamiento conocido como “argumentum ad hominem1” pone de manifiesto la importancia que
se concede a la fuente de información independientemente de lo que sostenga. Se acepta o rechaza
determinada información en función de los méritos que otorgamos a la fuente. Se simpatiza con la
persona o institución que la sostiene.
También es frecuente recurrir a una autoridad en la materia para defender una postura sin más
evidencia que la persona en cuestión o acreditar o desacreditar la información de una fuente por la
simple asociación con otra, y en algunas ocasiones sin evidencia objetiva suficiente puede ser
apropiado confiar en esa fuente. Sin embargo, un argumento defendido por una fuente de
información con una credibilidad baja no hace que el argumento sea inválido y tampoco a la inversa.
Existen errores sistemáticos debido a la propia estructura sintáctica del problema. Por ejemplo, en
los problemas de silogismos categóricos se ha encontrado el efecto atmósfera y el sesgo de la figura
del silogismo. El efecto atmósfera manifiesta que la cantidad (universal o particular) o la polaridad
(afirmativa o negativa) de las premisas influyen sobre las condiciones que dan los sujetos. En relación
con el efecto de la figura se ha encontrado que el grado de dificultad y el tipo de conclusión
dependen de la posición del término medio en cada una de las premisas.
En el sesgo de emparejamiento se observa que las respuestas de los sujetos coinciden con los
enunciados del problema de la tarea de selección de Wason. Se presentan 4 tarjetas que contienen
el antecedente del condicional por una cara y el consecuente por la otra. La presentación de la tarea
va acompañada de un enunciado condicional en forma de regla y se pi-de a los sujetos que giren la
tarjeta o tarjetas necesarias para confirmar o falsar esa regla. Por ejemplo, “si hay un cuadrado azul
a la izquierda, entonces hay un círculo rojo a la derecha” y se pide a los sujetos que comprueben si
el condicional es verdadero o falso. La mayoría eligen las tarjetas que exhiben los dos términos del
enunciado: cuadrado azul y círculo rojo.
Wason (1966) interpretó estos resultados como un sesgo hacia la confirmación de aquello que venía
expresado por la regla. Sin embargo, Evans y Lynch (1973), sostienen que este sesgo está basado en
el emparejamiento y cuestionan que ésta sea una tendencia hacia la confirmación basándose en sus
resultados con la negación de los términos. El mismo problema con términos negativos sería “Si hay
un cuadrado azul a la izquierda, entonces no hay un círculo rojo a la derecha” (negación del
consecuente) o “Si no hay un cuadrado azul a la izquierda, entonces hay un círculo rojo a la derecha”
(negación del antecedente). En este caso se observa que los sujetos eligen los términos
mencionados en la regla y no persiguen la confirmación de esta. En el caso de la negación del
consecuente, la elección de los sujetos coincide con la falsación, y en el caso de la negación del
1Un Ad Hominem, también conocido como Argumentum Ad Hominem. Del latín: "argumento hacia la persona o "argumento en contra de la
persona. Consiste en: contestar a un argumento, explicación, opinión hacia un tópico en concreto, discusión o declaración atacando y/o apelando
a una característica (física, mental o de otra índole personal) o una creencia de la persona que hace dicha exposición en lugar de dirigirse
directamente hacia o en contra de su argumentación con otro argumento en un intercambio de ideas y/o información. El proceso de probar o
de refutar al utilizar un Ad Hominem se subvierte y el Argumentum Ad Hominem sólo sirve para cambiar el sujeto de la discusión en lugar de
probar o refutar un argumento. Sin un argumento previo no puede haber o no se puede dar un Argumentum Ad Hominem (Abrev. Ad Hominem)
puesto que no hay nada que probar o refutar por lo tanto el intercambio se convierte en un ataque o apelación a una característica o creencia
personal, frecuentemente a dos bandas.
antecedente siguen eligiendo los mismos términos mencionados pero su elección no coincide con
las reglas de la lógica. Según Evans (1989) el sesgo de emparejamiento pone de manifiesto la
relevancia que adquieren los términos expresados en el condicional y las dificultades que tienen los
sujetos con la negación lógica y lingüística, mostrando preferencia hacia el procesamiento de
información positiva.
En otro experimento, presentaron dos listas con la misma cantidad de nombres de personas famosas
y anónimas. Cuando se preguntaba sobre la frecuencia de los nombres, se encontró que juzgaban
como más frecuentes la de los nombres de los famosos. Estos nombres eran más fáciles de recordar
y al poder recuperar mayor número, consideraban que eran los más frecuentes. También se ha
encontrado que cuando se presenta una hipótesis irrelevante se induce a su consideración. Por
ejemplo, se describe un patrón de síntomas asociados al diagnóstico y a continuación se presenta
un caso en el que este patrón es irrelevante, los sujetos se dejarán influir por las expectativas que
ha generado la información presentada previamente (Chapman y Chapman, 1967).
Los errores de razonamiento también pueden deberse por el conocimiento propio o de sus
creencias, haciendo que se razone a favor de ellas. Se le da más importancia a la evidencia que vaya
en consonancia con nuestras creencias y se suele ignorar o minimizar aquello que las contradice.
También existe la tendencia a buscar explicaciones y aceptarlas muy fácilmente cuando éstas están
en consonancia con nuestras creencias, sin la consideración objetiva de los datos que las apoyan.
Además, se pueden alcanzar conclusiones precipitadas siempre que encaje con nuestro sistema de
creencias.
También se encuentra este sesgo en tareas de inducción en las que el sujeto tiene que descubrir una
regla. Por ejemplo, en la de “Tarea 2 4 6” (Wason, 1960) donde se pide que descubra cuál es la regla
de la serie. El experimentador tiene en mente una regla general como “cualquier serie de números
ascendentes”. Es habitual observar que los sujetos se empeñan en ir comprobando reglas, como los
múltiplos de 2. Y ante las respuestas de los sujetos el experimentador dirá siempre “SÍ” puesto que
cumplen la regla general, peor la del sujeto no es la del experimentador. Los sujetos solo generan
reglas con series positivas de acuerdo con la regla y no generan alguna que pueda falsar sus
hipótesis.
En este problema se pide a los sujetos que juzguen cuál de las dos compañías de taxis pudo
haber estado involucrada en un accidente ante la siguiente situación:
“En una gran ciudad hay dos compañías de taxis con distintos colores: taxis azules y taxis
verdes. Un 85% son taxis azules y un 15% son taxis verdes. Hubo un accidente y el taxi se
dio a la fuga. Un testigo asegura que el coche era un taxi verde. En una prueba de
memoria se encuentra que el testigo puede recordar correctamente el color de los coches
en un 80% de los casos y que se equivoca en el 20%”
En esta tarea la mayoría de los sujetos consideraban que el responsable del accidente había
sido un taxi verde. Sin embargo, con los datos presentados la probabilidad es mayor para
el taxi azul:
0,85 x 0,20 = 0,17 azul. Existe un 85% de estos, por el 20% que pudiera ser si se ha
equivocado el amigo, nos daría 17%
0,80 x 0,15 = 0,12 verde. En este caso el 80% de las veces no se equivoca, pero solo hay un
15% de taxis verdes, y así sería probable que el 12% de posibilidades fuera el taxi verde.
A pesar de haber presentado la información relevante, los sujetos se fían más del testigo
que de los datos. Se topa también con la relevancia. No solo debe estar disponible la
información sino ser relevante para la situación. El rendimiento mejora en las tareas
cuando establecen relaciones causales. Por ejemplo, si se dijera que el número de taxis es
igual y que el 85% de los taxis que tienen accidentes son azules, entonces los sujetos se
fijan en las probabilidades a priori a la hora de dar sus respuestas (Tversky y Kahneman,
1980).
XOSÉ VALES. CURSO 2019/2020 18
CAPÍTULO 2. PSICOLOGÍA DEL RAZONAMIENTO
• Contenido familiar: “Si eres futbolista profesional, entonces conoces los principios del juego
del fútbol”.
El contenido familiar puede en casos facilitar el rendimiento y en otros sesgar sus respuestas. En las
tareas de silogismos categóricos es habitual presentar un argumento deductivo y pedir a los sujetos
que juzguen su validez (viene determinada la validez por la estructura sintáctica no por contenido)
La verdad de la conclusión se juzga en función de la verdad supuesta de las premisas. Sin embargo,
cuando las conclusiones entran en conflicto con las creencias, se aceptan como válidos argumentos
que no lo son, pero cuyas conclusiones están en consonancia con el sistema de creencias y se
rechazan otros que siendo válidos muestran una conclusión discordante (Evans, Barston y Pollard,
1983).
Según el modelo del escrutinio selectivo los sujetos parecen examinar la conclusión y si ésta es
plausible, entonces tienden a aceptarla sin analizar la validez del argumento:
En este caso la conclusión es plausible y parece que entonces no nos molestamos en comprobar si
sigue de las premisas o no, aceptándola sin más. No obstante, el mero hecho de razonar sobre
contenidos conocidos no produce en todos los casos los efectos de facilitación esperados. Esto ha
provocado el que los factores de contenido se asocien al contexto, entendiéndose éste vinculado
con los aspectos pragmáticos del razonamiento. Los efectos de facilitación vendrían explicados por
la vinculación que los sujetos hacen entre el problema y los objetivos o metas hacia las que
encaminan el razonamiento.
La probabilidad epistémica dependerá del conocimiento sobre la naturaleza de los objetos sobre los
que se razona. Por ejemplo, se hacen generalizaciones a partir de pequeñas muestras de casos si
conocen o creen conocer la variabilidad de la muestra. Se acepta generalizar cuando dicha muestra
es pequeña si los objetos presentan variabilidad baja y no están dispuestos a aceptar una basada en
También se ha encontrado que el contenido puede inducir a sesgos cuando es representativo del
dominio, pero irrelevante estadísticamente. Los juicios por representatividad pueden inducir a
sesgos al basarse en la similitud entre conocimiento del sujeto y aquello sobre lo que está
razonando. Es el conocido “problema de los dos hospitales” de Kahneman y Tversky, 1972 Lo
expondrán en su capítulo, pero adelanto que este ejemplo pone de manifiesto que cuanto mayor
sea el número de observaciones más probable es que el resultado se aproxime al resultado real y
cuanto menor sea es más probable obtener resultados extremos.
Para resumir, hay que indicar que los sesgos son una consecuencia directa de las restricciones o
limitaciones propias del sistema que, por otra parte, es un sistema eficaz y adaptado al medio en el
que se encuentra inmerso. Simon (1989) nos indica que en pocas ocasiones el sistema de
procesamiento cuenta con la estrategia exacta para resolver el problema que tiene delante y debe
aproximarse a la solución por medio del “principio de la racionalidad restringida”. Todo ello hace
que el marco teórico del razonamiento humano se encuentre latente el debate sobre racionalidad
o irracionalidad del pensamiento.
4. EL CONCEPTO DE RACIONALIDAD
Cuando la psicología se plantea estudiar experimentalmente el razonamiento consideró que la
lógica era el marco de referencia para explicarlo. Sin embargo, los resultados de las investigaciones
manifestaron que los sujetos no siempre se ajustaban al criterio del razonamiento lógico,
conduciendo ello a un resultado incómodo para la psicología: si los sujetos no razonan con lógica,
entonces son irracionales.
La actuación lingüística explica que el sujeto tenga la facultad para el lenguaje que se actualizará en
algo concreto como el español, inglés, alemán, … o que algunas veces se equivoque en sus
locuciones sin que ello obligue a cuestionar su competencia lingüística. Así algunos defienden que
existe una competencia o capacidad racional que puede sufrir distorsiones cuando esta capacidad
se traducía a una actuación concreta.
conceptos de uso común) y de los procedimientos para su manipulación sirviendo la lógica como
modelo normativo.
Según el enfoque sintáctico, los errores de razonamiento ocurren en la comprensión de las premisas
y las respuestas sesgadas pueden explicarse en función de la interpretación que hacen los sujetos.
Henle (1962) sostiene que cuando los sujetos aceptan realizar una tarea lógica se pueden cometer
errores en la interpretación del argumento (las premisas y la conclusión) u omitir o añadir una
premisa al argumento. Por ejemplo, los sujetos pueden cometer errores en la interpretación de los
cuantificadores de un silogismo categórico, tales como, interpretar «algunos X son Y» como
«algunos X no son Y» y «algunos X no son Y» como «algunos X son Y». También se ha sugerido que
algunos sujetos pueden hacer conversiones de las premisas, tales como, convertir «algunos X no son
Y» en «algunos Y no son X» o «todos los X son Y» en «todos los Y son X».
Revlin y Leirer (1978), basándose en el modelo de conversión, sostiene que el contenido familiar
bloquea la conversión ilícita en la codificación de las premisas. El sesgo del sistema de creencias
puede explicarse considerando que las premisas de los argumentos válidos son más susceptibles
para la conversión que las premisas de argumentos inválidos. No obstante, este sesgo fue explicado
por Henle como el fracaso en la aceptación de la tarea lógica, donde los sujetos no entienden las
instrucciones o no saben lo que tienen que hacer y, por ello, hacen algo distinto de lo pretendido a
analizar, que es el razonamiento.
En líneas generales, la perspectiva sintáctica asume que existen dos componentes fundamentales
en el razonamiento:
• Un componente deductivo que comprende reglas sintácticas libres de contenido.
• Un componente de interpretación que establece la correspondencia entre los enunciados
del lenguaje y el conjunto de reglas sintácticas.
Este conjunto de reglas sintácticas no tiene que ser equivalentes a las reglas lógicas, sino que
comprendería el repertorio de reglas de inferencia que utilicen los sujetos de forma natural. Así si
el contenido y contexto influyen al interpretar, la actuación de los sujetos se explicaría por su
adherencia a las reglas sintácticas aplicadas a dicha interpretación. El contenido determinaría la
interpretación y el control del conocimiento que ha de recuperarse de la MLP, sin que ello implique
la alteración del conjunto de reglas sintácticas del sistema. Si el tipo de contenido cambia las
respuestas, es debido a la utilización de un conjunto distinto de proposiciones, no de reglas.
La tarea de Wason ha sido base de numerosos trabajos. Sólo el 4% de los sujetos fueron capaces de
responder correctamente a la tarea, en estudios posteriores el porcentaje ha variado entre el 6 y el
33%. El contenido del material presentado incide sobre el rendimiento, facilitándolo cuando es
contenido concreto. No obstante, no todos los contenidos concretos producen facilitación y algunos
autores indican que si existe experiencia previa se da mayormente esta facilitación.
La teoría de los esquemas de razonamiento pragmático (Cheng y Holyoak, 1985) propone que los
sujetos cuentan con reglas de razonamiento que son específicas del dominio. Estos tienen un nivel
medio de abstracción de forma que los esquemas se aplicarían a un conjunto de acontecimientos,
tales como las situaciones de regulación (permiso, contratos sociales, advertencias, etc).
En el caso que se comentó anteriormente de “Si recoges las cacas de perro cuando lo sacas a pasear,
entonces irás al fútbol”,” el sujeto entenderá el contexto de este problema y lo vinculará con metas
u objetivos anteriores que permitirán poner en marcha un conjunto de inferencias correctas y
organizadas en un esquema. Estos esquemas de razonamiento estrechamente vinculados con el
contenido y el contexto darían lugar a inferencias que coinciden con las estipuladas por la lógica. La
racionalidad bajo esta perspectiva no vendría explicada por la posesión de un conjunto de reglas
lógicas propiamente dicho, sino por unas reglas de razonamiento apropiadas para alcanzar los
objetivos que se propone el sujeto y para los que hace falta considerar el contenido y el contexto.
Sin embargo, no es una teoría que pueda generalizar el razonamiento más que a unas pocas
situaciones concretas. Se requieren más estudios.
La polémica suscitada sobre la racionalidad es un tema difícil de abordar, pues supone que hay que
distinguir entre estructura lógica y contenido (no lógico) y entre comprensión y reglas sintácticas.
Smedslund, 1970, 1990, nos indica que las explicaciones del modelo son circulares pues sólo se
puede deducir la naturaleza de la interpretación de una regla si se asume que se razona de forma
lógica y sólo se puede descubrir que se razona lógicamente si sabemos que ha interpretado la
premisa. La teoría de la competencia lógica supone un sistema lógico hipotético, pero al igual que
en las teorías de la competencia lingüística, el modelo de competencia no constituye el que sea una
teoría que pueda verificarse de forma empírica. La tarea experimental no garantiza que los sujetos
comprendan los requisitos de la validez deductiva, ni que la comprensión de las premisas enunciadas
coincida con la del experimentador.
premisa como una combinación de diagramas de Euler y para evaluar o producir una conclusión se
han de combinar dichas representaciones de premisas en una sola representación del silogismo.
Una teoría más actual al respecto es la de los Modelos Mentales de Johnson-Laird (1983; 2006;
Johnson-Laird y Byrne, 1991 ). Esta se enmarca en el enfoque que explica el razonamiento por el
conocimiento tácito que tienen los sujetos sobre los principios semánticos fundamentales que
subyacen en los procesos de inferencia. La validez se entiende como posibles interpretaciones del
argumento. Los sujetos construyen modelos mentales que constituyen la representación de las
situaciones descritas por las premisas generado combinaciones de éstas en búsqueda de
contraejemplos para las posibles conclusiones. El procedimiento básico viene explicado por esta
búsqueda de contraejemplos alternativos que puedan falsar el modelo mental en cuestión. Si estos
no se encuentran entonces es válido. La dificultad de los problemas se explica en función de la
cantidad de procesamiento y los errores se explican por las limitaciones de la memoria de trabajo al
no poder considerar todas las combinaciones posibles de las representaciones relevantes. Parece
entonces que se razona por un procedimiento semántico adecuado, pero limitado por la capacidad
de la memoria de trabajo. Según estos autores, la racionalidad viene reflejada en el metaprincipio
semántico de validez: “Una inferencia es válida sólo si su conclusión no puede ser falsada por un
modelo de las premisas”.
Sin embargo también se ha señalado que el enfoque semántico es un procedimiento tan formal
como el sintáctico (Lowe, 1993) y que la teoría de los modelos mentales se puede entender como
un modelo mental lógico en el que se describe el procedimiento formal para la búsqueda semántica
e contraejemplos (Oaksford y Chater, 1993). El procedimiento semántico (método de la Tª de los
modelos) analiza el significado de los operadores lógicos y el sintáctico (método de la Tª de la
demostración) utiliza las reglas de inferencia para delimitar este significado, pero ninguno de los dos
considera el contenido del argumento.
Desde esta perspectiva, el pensamiento se concibe como comportamiento que emerge del patrón
de regularidades observadas de nuestra experiencia. El sistema en sí mismo no tiene reglas que
dirijan el funcionamiento, pero el enfoque simbólico asume que los estados mentales sí se forman
por representaciones y reglas, a lo que esta perspectiva conexionista responde con la explicación de
que solo hay activación y fuerza de conexión para explicar el comportamiento.
Oaksford y Chater (1993) apuntan una interpretación alternativa a la Teoría de los Modelos
Mentales basada en los procesos de recuperación de memoria en el marco de los modelos
conexionistas. Aquí se explicaría la búsqueda de contraejemplos, por la bondad de ajuste entre el
patrón de activación generado por el argumento y el conocimiento representado por el sistema.
potente) y otro Sistema2 (procesamiento explícito con respuestas que pueden satisfacer criterios
normativos – moderno, lento y con mayores demandas).
Sloman (1996) propone que hay un razonamiento reflectante (sistema conexionista) cuyo cómputo
refleja estructuras de semejanza y relaciones de contigüidad y un razonamiento deliberado (sistema
de representación simbólica basado en reglas). El sistema conexionista permite que los procesos de
razonamiento sean rápidos y económicos y no hace falta un proceso de análisis puesto que su
resultado ya forma parte de la propia representación. La desventaja de este tipo de razonamiento
es que depende de la experiencia anterior y del
contexto. El sistema basado en reglas requiere
procesos más lentos y costosos, aunque su
aplicación es más general y no depende del
contexto. Ambos sistemas de razonamiento
servirían para funciones distintas. El sistema
conexionista aprovecha los recursos de
procesamiento al obtener sus inferencias
aprovechando el conocimiento que se
encuentra representado y que puede
generalizarse a contextos semejantes. El
sistema basado en reglas utilizaría sus recursos
de procesamiento para aquellas situaciones
novedosas y en las que sea necesaria la
precisión de las inferencias.
Evans y Over (1996; 1997; Evans, 2003), proponen distinguir entre dos nociones de racionalidad:
• La racionalidad1 o personal (comportamiento eficaz y fiable para la obtención de metas).
• La racionalidad2 o impersonal (comportamiento basado en una razón que se encuentra
fundamentada en teoría normativa).
Cabe señalar que ya Evans en 1984 propone una distinción entre procesos heurísticos y analíticos.
Con esta distinción intentaba delimitar dos tipos de funciones en el razonamiento:
• Los procesos heurísticos tendrían como función la selección de la información relevante.
• Los procesos analíticos operarían sobre la información que ha sido seleccionada.
Esta distinción puede considerarse como un intento de preservar la noción de competencia lógica
en los procesos analíticos. De acuerdo con su nueva formulación, el componente heurístico se
caracteriza por el procesamiento implícito y el componente analítico por el explícito. La
racionalidad2 sigue garantizando que los sujetos tengan competencia tanto deductiva como
inductiva, pero limitada. La polémica entonces se centra en determinar si esta competencia se ajusta
a un modelo de reglas de inferencia, que podría coexistir con restricciones de tipo pragmático
(Braine y O'Brien, 1991; Cheng y Holyoak, 1985; Rips, 1994), o con la teoría de los modelos mentales
(Johnson-Laird, 1983; Johnson-Laird y Byrne, 1991). Reconociendo que no resulta fácil discernir
entre ambos enfoques, puesto que ambos parten de supuestos demasiado imprecisos como para
permitir una contrastación experimental que claramente apoye o refute los aspectos teóricos
esenciales que defienden, Evans se inclina por la teoría de los modelos mentales. Sostiene Evans
que esta teoría puede constituir una teoría del razonamiento en general, tanto deductivo como
inductivo, y que el metaprincipio semántico de validez tiene mayor realidad psicológica.
Ahora bien, cabe señalar que estas dos propuestas de compromiso no son una panacea, sino que
conllevan varios problemas. A continuación, algunas de las críticas de las que ha sido objeto y
algunos de los problemas que plantea en su formulación la propuesta de Evans. Considérese que la
mayoría de estas críticas y los problemas que vienen señalados se aplicarían igualmente a la
propuesta de Sloman, que comparte con Evans un sistema de procesamiento conexionista y otro
sistema analítico, pero basado en reglas.
Por una parte, se sostiene que la teoría de los modelos mentales no está exenta de problemas como
para que claramente se pueda optar por ella y que tanto esta teoría como la basada en reglas
podrían ser valiosas para explicar el razonamiento de distintos sujetos o del mismo sujeto en
distintas situaciones (George, 1997). Por otro lado, también se critica la distinción entre los dos tipos
de racionalidades considerando que la racionalidad 2 no aporta, ni ha aportado buenos modelos de
razonamiento (Gigerenzer, 1996). Esta última postura se encuentra más cercana al concepto de
racionalidad1 y propone seguir investigando los procesos de razonamiento en su interacción con el
mundo real, puesto que los resultados experimentales subrayan que el razonamiento no ocurre
aisladamente, sino que depende del contenido, el contexto y las metas del sujeto. También se
defiende que no hay dos tipos de racionalidad, sino un solo sistema de razonamiento que puede
ajustarse al modelo normativo si las circunstancias pragmáticas son adecuadas (Noveck, 1997;
Sperber, Cara y Girotto, 1995).
REFERENCIAS:
• RESUMEN M. GORETTI GONZÁLEZ
• GONZÁLEZ LABRA, M., SÁNCHEZ BALMASEDA, P., & ORENES CASANOVA,
I. (2019). PSICOLOGÍA DEL PENSAMIENTO. MADRID: SANZ Y TORRES.
• Aclaraciones ED (Alf)
CAPÍTULO 3. INDUCCIÓN CATEGÓRICA
1. INTRODUCCIÓN
La “inducción categórica” constituye uno de los procesos básicos del funcionamiento cognitivo por
medio del cual las personas reconocen y clasifican su entorno de clases. Estas categorías se
consideran los cimientos o estructuras a partir de las cuales vamos a poder seguir clasificando,
interpretando, generando inferencias y comunicándonos con todos aquellos que compartan una
estructuración categórica en común.
Entre las varias funciones de la inducción categórica, hay dos que son fundamentales para las
diferentes perspectivas teóricas que existen sobre el tema:
• El ahorro cognitivo que supone la agrupación de las experiencias particulares en clases.
• La posibilidad que ofrece la pertenencia categórica de inferir más información que la que
haya sido presentada en una situación determinada.
Los sujetos extraen aquello que puede ser común a un conjunto de objetos o situaciones. Por
ejemplo, todas nuestras experiencias con los partidos políticos conservadores (Partido Popular, Cs,
VOX, Falange Española, …) agrupando las experiencias bajo la categoría de “partido político
conservador”. La categorización dentro del paradigma de la inferencia inductiva es lo que permite
agrupar las experiencias particulares en una clase general. Además, permite aplicar a un nuevo
ejemplar de la categoría, información conocida sobre lo que previamente ya ha sido agrupado.
Encontrándonos con un nuevo ejemplar categorizado como “partido político conservador”,
podemos generarle unas expectativas sobre este objeto, sin necesidad de comprobarlo, como por
ejemplo que pretendan privatizar la sanidad pública, la educación pública, restringir el derecho al
aborto, o etc.
2. LA ESTRUCTURACIÓN CONCEPTUAL
En la inducción categórica se resalta el papel que desempeña el conocimiento que se tiene sobre
las propiedades de los ejemplares, de modo que la descripción de estas propiedades permite
averiguar cómo los ejemplares se agrupan en clases. De esta forma encontramos que las categorías
se han definido por sus propiedades y sus reglas de formación se refieren a las relaciones que se
establecen entre estas propiedades.
Desde este enfoque se entiende que cada una de estas propiedades es por sí sola necesaria, aunque
no suficiente Un niño no es un soltero, aunque sea varón y no esté casado. Ahora bien,
conjuntamente estas tres propiedades indicadas, sí son suficientes para ser soltero. Estas
propiedades se denominan definitorias porque constituyen colectivamente una definición del
concepto y de acuerdo con este enfoque, que se conoce como enfoque clásico, un objeto es
miembro de una categoría si y sólo si presenta el conjunto de propiedades que lo definen.
Las principales teorías psicológicas hasta principios de los 70 compartían los supuestos del enfoque
clásico (Bourne, Ekstrand y Dominowski, 1971; Bruner, Goodnow y Austin, 1956). Pronto
aparecieron resultados experimentales que subrayaban la falta de especificación de las propiedades
definitorias de algunos conceptos. No había una definición consensuada que agrupara al conjunto
de propiedades individualmente necesarias y conjuntamente suficientes para los conceptos
“naturales”, además muchas veces no podían establecer los límites entre un concepto y otro tan
claramente como cabría esperar; los conceptos no se ajustaban fácilmente a una representación por
definiciones. El problema de este enfoque es que es demasiado restrictivo como para poder incluir
a las excepciones y a los ejemplares con demarcaciones imprecisas. Si este problema se intenta
resolver con una definición más general, entonces la categoría pierde poder discriminatorio,
convirtiéndose posiblemente en un cajón de sastre donde todo cabe.
En investigaciones de Rosch (1975, 1978), se encuentra que algunos ejemplares e consideraban más
típicos o más representativos del concepto que otros: “Petirrojo”, era miembro más típico de
categoría “ave”, que una “Gallina”, poniendo de manifiesto que no todos los ejemplares de una
categoría eran iguales, aunque la igualdad era lo esperado de acuerdo con las propiedades
definitorias. Además, estos efectos de tipicidad permitían predecir el comportamiento en una
amplia variedad de tareas.
• Nivel básico. Las categorías de nivel básico reflejan la estructura correlacional del medio y
corresponden estrechamente a los objetos del mundo. Estas desempeñan un papel central
en el sistema cognitivo porque sus ejemplares corresponden a los objetos de nuestra
experiencia cotidiana. Las personas extraen los prototipos (p. ej. Messi) de una categoría a
partir de los ejemplares de esa categoría, p. ej., jugadores del FC Barcelona.
• Nivel subordinado: es el más concreto en las que sus ejemplares tienen un alto grado de
parecido entre sí, p. ej., Piqué, Arthur, Frenkie de Jong, Sergio Busquets, etc…
Malt y Smith (1984) presentan los resultados de puntuaciones de tipicidad que se obtuvo cuando
los sujetos evaluaban en una escala de 1 a 7 varios ejemplares de los conceptos fruta y ave. Como
se puede ver en ambos listados, existen variaciones importantes en las puntuaciones de tipicidad
de los distintos ejemplares. Por ejemplo, los resultados mostraron que la manzana se considera la
fruta más típica, mientras que la calabaza es la menos típica. En la categoría de aves también
podemos observar variaciones similares y en las investigaciones sobre este tema son abundantes
los resultados semejantes a éstos.
Resultados de este tipo fueron los que cuestionaron la adecuación del enfoque clásico al poner de
manifiesto que no todos los ejemplares eran equivalentes en cuanto a su pertenencia categórica.
Los datos del estudio de Malt y Smith (1984) también ponen de manifiesto que los efectos de
tipicidad parecen deberse a las propiedades no necesarias, cuestionando también en este punto la
viabilidad del enfoque clásico de la categorización. En la Tabla 3.2. se presentan diez ejemplos en
orden decreciente de tipicidad con algunas de las propiedades que dieron los sujetos para los
ejemplares que se les presentaron. A cada propiedad se le asigna una puntuación que es igual al
número de ejemplares que presenta esa propiedad. Según Rosch y Mervis (1975), la suma de estas
puntuaciones constituye su puntuación de parecido familiar.
El parecido familiar es una medida directa de la frecuencia de las propiedades del concepto siendo
los ejemplares con las puntuaciones más altas en parecido familiar, los que comparten el mayor
número de propiedades con los de su categoría, y el menor con los miembros de otras. El parecido
familiar es una medida indirecta de la semejanza de un ejemplar con respecto a los otros miembros
de la categoría. El parecido familiar también se encuentra correlacionando con la tipicidad, los más
típicos presentan las puntuaciones más altas. El orden de los ejemplares parece deberse a las
propiedades no necesarias, pues la propiedad necesaria “tener plumas”, contribuye de la misma
forma en cada uno de los ejemplares.
La tipicidad de un ejemplar es una medida de la semejanza entre dicho ejemplar y su prototipo. Los
miembros se relacionan por su parecido familiar y no por un conjunto de propiedades definitorias.
Por parecido familiar se entiende la semejanza media de un ejemplar con respecto a otros miembros
de la categoría y la desemejanza media con respecto a los miembros de otras categorías de
contraste. Así, la estructura interna del concepto no es homogénea, ya que los miembros se ordenan
según la graduación de tipicidad. El parecido familiar es la base de la graduación de tipicidad y una
categoría se define por el parecido familiar entre sus miembros.
Sin embargo, también tiene este enfoque críticas. Los resultados sobre los efectos de tipicidad
dependen del criterio de semejanza, de las categorías particulares que se han elegido y de los
ejemplares que se han puesto a prueba. P. ej., dos ejemplares de dos categorías diferentes, tales
como una naranja y una pelota de tenis, son más semejantes entre sí con respecto a la forma que
dos ejemplares de una misma categoría, tales como una naranja y un plátano.
Roth y Shoben (1983), encontraron que el prototipo puede ser muy diferente en función del
contexto. El prototipo de aves varía en función de los siguientes contextos: “El pájaro voló sobre el
mar (Gaviota)” o “el cazador disparó a ese pájaro (una perdiz)”. Así, aunque la propuesta de unas
propiedades prototípicas es sumamente útil y descriptiva de la categorización humana, no es
suficientemente flexible como para explicar la sensibilidad que muestran los sujetos a la variabilidad
tanto de los ejemplares como de las propiedades constituyentes de la categoría.
Una postura conciliadora es la de los Modelos mixtos al proponer que los sujetos cuentan con
ambos tipos de propiedades, pues en determinados casos recurren a las propiedades definitorias o
diagnósticas (Smith y Medin, 1981). Teniendo en cuenta las prototípicas que son más accesibles,
éstas se utilizan para la categorización y se recurre a las diagnósticas sólo en casos especiales, como
cuando hay que arbitrar en categoriza dudosa. De este modo se entiende que el prototipo puede
considerarse como un heurístico por medio del cual se utilizan las propiedades no necesarias y se
recurre a las propiedades diagnósticas sólo en casos muy determinados, como p. ej., cuando se ha
de categorizar una ballena como un mamífero. Algunos autores como Armstrong, Gleitman y
Gleitman (1983), sostienen que las propiedades diagnósticas no tienen que ser necesariamente
definiciones, es decir, no tienen que ser fijas e inamovibles.
Este enfoque parece contradecir la idea de ahorro cognitivo. No obstante, se indica que aún en el
supuesto de que el sistema pudiera almacenar todos los ejemplares, en la categorización sólo se
seleccionan algunos, los más típicos. La idea central de este enfoque es que no es necesario asumir
un único prototipo con el que se comparen los ejemplares, sino que la categorización será en función
de la semejanza entre el ejemplar y todos los miembros de la categoría.
Una de las ventajas del enfoque de los ejemplares es que no asume una única representación del
concepto. Se pueden utilizar varias representaciones dependiendo del criterio de semejanza y de
los ejemplares representados. Esto permite, por una parte, explicar los resultados obtenidos con los
prototipos al considerar que esta representación mantiene el criterio de mayor semejanza dentro
de un conjunto de ejemplares, y, por otro lado, también puede dar cuenta de la sensibilidad que
muestran los sujetos ante otro tipo de información, como p. ej., las correlaciones entre propiedades,
el rango de la propiedad y el contexto. Al no asumir una representación abstracta del concepto, sino
unas representaciones concretas de los ejemplares, se dota a la categorización de una enorme
flexibilidad utilizando y relacionando toda la información representada según los objetivos
planteados en cada situación.
Barsalou (1983,1985) pone de manifiesto que la categorización también ha de ser flexible para
explicar la agrupación temporal de unas propiedades. Algunos conceptos se generan sólo en un
contexto muy determinado. P. ej., si se pide a un sujeto que enumere aquellos objetos de su casa
que salvaría de un incendio, seguramente salvaría las cosas más valiosas que pudiera transportar:
joyas, dinero, documentos, etc., que en este contexto formarían temporalmente una nueva
categoría. Estos conceptos, que Barsalou denomina “dirigidos por metas” también pueden
presentar efectos de tipicidad, aunque la base de estos efectos es cualitativamente distinta. En este
caso el parecido familiar no predice la tipicidad, sino que esta se encuentra determinada por el peso
de las propiedades en el contexto en el que ocurren.
Los resultados de estos estudios ponen de manifiesto que la inducción categórica es un proceso
muy flexible en el que es necesario explicar tanto la estabilidad como inestabilidad de las categorías.
Las críticas se centran en la necesidad de contemplar las generalizaciones que se producen durante
el aprendizaje y la necesidad de especificar el criterio de coherencia interna que limite el ámbito de
la categorización1. También se han propuesto modelos mixtos en los que el enfoque de los
ejemplares se complementa con algún nivel de abstracción que se corresponde con el prototipo
(Medin, Altom y Murphy, 1984; Smith y Minda, 2000) o modelos que dan cuenta de cómo puede
surgir la abstracción a partir de la representación de los ejemplares (Nosofsky, 1986; Kruschke,
1992). El problema que aquí se plantea es poder identificar cuáles son las restricciones que se
imponen sobre este proceso como para permitir que el sistema manifieste en todo momento un
comportamiento coherente a la hora de categorizar el mundo, en el sentido amplio del término
(físico, socioeconómico, cultural, histórico, etc.).
3. LA COMBINACIÓN DE CONCEPTOS
Hasta ahora hemos tratado el proceso de categorización como si sólo estuviera centrado en
conceptos individuales y, sin embargo, nuestra experiencia cotidiana pone de manifiesto que la
información conceptual también se combina para producir otros conceptos, como, por ejemplo,
sofá cama (dos sustantivos), sangre azul (sustantivo y adjetivo) y mujer muy alta (sustantivo,
adverbio y adjetivo). Esta capacidad para la formación, en principio infinita, de conceptos complejos
a partir de una base conceptual finita se conoce como la composicionalidad del pensamiento.
1 “Las críticas al enfoque de los ejemplares que vienen recogidas en esta página se refieren a la falta de estabilidad y límites de la categoría.
Recuerde que en este enfoque no hay una representación abstracta de la categoría, sino que la categoría se formará en el momento mismo de
la recuperación de la representación de los ejemplares particulares. Por eso se dice que este enfoque no explica las generalizaciones que, por
ejemplo, se producen en el aprendizaje. Además, como no hay límites establecidos cualquier categoría es posible en función de los objetivos que
tengamos y parece que no hay criterios para delimitar la pertenencia de los ejemplares a una categoría. Por eso se dice que este enfoque adolece
de unos límites o restricciones que puedan explicar un patrón de comportamiento estable y coherente en el proceso de categorización”. ED
2 “La idea central de este punto es que los conceptos compuestos puntúan más alto en tipicidad que los simples y esto se conoce como el efecto
de la conjunción. En el manual se comenta, en primer lugar, este resultado con el concepto compuesto compatible “sangre roja”. Cuando se pide
que se evalúe la tipicidad de un ejemplar de sangre roja en la categoría sangre se encuentra que el concepto compuesto compatible "sangre roja"
puntúa más que el concepto simple "sangre". En el texto y en el primer recuadro de la Figura 3.2 se ilustra este resultado como sangre roja >
sangre. A continuación, se explica que este efecto también ocurre con los conceptos compuestos incompatibles como sangre azul. En primer
lugar, se comenta el resultado de una tarea equiparable a la anterior: evaluar la tipicidad de un ejemplar, en este caso, de sangre azul en la
categoría sangre. En el texto y en el segundo recuadro de la Figura 3.2 se ilustra en primer lugar este resultado como sangre azul > sangre. En
segundo lugar, se vuelve a repetir el resultado ya comentado en el primer recuadro: evaluación de la tipicidad de un ejemplar de sangre roja en
la categoría sangre, sangre roja > sangre. En tercer lugar, se comparan ambas evaluaciones para indicar que la tipicidad de sangre azul es mayor
que la de sangre roja cuando ambas se evalúan en la categoría sangre: [sangre azul > sangre] > [sangre roja > sangre]. Finalmente, y en cuarto
lugar se comenta que en una tarea en la que se pide evaluar la tipicidad de un ejemplar de sangre roja (conjunción compatible) en la categoría
sangre azul (conjunción incompatible) se encuentra lo contrario: sangre azul < sangre. En este último caso se observa que cuando se evalúa la
tipicidad de un ejemplar compuesto que no pertenece a esa categoría (un ejemplar de "sangre roja" para el concepto "sangre azul") se encuentra
que puntúa más baja la conjunción incompatible que el concepto simple (sangre azul menor que sangre).” ED
prominencia en el concepto compuesto. El color cambia su ponderación en función del valor rojo o
azul, pues el compuesto compatible “sangre roja” es más semejante al concepto simple “sangre”
que comparte el valor rojo que al concepto incompatible “sangre azul”, pero las conjunciones
incompatibles como “sangre azul” parecen ser más típicas que las conjunciones “sangre roja”
porque en este caso se ha ponderado el valor azul y la diagnosticidad 3 del atributo color ha
aumentado.
Antes de iniciar el proceso de categorizar se tiene que consultar la base de conocimientos para
decidir cuál variable es la más apropiada y una vez hecha la especialización se debe ampliar y refinar
el nuevo concepto con el fin de que sea coherente y completo (Murphy, 1988). En el ejemplo de
“sangre azul”, podemos ver ahora cómo el valor “azul” para el atributo color se pondera en
prominencia y diagnósticidad y se tiene que poner en relación con el conocimiento que tenemos
3 “Los conceptos de diagnosticidad y prominencia explican por qué se dan estos resultados. El valor diagnóstico indica en qué medida esa
propiedad define al concepto y el valor de la prominencia indica en qué medida esta propiedad sobresale entre las demás. Los conceptos
compuestos “sangre roja” y sangre azul” se consideran más típicos que el concepto simple “sangre” porque el atributo color (rojo o azul)
incrementa su prominencia en el concepto compuesto. Además, la conjunción incompatible “sangre azul” se considera más típica que la
conjunción compatible “sangre roja” porque la diagnosticidad del color azul es más alta que la del color rojo. En el caso del concepto compuesto
"sangre azul", que es un concepto metafórico para hacer referencia al linaje, el color azul tiene mayor valor diagnóstico. El concepto de
"diagnosticidad" se refiere al peso que tienen algunos atributos (por ejemplo, color) en la conformación de un concepto prototípico”. ED
4 “El modelo de especialización conceptual intenta paliar algunas de las críticas que se habían hecho al modelo de modificación selectiva. Por
ejemplo, que el cambio en un atributo (el color) no modificaba al sustantivo solamente en relación a esa información. Como se ha visto, el cambio
en un atributo como color en ejemplos como sangre azul o manzana verde no solo pondera en prominencia y diagnosticidad, sino que además
evoca a otros conceptos o conocimientos del sujeto. En el caso de sangre azul se relaciona con el uso metafórico del término y en el caso de
manzana verde con el grado de acidez o el tipo de manzana. Por eso se dice que el modelo de especialización conceptual recurre al conocimiento
que tenemos almacenado y al encontrar el concepto metafórico “sangre azul”, entonces decide cuál variable es la más importante para hacer la
combinación conceptual. En este caso no se están combinando conceptos naturales como la sangre o la fruta, sino conceptos metafóricos que se
tienen que poner en coherencia con nuestro lenguaje figurativo. Ambos modelos son semejantes porque asumen una representación asimétrica:
uno de los conceptos es el principal y el otro lo modifica. La diferencia se encuentra en que el modelo de especialización conceptual establece que
antes de iniciar el proceso de la combinación conceptual se acude a nuestra base de conocimientos”. ED
sobre el lenguaje figurado (linaje noble). Se puede decir que el Modelo de modificación selectiva
forma parte del modelo de especialización conceptual pues comparten aspectos muy semejantes.
El primer modelo aporta un procedimiento detallado para el cómputo de los conceptos compuestos
y el segundo ofrece un marco teórico mucho más amplio en el que explicar la riqueza de la
representación conceptual. Sin embargo, los aspectos específicos del primero marcan sus propias
limitaciones y la riqueza conceptual contemplada por el segundo aún no se ha hecho explícita como
procedimiento computacional bien delimitado.
Según este enfoque, los conceptos tienen una estructuración interna rica en el número de relaciones
que se establecen entre sus propiedades y esto es una limitación para el modelo de modificación
selectiva (asume que las propiedades son independientes y que el cambio en una de ellas no afecta
al resto.
Los resultados experimentales de Medin y Shoben pusieron de manifiesto que el cambio en el valor
de una de las propiedades del concepto provocaba también el cambio en los valores de las
propiedades relacionadas. P. ej., en el caso de evaluar la tipicidad de una “cuchara de madera” y
una “cuchara de metal”, los sujetos consideraban que la “cuchara de metal” era más típica del
concepto simple “cuchara” que la “cuchara de madera”, pero la “cuchara de metal” era menos
típica del concepto “cuchara grande” que la “cuchara de madera”. De acuerdo con el modelo de
modificación selectiva, la diferencia entre “cuchara de metal” y “cuchara de madera” con respecto
al concepto simple “cuchara” está en los pesos de la dimensión tipo de material. Se encontró que
había una interacción entre las dimensiones tipo de material y tamaño y que ésta se reflejaba en los
juicios de tipicidad.
Con respecto al contexto, los autores encontraron que el patrón de semejanza variaba en función
del sustantivo sobre el que se aplicaban los adjetivos: Los mismos adjetivos, negro, gris y blanco,
aplicados a conceptos distintos, como “nube” y “pelo”, los sujetos consideraban blanco y gris más
semejantes para pelo, y negro y gris semejantes para nube. Igual que la propiedad de “ser curva”
era diferente si se trataba de un plátano que si era un boomerang. Un “plátano no curvo” era más
típico de “plátano” que un “boomerang no curvo” de “boomerang”. En general, estos resultados
5 “Eneste modelo lo que se pone en evidencia es que el patrón de semejanza cambia según se cambia el valor de una de las propiedades. Es decir,
aunque siempre se trate de la combinación sustantivo-adjetivo y la variación del adjetivo sea sobre un mismo atributo (tipo de metal), las
personas consideran más semejantes entre sí algunas combinaciones que otras. Así, si tenemos dos conceptos como “cuchara de metal “y cuchara
de madera”, los resultados mostraron que una "cuchara de metal" se consideraba más típica del concepto “cuchara” que una “cuchara de
madera”. De acuerdo con estas valoraciones, se esperaría que al introducir la dimensión tamaño no hubiera cambios porque el tamaño ya estaba
contemplado por defecto en dicha valoración. Sin embargo, las personas consideraban que “cuchara de metal” es menos típica del concepto
“cuchara grande” que una “cuchara de madera”. Lo que estos resultados muestran es que la modificación de una propiedad (en este caso, el
tamaño) afecta o reestructura todo el concepto y no solo a una dimensión del mismo”. ED
mostraban que en la estructuración conceptual había algo más que el cómputo de pesos en las
distintas propiedades y que posiblemente toda la información sobre las relaciones entre estas
propiedades no se encuentre directamente representada con el concepto, sino que puede ser
procesada según se necesite.
Las investigaciones se han centrado en las combinaciones que se generan por la relación entre el
concepto base y el concepto modificador. Se han llegado a identificar las relaciones básicas
mediante las que se pueden combinar los conceptos y se asume que la frecuencia con la que se ha
utilizado el concepto modificador y las relaciones básicas influyen sobre la interpretación de los
nuevos conceptos combinados. Otra perspectiva asume una representación por esquemas en la que
el concepto principal adopta la relación del concepto modificador, por ejemplo “pez martillo”,
adopta la variable “forma” de martillo.
4. EL PROCESO DE CATEGORIZACIÓN
Una buena parte de las investigaciones se apoyan directa o indirectamente en la noción de
semejanza. En las propiedades prototípicas habíamos comentado que determinados ejemplares se
consideraban más típicos o más representativos que otros, y cómo la tipicidad de un ejemplar era
una medida de la semejanza del ejemplar con su prototipo. En el enfoque de los ejemplares se
rechaza la idea de un prototipo y se defiende la categorización como cómputo de la semejanza entre
los ejemplares, en lugar de una descripción unitaria de la clase como un todo. Este presenta la
ventaja de no restringir mediante una descripción abstracta los ejemplares que se agrupan en una
categoría. La semejanza parece ser aquello que hace que una categoría pueda aglutinar un conjunto
de ejemplares. Sin embargo, la semejanza es un término escurridizo porque, aunque es cierto que
los miembros de una categoría parecen semejantes, esta explicación es en sí misma recursiva, ya
que sortea la explicación de por qué las cosas parecen semejantes.
Según Tversky (1977), la semejanza se define en función de las propiedades que son comunes y
distintivas en un conjunto de ejemplares, pero que se encuentran ponderadas en términos de su
saliencia. Depende de las ponderaciones de las propiedades, lo que nos permite explicar por qué la
ballena se agrupa a mamífero, a pesar del número de propiedades en común que posee con los
peces. El conocimiento teórico ha permitido ponderar diferencialmente unas propiedades frente a
otras, o como señalaban Armstrong y cols. (1983), se recurre a las propiedades diagnósticas para
arbitrar esta categorización.
Tversky demuestra cómo las ponderaciones varían en función del contexto y de la tarea
experimental, dando lugar a que no existe una respuesta unívoca a la pregunta de cuán semejante
es un objeto con respecto a otro. Una propiedad es aquello que por consenso se ha validado en una
muestra de sujetos. Sin embargo, la consideración del conjunto implícito de contraste y el nivel de
especificidad elegido determinan las propiedades que se incluyan en las listas de los sujetos. En otras
palabras, los sujetos enumeran no todo lo que conocen, sino las propiedades que en esa situación
parecen más relevantes. Estos cambios en las ponderaciones se podrían reflejar mediante los ajustes
que se van realizando sobre las propiedades, pero entonces la categorización se explicaría por estos
ajustes. Frente a este principio general, otros enfoques proponen que es el propio conocimiento
que tienen los sujetos y sus teorías ingenuas sobre el mundo lo que restringe la construcción y
organización categórica (Murphy y Medin, 1985; Keil, 1987). De esta forma se entiende que la
categorización no se da aisladamente sino que los conceptos se organizan circunscritos al
conocimiento estructurado o teorías ingenuas que tienen los sujetos y que les permite actuar
coherentemente. La categorización basada en el conocimiento organizado permite articular las
relaciones inter e intracategorías de modo que la estructuración conceptual no se reduzca a listas
de propiedades sino que se encuentre inmersa en un cuerpo de conocimientos con estructura y
coherencia.
Bajo este enfoque de una categorización guiada por el conocimiento podemos incluir aquellas
teorías que asumen una representación de la información en estructuras de conocimiento, tales
como los esquemas, los guiones, los marcos o los modelos mentales. Abelson (1981), consideraba
que los esquemas o guiones pueden equipararse a una categoría en la que también cabe el parecido
familiar entre diversos ejemplares. En contraposición al prototipo, un esquema no especifica los
valores de sus propiedades, sino que estas propiedades (variables) son genéricas y adoptan valores
en función del contexto. La idea del proceso de inducción categórica será distinta dependiendo del
tipo de estructura que se propaga para representar el conocimiento, por ejemplo, la aplicación de
reglas, la generación de modelos mentales, el emparejamiento de patrones, ...
Seguimos con el detalle de dos teorías sobre la inducción categórica que explican la flexibilidad de
este proceso:
• La inducción categórica como sistema de reglas distribuidas.
Estos aspectos procedimentales son comunes a los de los sistemas de producción de Newell y Simon
(1972) que se basan en el emparejamiento cíclico y la ejecución de reglas de condición-acción. La
actividad se puede describir en términos de un ciclo de tres pasos:
• El emparejamiento de los hechos y reglas para determinar cuáles satisfacen las condiciones.
• La selección de un subconjunto de las reglas emparejadas para que sean ejecutadas.
• La ejecución de las reglas seleccionadas para que lleven a cabo las acciones específicas.
6 “En esta oración se quiere poner de relieve la importancia de la interacción con las relaciones causales del contexto. Decir
las relaciones causales
del proceso es demasiado general y no subraya que son las relaciones causales de la situación o contexto. Por eso más adelante se dice que "la
ponderación de las propiedades no es una cuestión estática, sino que depende de contexto y de las metas del sistema". ED
7 “Según los esquemas de razonamiento pragmático, las categorías se van formando por la aplicación de unas reglas de condición-acción. Estas
reglas no son una definición de la categoría, ni tampoco son una descripción monolítica, es decir, una representación compacta y estática del
concepto. Estas reglas van creando una serie de expectativas en el sistema cognitivo que va categorizando un determinado evento como "perro",
"gato", "ardilla", etc. A su vez, esta categoría se incluye en lo que se llaman "jerarquías por defecto" que integran el concepto dentro de una red
de categorías relacionadas de modo subordinado o supraordenado. En otras palabras, el concepto se ubica en un entramado mucho más rico de
relaciones conceptuales”. ED
A través de estas jerarquías por defecto 8 se pretende representar la incertidumbre sobre la que
tiene que operar el sistema: en un nivel las generalizaciones que son útiles y en otro nivel, la
información más específica de las excepciones representándose la uniformidad y la variabilidad que
existe en el ambiente. El número de ejemplares necesarios para alcanzar una generalización será
función de esta variabilidad.
8“El concepto "jerarquías por defecto" se refiere a las diferentes relaciones (supraordenadas o subordinadas) que pueden tener los conceptos
entre sí. El nivel supraordenado es el de máxima generalización (por ejemplo, las propiedades generales de la fruta) y el supraordenado, es el de
mayor especificación (por ejemplo, las propiedades específicas de la manzana golden). Los ejemplares típicos se situarían en el nivel
supraordenado porque en este nivel es el que se comparten el mayor número de propiedades”. ED
El modelo mental de un objeto particular sería un conjunto de reglas derivadas de una variedad de
conceptos supraordenados más cualquier información particular disponible. Los ejemplares típicos
serán aquellos a los que se adhieren las reglas por defecto de las categorías supraordenadas,
mientras que los ejemplares atípicos se emparejarían con reglas excepcionales. Lo que se propone
desde el modelo es una abstracción y representación del conocimiento general de las distribuciones
de las propiedades por medio de las agrupaciones de reglas. Los resultados ponen de manifiesto
que los sujetos saben mucho más de la estructura categórica que la simple formación sobre las
tendencias centrales o prototipos.
Para resumir, podemos decir que en este modelo se intenta explicar la compleja red de relaciones
en función del conocimiento que el sujeto construye en términos causales y que algunos como
Murphy y Medin (1985) denominan conocimiento teórico. Así, se concibe que la categorización no
ocurre de forma aislada, sino inmersa en las teorías que tienen los sujetos sobre aquello que les
rodea. Las teorías que se construyen explican el mundo y en función de ellas, éste se divide en clases.
Con el fin de caracterizar el conocimiento sobre la utilización de un concepto se han de incluir las
relaciones asociadas con ese concepto y otros conceptos que dependan del mismo. Podríamos decir
que el paradigma simbólico explica la categorización fundamentándose en el conocimiento que
se construye sobre el mundo que nos rodea y que constituye una teoría sobre el mismo.
Los modelos conexionistas (Feldman, 1981) describen los procesos mentales en términos de los
patrones de activación en un conjunto de unidades y no por unidades particulares. Estas unidades
son entidades de procesamiento que asumen unos valores de activación basados en la suma
ponderada de lo que entra en el sistema y de las otras unidades que están dentro del sistema. El
papel que desempaña una unidad se define por la fuerza de sus conexiones, tanto excitatorias como
inhibitorias. Las conexiones son el medio por el cual interactúan las unidades. Se les conoce como
modelos PDP o de procesamiento distribuido y paralelo, queriendo destacar que el procesamiento
es resultado de las interacciones que ocurren entre un número importante de unidades. Aunque se
podría pensar que las jerarquías por defecto son análogas a las unidades, dado que ambas guían la
entrada de información en la búsqueda de buen ajuste, no hay en estos modelos conexionistas
ningún análogo de las variables o de los valores por defecto. No existe ninguna noción sobre una
estructura interna constituida y la aparente aplicación de reglas emerge de las interacciones entre
unidades de activación.
En este tipo de modelo el conocimiento adopta la forma de una red que satisface restricciones, y
éstas vienen impuestas por el contexto. Aunque en el modelo anterior también las restricciones9
contextuales desempeñaban un papel fundamental, en estos modelos no existen entidades
representacionales que se correspondan con conceptos, jerarquías por defecto o esquemas. Estas
entidades se encuentran implícitas y emergen de las interacciones de un amplio conjunto de
restricciones.
Estas redes de activación son sistemas de procesamiento que pueden computar estadísticos sobre
sí mismas de forma que reflejen las fluctuaciones de ambiente del que se derivan sus datos. El
procesamiento ocurre por medio de la evolución de estos patrones de activación, que van
actualizando los pesos entre conexiones. Cualquier configuración inicial con elementos activos e
inactivos puede evolucionar hacia una configuración estable partiendo de unos pesos iniciales. Se
9
“Las restricciones en los modelos conexionistas hacen referencia a las condiciones impuestas sobre la fuerza de la conexión entre las unidades
de procesamiento y los pesos de las conexiones. En el proceso de categorización este sistema de procesamiento busca el mejor ajuste (satisfacer
el mayor número de restricciones) entre el patrón de activación almacenado y el nuevo patrón provocado por la entrada del concepto”. ED
asume que cada vez que entra una estimulación en el sistema, éste se mueve hacia un estado estable
en el que se alcanza una bondad10 de ajuste máxima (es un sistema reactivo guiado por los datos).
En la Figura 3.6. se ilustra cómo se encuentra la red de activación en este conjunto de propiedades.
Debido a la gran cantidad de datos que hay que manejar, sólo hemos elegido aquellos que se
encuentran activados en el prototipo de oficina. A través de esta representación se puede apreciar
la idea esencial del estado de activación de una red determinada. Como podemos ver, este plano
pretende representar un conjunto de unidades, cuyas ponderaciones hacen que emerja una
configuración que se identifica con el prototipo.
10 “Las restricciones en los modelos conexionistas hacen referencia a las condiciones impuestas sobre la fuerza de la conexión entre las unidades
de procesamiento y los pesos de las conexiones. En el proceso de categorización este sistema de procesamiento busca el mejor ajuste (satisfacer
el mayor número de restricciones) entre el patrón de activación almacenado y el nuevo patrón provocado por la entrada del concepto. La bondad
de ajuste está haciendo referencia a este ajuste entre los dos patrones de activación (el almacenado y el nuevo patrón)”. ED
Las propiedades se encuentran distribuidas por toda la red y la fuerza de sus conexiones hace que
el patrón adquiera una configuración determinada. En esta Figura también hemos representado el
estado de la red desde otra perspectiva con el fin de que pueda apreciarse cómo se encuentra la
configuración con respecto a las unidades que también están activadas, pero cuyos pesos no son
tan altos, es decir, las restricciones son menores. Cuando entra información en el sistema, todas las
unidades ajustan su activación con el fin de satisfacer el mayor número posible de restricciones. Se
podría pensar que el sistema se encuentra continuamente esculpiendo una superficie en función de
aquello que va recibiendo y de las interacciones con el resto de unidades.
En el enfoque conexionista, y más concretamente en los modelos que se conocen como modelos de
satisfacción de restricciones, se reemplaza el marco simbólico por un nivel subsimbólico,
denominado así por encontrarse entre las conexiones neuronales y los cómputos mentales.
Conviene recordar que los constructos del cómputo mental son datos cognitivos que se explican por
un sistema próximo en su funcionamiento al nivel neuronal.
REFERENCIAS:
• RESUMEN M. GORETTI GONZÁLEZ
• GONZÁLEZ LABRA, M., SÁNCHEZ BALMASEDA, P., & ORENES CASANOVA,
I. (2019). PSICOLOGÍA DEL PENSAMIENTO. MADRID: SANZ Y TORRES.
• Aclaraciones ED (Alf)
CAPÍTULO 4. EL RAZONAMIENTO SILOGÍSTICO: CATEGÓRICO Y TRANSITIVO
1. INTRODUCCIÓN
La psicología del razonamiento ha planteado sus investigaciones de acuerdo con las dos
modalidades generales de inferencia: inferencias deductivas e inductivas. Las inferencias deductivas
se siguen necesariamente de una información a otra. Esta permite alcanzar una conclusión que se
siga necesariamente de las premisas del argumento. Cuando la psicología se planteó el estudiar el
razonamiento humano importó el modelo lógico y las investigaciones se centraron en el análisis del
rendimiento en función del criterio de validez lógica. Las tareas que se presentan a los sujetos
comprenden argumentos deductivos en los que ya pueden venir enunciadas las consecuencias
necesarias de lo que se asume y se pide a los sujetos que evalúen si el argumento es válido o inválido,
también se puede pedir que elijan entre un conjunto de conclusiones, cuál es la que se sigue
necesariamente de las premisas o que generen su propia conclusión en función de las premisas
presentadas. El interés y reto de la psicología del razonamiento es explicar cómo razonan los sujetos
y por qué se equivocan.
Una parte importante de los trabajos empíricos ha desafiado la idea de que los seres humanos
procedan de acuerdo con el cálculo lógico. Los errores encontrados en la realización de tareas de
razonamiento deductivo ha dado lugar a distintos enfoques teóricos que van desde aquellos que
consideran irrelevantes los principios lógicos en la explicación del razonar hasta los que defienden
una lógica mental, que puede estar más o menos suavizada por el concepto de “lógica natural”, pero
en la que hay un conjunto de reglas abstractas y en la que los errores no demuestran el fracaso de
razonar lógicamente, sino la existencia de determinadas condiciones que conducen al error.
Estos estudios sobre razonamiento deductivo han seguido los pasos marcados por la lógica al
estudiar las inferencias que dependen de los operadores formales, tales como la negación, la
disyunción, el condicional, y el bicondicional. Según el tipo de argumento deductivo, las
investigaciones se pueden agrupar en tres tipos:
REPRESENTACIÓN ABSTRACTA:
Todas las B son A. (Predicado en la premisa MAYOR).
Todas las C son B. (Sujeto en la premisa MENOR).
En consecuencia. Todas los C son A. (Conclusión)
En este ejemplo vemos que la primera premisa del silogismo es la premisa mayor al constituirse en
predicado de la conclusión y que la segunda premisa es la premisa menor al ser sujeto de la
conclusión. El sujeto de la conclusión lo hemos designado con la letra C, el predicado con la letra A
y el término medio con la letra B, aunque conviene señalar que existen distintas convenciones para
dicha representación.
Además de esta estructuración del argumento, los silogismos categóricos contienen enunciados de
cantidad (universal, particular) y polaridad (afirmativa, negativa), dando lugar a cuatro tipos de
proposiciones: universal afirmativa, universal negativa, particular afirmativo y particular negativo.
Estas cuatro proposiciones se designan con las letras A
para una proposición universal afirmativa, E para una
universal negativa, I para una particular afirmativa y O
para una particular negativa. En los silogismos
categóricos también se tiene en cuenta la posición del
término medio en cada una de las premisas. Existen
cuatro posiciones que dan lugar a las cuatro figuras del
silogismo categórico.
Existen 256 silogismos categóricos producto de la
combinación de los cuatro tipos de enunciados en las dos premisas y la conclusión y en las cuatro
figuras (4 x 4 x 4 x 4= 256). Si calculamos sólo el modo, obtenemos un total de 64 silogismos
categóricos resultado de la combinación de sus tres enunciados (dos premisas y una conclusión) y
de los cuatro modos posibles de las premisas (A, E, I, 0): 4 x 4 x 4 = 64. Como además hay 4 Figuras
posibles, entonces volvemos a multiplicar por 4 y obtenemos un total de 256 (64 x 4 = 4 x 4 x 4 x 4).
De este total de 256, solamente los siguientes 24 silogismos categóricos son válidos.
Hay que señalar que el número total de silogismos válidos incluye todas las conclusiones válidas,
sean fuertes o débiles. Una débil será aquella que se obtenga como conclusión particular, cuando
se permite una conclusión universal. P. ej., Consideremos el siguiente silogismo:
Este efecto recibió el nombre de «efecto atmósfera» y fue objeto de estudio de varias
investigaciones centradas en la identificación y análisis de los errores. Los principios de este efecto
fueron formulados más explícitamente por Begg y Denny (1969) teniendo en cuenta la cantidad
(universal, particular) y la cualidad (afirmativa, negativa) de las premisas. Los autores ampliaron el
efecto para las premisas heterogéneas de la siguiente forma: cuando las premisas contienen al
menos una premisa particular, entonces la conclusión es particular y en el caso contrario es universal
y cuando las premisas contienen al menos una premisa negativa, entonces la conclusión es negativa
y en el caso contrario es afirmativa. Este efecto recibió el nombre de «efecto atmósfera» y fue
objeto de estudio de varias investigaciones centradas en la identificación y análisis de los errores.
Sells (1936), sugiere que puede existir un principio general de prudencia por el que se supone que
las conclusiones son menos prudentes que las particulares y este principio explicaría la preferencia
de los sujetos por las conclusiones particulares. Este principio no ha tenido demasiada aceptación,
sobre todo porque los sujetos producen pocas conclusiones particulares negativas (O), siendo
contrario a la cabría esperar de acuerdo con el principio de prudencia (Evans, Newstead y Byrne,
1993).
La tendencia no lógica del efecto atmósfera en los resultados puede predecir un porcentaje
aceptable de respuestas. P. ej., la hipótesis de la atmósfera llegó a predecir el 49% de las respuestas
en el estudio de Dickstein (1978) y el 43% en el estudio de Johnson-Laird y Bara (1984). Sin embargo,
los propios autores, Woodworth y SelIs, reconocieron que este efecto tan sólo explicaba la
tendencia al error, pero que no era propiamente una teoría del razonamiento silogístico. Sin
embargo, los propios autores, reconocieron luego que el efecto solo explicaba la tendencia al error,
pero que no era una verdadera teoría del razonamiento. También se encontraban diferentes
respuestas ante silogismos válidos y no válidos, dándose el sesgo en la respuesta. Tampoco predice
los distintos niveles de dificultad de los silogismos categóricos, además de indicar que siempre se
dará una conclusión, cuando los resultados indican que no siempre se da conclusión válida cuando
la tarea es de producción1.
1 “Una tarea de producción es por ejemplo cuando te piden dar una conclusión. Por ejemplo, te presentan: Todos los españoles son europeos;
Algunos europeos no son ecologistas; Conclusión: La tarea de los participantes consiste en escribir la conclusión. Según la hipótesis de la
atmósfera, si hay una premisa particular o negativa, la conclusión será particular o negativa. Es decir, la hipótesis predice que las personas tienen
que dar una conclusión necesariamente, en este caso: "Algunos españoles no son ecologistas", pero los resultados han mostrado que los
participantes también responden de forma correcta que no hay una conclusión válida, como es este el caso que la conclusión correcta sería "No
hay conclusión". ED
Algunos A son B
Algunos C son B
________________
En consecuencia, Algunos C son A
Si dotamos de contenido a este argumento, vemos que esta conclusión no se sigue necesariamente
de las premisas:
La hipótesis sobre la conversión ilícita es, sin embargo, un error en la interpretación de la universal
afirmativa y de la particular negativa, sin aludir al efecto atmósfera y sin hacer referencia a una regla
de inferencia falaz. El error por la conversión ilícita de las premisas ocurre cuando se interpreta que
la premisa universal afirmativa (A) «Todos los A son B» es equivalente a «Todos los B son A» y que
la premisa particular negativa (0) «Algunos A no son B» es equivalente a «Algunos B no son A».
Conviene señalar que esta conversión es lícita para las premisas en el modo universal negativa (E)
«Ningún A es B» y particular afirmativa (I) «Algunos A son B». Veamos algunos ejemplos con
contenido:
• Universal afirmativa (A) “Todas las votantes del Partido Popular son unas delincuentes” no
es equivalente a “Todas las delincuentes son votantes del Partido Popular”.
• Particular negativa (O) “Algunas personas no están inscritos en PODEMOS” no es
equivalente a “Algunos inscritos en PODEMOS no son personas”
• Universal negativa (E) “Ninguna mujer es madre de DIOS” es equivalente a “Ninguna madre
de Dios es mujer”
• Particular positiva (I) “Algunos miembros del ED son unos excelentes profesionales” es
equivalente a “Algunos excelentes profesionales son miembros del ED”
votantes del Partido Popular) se encuentra distribuido porque se refiere a todos y cada uno de los
miembros de la clase “las votantes del Partido Popular”. De esta forma, la cantidad (universal,
particular) del enunciado determina que el sujeto se encuentre distribuido en los enunciados
universales y que no esté distribuido en los enunciados particulares.
Revlis (1975a;b; Revlin y Leirer, 1978) formula una propuesta más concreta basada en la conversión
de todas las premisas y en el supuesto de que se prefiere razonar con estas versiones convertidas
de las premisas. Hay una primera etapa de procesamiento en la que se codifican las premisas y se
convierten quedando representadas ambas versiones. Y luego, se elabora una representación
compuesta de las dos premisas y se pasa a la codificación de la conclusión de modo semejante a la
primera etapa. Por último, hay un proceso de comparación entre la representación conjunta de las
premisas y la representación de la conclusión. Si ambas con congruentes entonces se acepta el
silogismo como válido. Si son incongruentes se procedería con la comparación de las
representaciones en sus versiones originales sin conversión, hasta encontrar un argumento válido.
Si no se obtiene éste, o se supera el límite de tiempo, se procede o con modelo para la selección
aleatoria de una de las alternativas o bien con un modelo de selección de rasgos (cantidad y calidad).
El contenido temático del silogismo puede facilitar el
razonamiento. P. ej., la conversión de “Todos los gatos
son felinos” en “Todos los felinos son gatos”, daría lugar
a una premisa contraria al conocimiento del sujeto.
Según Revlin y Leirer, el razonamiento silogístico con
contenido es mejor que el abstracto porque el
contenido bloquea la conversión de las premisas en el
proceso de codificación. Sin embargo, los resultados
experimentales son contrarios porque el efecto del
contenido o de las creencias se sigue manifestando
incluso en aquellos silogismos en los que la conversión
no altera la validez del argumento.
contenido familiar facilitaba el rendimiento, pero que disminuía si el contenido entraba en conflicto
con la estructura lógica. En líneas generales los sujetos tienden a considerar que un argumento es
válido si están de acuerdo con su conclusión y que es falso si no lo están. Además, Evans, Barston y
Pollard (1983) encontraron una interacción entre validez lógica y credibilidad de las conclusiones,
siendo el efecto mayor para los silogismos inválidos que para los válidos. Se obtuvo que los sujetos
aceptaban más conclusiones creíbles (80%) que increíbles (33%) independientemente de su validez
lógica. Sin embargo, la diferencia (61%) entre la aceptación de conclusiones inválidas creíbles (71%)
y conclusiones inválidas increíbles (10%) fue mayor que la diferencia (33%) entre conclusiones
válidas creíbles (89%) y conclusiones válidas increíbles (56%).
Evans y cols. propusieron dos modelos para explicar cómo se realiza el proceso de evaluación de las
conclusiones: (1) el modelo de escrutinio selectivo y (2) el modelo basado en una mala
interpretación de la “necesidad lógica”.
El modelo de escrutinio selectivo sostiene que los sujetos se centran primero en la conclusión del
argumento y si ésta es coherente con su sistema de creencias, la aceptan sin más. Está basada en
los análisis de los protocolos verbales en los que se identificaban tres tipos de estrategias para la
solución de los silogismos:
• “Estrategia solo la conclusión”: solo mencionan la conclusión.
• “Estrategia de la conclusión a las premisas”: mencionan primero la conclusión y luego las
premisas.
• “Estrategia de las premisas a la conclusión”: mencionan antes las premisas.
Los sujetos que consideraban sólo la conclusión o primero la conclusión y luego las premisas fueron
los que presentaron una mayor tendencia a responder de acuerdo con la credibilidad de la
conclusión. Aunque este modelo explica la interacción entre validez lógica y credibilidad de las
conclusiones, no explica, sin embargo, el efecto de la lógica sobre las propias conclusiones creíbles.
Algunos autores ponen de manifiesto que los sesgos de creencias se siguen dando, en las tareas en
las que los sujetos deben generar sus propias conclusiones y en las que, no hace falta un proceso de
escrutinio de la conclusión.
El modelo basado en una mala interpretación del concepto de necesidad dice que los sujetos en
realidad no entienden la necesidad lógica. Un argumento deductivo es válido sólo si es imposible
que su conclusión sea falsa mientras que sus premisas son verdaderas. Un silogismo con
conclusiones posibles, pero no necesarias, se denomina un silogismo inválido indeterminado2 y
cuando no se sigue ninguna conclusión se denomina silogismo inválido determinado3.
También Begg y Harris (1982) sostienen que los errores de razonamiento silogísticos se encuentran
en la interpretación de las premisas, pero no por un proceso de conversión sino por la interpretación
de los cuantificadores según las convenciones lingüísticas. Según las convenciones lingüísticas, los
sujetos los interpretan de tres formas: Ninguno como exclusión, algunos como intersección y todos
como identidad. La interpretación de “alguno” como “todos” y de “algunos no” como “ninguno”
son propias del significado lógico, pero son inútiles psicológicamente.
Esta explicación de los errores se centra en la interpretación de las premisas según las implicaturas
conversacionales propuestas por Grice (1975). Implicatura designa el contenido implícito de lo que
decimos y la máxima conversacional de cantidad explicaría los errores en la interpretación de los
cuantificadores particulares. Esta máxima de cantidad se relaciona con la cantidad de información
que debe darse en una conversación. La conversación debe ser todo lo informativa que requiera el
diálogo, aunque nunca más de lo necesario. Esta explicaría que los sujetos no acepten la relación de
subalternancia entre un enunciado universal y uno particular: uno universal implica su enunciado
subalterno correspondiente como Todos los hombres son mortales implica que algunos hombres
son mortales. Para las personas sería poco informativo decir “algunos” cuando se sabe que son
“todos”.
Como se puede apreciar, los enunciados universales (A, E) implican sus correspondientes
enunciados subalternos particulares (I, O). Ambos enunciados comparten el sujeto, el predicado y
la calidad, pero difieren en la cantidad. Por ejemplo, la verdad de “Todos los perros son peligrosos”
implica la verdad de “Algunos perros son peligrosos”. También se puede ver que los enunciados
Universal Afirmativo (A) y Universal Negativo (E) son contrarios. Se dice que dos enunciados con el
2 “Un argumento es inválido cuando la conclusión no es necesariamente verdadera. Es Inválido indeterminado cuando la conclusión es posible,
es decir, varias conclusiones son posibles, por tanto, no estamos ante una conclusión necesariamente verdadera”. ED
3 Un argumento es inválido cuando la conclusión no es necesariamente verdadera. Es Inválido determinado cuando la conclusión es falsa y no
mismo sujeto y predicado son contrarios si no pueden ser ambos verdaderos, aunque ambos puedan
ser falsos. Por ejemplo, “Todos los perros son
peligrosos” y “Ningún perro es peligroso” son
enunciados contrarios. Por último, también se
aprecia que el par de enunciados Universal
Afirmativo (A) y Particular Negativo (O) y el par
Universal Negativo (E) y Particular Afirmativo (I) son
contradictorios. Estos pares de enunciados (A-O y E-
I) tienen el mismo sujeto y predicado, aunque
difieren en calidad y cantidad. Por tanto, dos
enunciados son contradictorios si uno de ellos es la
negación del otro y ambos no pueden ser verdaderos
o falsos a la vez. Por ejemplo, los enunciados “Todos
los perros son peligrosos” y “Algunos perros no son
peligrosos” son enunciados contradictorios.
La máxima conversacional de cantidad dice que debe transmitir la mayor cantidad de información
posible y no ocultar deliberadamente parte de la información. El significado lógico de “algunos” sería
una transgresión de las máximas conversacionales cuando se sabe que “todo” también es verdadero
y este último cuantificador es que transmite más información. Las investigaciones de Begg (1987),
Newstead (1989) y Politzer (1986,1990) ponen de manifiesto que la interpretación de algunos
cuantificadores se rige por las implicaturas conversacionales y no por la lógica. Defienden la
racionalidad desde un modelo de convenciones lingüísticas en el que las reglas otorgan una lógica
intuitiva o natural. Sin embargo, no hay datos experimentales suficientes para poder decir que las
interpretaciones “Griceanas”4 constituyan la principal fuente de errores del razonamiento silogístico
(Evans, Newstead y Byrne, 1993; Manktelow, 2012).
Los modelos de conversión también han sido criticados. Estos modelos explican el efecto atmósfera
bajo el supuesto racionalista de que el razonamiento es lógicamente correcto, pero con unas
representaciones invertidas de las premisas y no consideran la figura. Sin embargo, Frase y Pezzoli
y Frase (1968), encontraron un efecto análogo al efecto atmósfera con la figura del silogismo. El tipo
de figura también presentaba diferentes grados de dificultad, siendo la cuarta más fácil que la
primera. Johnson- Laird y Steedman (1978), decían que cuando los sujetos tenían que producir la
conclusión del argumento, éstos generaban conclusiones A-C (donde la premisa mayor se
correspondía con el sujeto y predicado en la menor) con la figura 4, y C-A con la figura 1.
4 “Grice (1975) propone que uno de los errores se debe a la interpretación de las premisas. Por ejemplo, lógicamente la universal afirmativa
"todos los hombres son mortales" implica la particular afirmativa "algunos hombres son mortales" pero las personas no hacen estas
interpretaciones porque no sería informativo usar una particular cuando quieres decir una universal. Precisamente la máxima de cantidad que
propone Grice se refiere a esto, la información debe de ser informativa. El cuadro de oposición de la página 90 ilustra que los enunciados
universales (A, E) implican sus correspondientes enunciados subalternos particulares (I,O). Ejemplo de arriba. Los enunciados Universal afirmativa
"Todos los hombres son mortales" y la Universal negativa "Ningún hombre es mortal" son contrarios, es decir, no pueden ser ambos verdaderos
a la vez, pero pueden ambos ser falsos. El Universal afirmativo "Todos los hombres son mortales" y el particular negativo "Algunos hombres no
son mortales" son contradictorios, es decir, no pueden ser verdaderos o falsos. En resumen, lo que propone Grice es la máxima conversacional
de cantidad que indica que se debe de transmitir la mayor cantidad de información posible y no ocultar deliberadamente parte de la información.
Desde esta perspectiva, aunque el significado lógico "algunos" pueda usarse con el mismo significado que "todos" sería una trasgresión de las
máximas conversacionales cuando se sabe que "todo" es verdadero y este último cuantificador es el que transmite más información”. ED
Un argumento es válido cuando la conclusión es verdadera en todos los diagramas que representan
todas las posibles combinaciones de las dos premisas. Es un proceso bastante costoso, sobre todo
porque el número de combinaciones posibles es generalmente mayor que el producto de los
diagramas de las dos premisas al existir más de una forma de combinarlos.
Erickson (1974, 1978) propuso una teoría del razonamiento silogístico basada en los círculos de
Euler. Los sujetos representaban cada premisa de forma análoga a la representación espacial de los
círculos. Las distintas interpretaciones posibles de las premisas llevan asociados unos parámetros
probabilísticos que determinan su selección.
• Primera etapa de interpretación de las premisas también influirá el contenido del argumento.
Para evaluar o producir una conclusión se combinan las representaciones de las premisas en
una sola representación del silogismo.
• Segunda etapa de combinación se asume que el sujeto no hace un análisis exhaustivo de
todas las combinaciones posibles de las interpretaciones de las premisas, sino que selecciona
una combinación de acuerdo con los parámetros probabilísticos 5.
5 “Una universal afirmativa tiene dos representaciones: la identidad y el subconjunto. Imagina que dicen "Todos los murciélagos son mamíferos",
es cierto que hay dos representaciones, pero es altamente posible que basándonos en el contenido del enunciado representemos el subconjunto.
Digamos que cada representación se asocia a una probabilidad”. ED
• Tercera etapa, en esta etapa se selecciona una etiqueta verbal que se corresponda con la
descripción de la combinación obtenida para dar la respuesta.
Los errores en el proceso pueden ocurrir en cualquiera de las etapas y se asume que los sujetos son
proclives al efecto atmósfera. El problema principal es el número tan grande de formas distintas en
las que se pueden combinar los diagramas. Para resolver este problema, Erickson utiliza los
parámetros probabilísticos, pero estos parámetros han sido determinados a posteriori en función
de los datos empíricos de investigaciones anteriores sin ningún tipo de explicación psicológica que
los justifique (Johnson-Laird y Bara, 1984).
Una de las críticas más importantes al modelo es que asume que no hay errores en la primera etapa
de la representación de las premisas cuando hay datos experimentales que lo cuestionan. Y como
en el modelo de Erickson, tampoco contemplan los efectos de la figura y se recurre al efecto
atmósfera como un sesgo de respuesta sin explicación psicológica.
Los modelos basados en los círculos de Euler predicen que la dificultad dependerá del número de
diagramas necesarios para la interpretación y combinación de las premisas, pero los datos ponen
de manifiesto que algunos de los silogismos fáciles precisan un número mayor de diagramas que
otros silogismos que son más difíciles a pesar de que requieran un número menor de diagramas.
Newell (1981), propone otra aproximación para explicar el razonamiento silogístico por medio de la
representación espacial de los diagramas de Venn. En este método se representa el silogismo en un
solo diagrama. Estos utilizan círculos que se encuentran sobrepuestos de forma que representen las
relaciones entre los conjuntos del silogismo. Se sombrea aquella zona en la que no hay miembros y
se representa con una X las áreas en las que existe al menos un elemento cuando el enunciado
categórico es particular (afirmativo o negativo).
El modelo de Newell pretende acomodar los silogismos categóricos al marco general que diseñaron
Newell y Simon (1972) para la solución de problemas. Se entiende que el razonamiento silogístico es
un proceso de búsqueda a través del espacio del problema y que este espacio se representa de forma
En la segunda etapa del modelo se deben combinar los modelos mentales de las premisas en una
sola descripción. Se añade el modelo mental de la segunda premisa al modelo de la primera
mediante el término medio. P. ej., si la segunda premisa es también una universal afirmativa “Todos
los B son C”, sería:
[b] c
[b] c
...
[ [a] b] c
[ [a] b] c
...
De esta forma se obtiene un modelo mental de ambas premisas donde los miembros “a” se
representan exhaustivamente con respecto a “b” y los miembros “b” se representan
exhaustivamente con respecto a “c”. La conclusión entre “a” y “c” es “Todos los A son C” y ”Algunos
C son A”. En este silogismo no se puede generar otra combinación que dé otra conclusión que pueda
falsar la conclusión tentativa y se concluye como válido. Este silogismo AA solamente requiere un
modelo mental y es el silogismo más fácil de resolver. Repetimos, que la combinación de los
modelos mentales de las premisas se complica cuando hay más modelos mentales alternativos.
El contenido o las creencias se consideran una fuente error pues pueden influir en la interpretación,
en la combinación de modelos y en el proceso de aceptación o rechazo de la conclusión tentativa.
Cuando el contenido influye puede acortar el proceso de búsqueda de modelos alternativos si la
conclusión tentativa es compatible con el sistema de creencias, aunque sea inválida. Podría ocurrir
que el sujeto buscara afanosamente más modelos mentales alternativos cuando la conclusión fuera
contraria a su sistema de creencias (Oakhill y Johnson-Laird, 1985). Este efecto estaría influyendo
en la búsqueda de contraejemplos. Incluso este contenido influye en los silogismos de un solo
modelo mental y proponen que una conclusión increíble también podría actuar de filtro en el
proceso de evaluación, haciendo que la sustituyan por una conclusión creíble o que respondan que
no hay conclusión. Newstead y Evans (1993) señalan que con la incorporación del filtro de las
conclusiones se está introduciendo un mecanismo semejante al contemplado en el modelo de
escrutinio selectivo, aunque en este caso la selección ocurre en el proceso de evaluación.
Hay ocho estructuras básicas para representar un silogismo transitivo A > B > C:
Se pueden introducir también relaciones negativas en una de las dos premisas o en ambas (premisas
de igualdad negada). Además, considerando que la tarea experimental más habitual consiste en
presentar las dos premisas del silogismo y pedir que se conteste a una pregunta sobre la relación
entre “A” y “C” (¿Cuál es el mayor? o ¿Cuál es el menor?) o que se evalúe la validez de una conclusión
(Luis es mayor que Pedro o Pedro es menor que Luis), las estructuras básicas se pueden presentar
con dos preguntas o conclusiones alternativas:
También se han utilizado silogismos indeterminados en los que los dos términos de la serie están
situados hacia el mismo extremo de la relación con respecto al término medio, no pudiéndose
alcanzar una conclusión válida sobre la relación entre ambos. P. ej., en el siguiente silogismo los
términos A y C se encuentran situados hacia el mismo extremo B > A y C < B y no podemos inferir
la relación entre A y C, solo que son menores que B.
Desde sus orígenes experimentales en el trabajo de Stürring (1908), el razonamiento con series de
tres términos ha planteado una polémica centrada en el tipo de representación de las premisas. En
este trabajo se describía cómo algunos sujetos parecían formar un diagrama mental de las premisas,
representándolas mediante imágenes mentales, mientras que otros parecían resolver el problema
de forma verbal.
inferencia transitiva es necesario que las premisas contengan la misma relación y que el término
medio sea el predicado de la primera premisa y el sujeto de la segunda. P. ej.:
Cuando el argumento no tiene la misma relación: “Pedro es menor que Juan”, o por ejemplo, “Pedro
no es mayor que Juan”, se deben aplicar las operaciones de conversión y de reordenación de
premisas. Mediante ello se logra que los términos medios de ambas premisas sean adyacentes. Si la
segunda premisa fuera “Pedro es menor que Juan”, entonces su conversión en “Juan es mayor que
Pedro”, logra que los términos medio se ubiquen en una disposición de contigüidad.
Interesado Hunter en la graduación de la dificultad de los problemas y valiéndose del análisis de los
tiempos de solución, propuso que la aplicación de estas operaciones daba lugar a los distintos
niveles de dificultad de los problemas. Sin embargo, los resultados experimentales no apoyaron
todas las predicciones del modelo operacional. Fue Johnson -Laird y Bara (1984), los que
encontraron que en los silogismos transitivos también ocurría el efecto de la figura, donde al igual
que en el estudio con los silogismos categóricos, el tipo de figura favorecía las conclusiones A – C o
C – A. El nivel de dificultad de los silogismos estaba relacionado con el proceso de integración de la
información en función del tipo de figura u orden de los términos.
6 “Lo importante del modelo lingüístico es que defienden que las representaciones son abstractas en comparación con el modelo de la imagen
que entiende que nuestras representaciones son imágenes. También son importantes sus principios”. ED
7 “Esto se entiende bien con variables tales como la inteligencia. Realmente en cualquier prueba se mide la inteligencia. El extremo, no-inteligente
o tonto digamos que se define a partir de inteligente. De ahí la asimetría de los adjetivos. Con la longitud pasa lo mismo. Medimos lo largo que
es algo, no-largo o corto se define a partir del adjetivo largo. El ejemplo que se suele poner es "crudo"-> no crudo es cocido. No podría existir el
concepto de "cocido" sin crudo. Esto se sabe que es así porque las personas tardamos más en procesar los adjetivos marcados. Se le llama
marcado porque se definiría a partir del otro adjetivo. En el caso de "cocido"="no crudo". Lo mismo ocurre con mejor y peor. La escala "por
defecto" sería lo bueno que es algo, y a partir de ahí se define el otro extremo. En este caso, el marcado sería "peor", de ahí la mayor dificultad
que se ha encontrado en los sujetos. Recuerda que estamos estudiando psicología y la verdad que los adjetivos bipolares nos dice mucho sobre
magnitud: “A es mejor que B” contiene adjetivo no marcado que expresa distinto grado en
que se comparan A y B con respecto a ser buenos. La premisa “A es peor que B” contiene un
adjetivo marcado que hace que los términos A y B se sitúen hacia un extremo de la escala,
siendo premisa semánticamente más compleja y difícil de procesar (presuponemos que
ambos son malos y no que el enunciado exprese el grado de comparación entre ellos).
• Principio de las relaciones funcionales: sostiene que las relaciones de predicación se
almacenan y se recuperan con prioridad a la información comparativa: “Toyota es mejor que
Audi” se comprende que ambas son buenas y esto se representa de forma comprimida como:
“Toyota es mejor”. Solo representamos que es mejor pero no el grado en que lo es respecto
a Audi. Tenemos también: “A es mejor que B”, “B es mejor que C“ y se representen de forma
comprimida como “A es mejor”, “B es mejor” y “C es menos bueno”. Como la información
del predicado es prioritaria a la información comparativa, en la construcción de la
representación proposicional se
pierde el término medio (B), haciendo
que el problema sea más difícil.
Cuando no se pierde el término
medio, el problema es más fácil,
puesto que la relación entre A y C se
puede extraer directamente de la
representación.
• Principio de la congruencia: la recuperación de la información es más fácil si la
representación de las relaciones funcionales es congruente con la pregunta formulada. Los
silogismos serán más fáciles cuando esté formulada en la misma dirección. P. ej.: A es mejor
que B; B es mejor que C es más fácil cuando dicha pregunta es congruente con la relación:
¿Cuál es el mejor? que cuando no lo es, ¿Cuál es el peor? Este principio se relaciona con la
búsqueda en la memoria y con la dificultad impuesta por el almacenamiento, mientras que
los principios aluden al proceso de comprensión.
Los modelos anteriores explican alternativas del mismo fenómeno, generando una polémica en
torno al modo de representación más adecuado de las premisas. La polémica ha dado lugar a una
ardua investigación experimental siendo la polémica difícil de resolver pues ambos hacen la misma
predicción pero por razones distintas. P. ej., las predicciones del principio de la preferencia
direccional coinciden con las del principio del marcado léxico, ya que la facilidad de la disposición
de arriba a abajo también se encuentra predicha por la facilidad de los términos comparativos no
marcados.
Según Clark, la confrontación es más evidente en las premisas negativas y los datos experimentales
apoyan las predicciones del modelo lingüístico. Las premisas negativas tendrían un equivalente en
la versión afirmativa que daría lugar a las mismas predicciones en el modelo espacial y a predicciones
cómo funciona nuestra mente y procesa información. El adjetivo marcado es la categoría, la altura: alto; la anchura: ancho; la inteligencia:
inteligente. Realmente nos podríamos haber quedado con estos adjetivos solamente e indicar la ausencia de ellos a través de la negación, "no
alto, no ancho, no inteligente", sin embargo, a nuestro cerebro no le gusta la negación y ha preferido tener otras palabras afirmativas. Es muy
interesante.”. ED
inversas en el modelo lingüístico. P. ej., las premisas negativas “A no es tan malo como B”, “B no es
tan malo como C”, serían equivalentes a las premisas afirmativas “A es mejor que B”, “B es mejor
que C”. Ambos tipos de premisas darían lugar a los mismos resultados, ya que la preferencia para la
construcción de la imagen mental es en ambos casos de arriba hacia abajo. El modelo lingüístico, no
obstante, predice que la estructura lingüística es distinta, siendo las premisas negativas más fáciles
al conservar el término medio en la representación proposicional.
Algunos autores señalan que Clark parte del supuesto de la equivalencia entre las premisas
afirmativa y las negativas pero esta equivalencia puede no existir en el proceso de comprensión,
pues puede que “A no es tan malo como B”, no se interprete como “A es mejor que B”, sino como
“B es peor que A” y entonces la direccionalidad de abajo arriba, y el marcado léxico vuelven a
coincidir en sus predicciones. Tampoco se puede diferenciar el principio de anclaje de los extremos
del modelo espacial, y el principio de congruencia del modelo lingüístico, pues predicen resultados
convergentes, aunque por razones distintas.
El modelo mixto de Sternberg (1980), es un modelo conciliador que reúne aspectos tanto lingüísticos
como espaciales en la explicación del razonamiento con series de tres términos. El procesamiento
de la información lingüística precede a la representación espacial y ambos tipos de representaciones
se encuentran disponibles durante la ejecución de los procesos de búsqueda y recuperación de la
información. La propuesta del modelo mixto intenta integrar los aspectos del modelo lingüístico
relacionados con los adjetivos marcados en la etapa de codificación y los del modelo de la imagen
en la construcción de la disposición espacial en la que los términos se ordenan en la dirección no
preferida. Cuando la segunda premisa es de igualdad negada8, se propone la búsqueda del término
medio si la codificación lingüística de esta premisa tiene como objeto gramatical al término medio.
Localizado este se construye una representación unitaria, situando primero la primera premisa y
luego la segunda. Si la respuesta está en la segunda premisa, la lectura de la respuesta es inmediata.
Si está en la primera, se realizará un recorrido que llevará tiempo. Aun así, es posible que los sujetos
desarrollen distintas estrategias a medida que adquieren experiencia en la solución de los silogismos
transitivos. Durante la tarea experimental, pueden empezar por una representación de las
disposiciones espaciales y a medida que van resolviendo los problemas pueden cambiar a una
representación lingüística o a la inversa. P. ej., si la pregunta se presenta antes que las premisas se
adopta una estrategia lingüística y si la pregunta se presenta después, una estrategia espacial
(Ormrod, 1979).
la Teoría de los modelos mentales parece que los sujetos construyen un modelo mental de la
situación descrita por las premisas basándose en su conocimiento del significado de los términos
relacionales. Se representa la disposición espacial del contenido y se combinan estos modelos
mentales para llegar a una inferencia sobre las relaciones entre los dos términos no relacionados
explícitamente en las premisas.
Esta teoría predice que la dificultad de los problemas dependerá del número de modelos mentales
que puedan construirse. En los problemas de series de tres términos, la validez y el número de
modelos mentales no se pueden distinguir, ya que los problemas que dan lugar a un modelo mental
son también los que alcanzan una conclusión válida, mientras que no hay conclusión válida en los
problemas que dan lugar a más de un modelo. Byrne y Johnson-Laird 1989, se plantearon el estudio
de las relaciones transitivas con cinco términos en las que la dificultad de los problemas se puede
analizar en función del número de modelos mentales. P. ej.:
Los resultados apoyan las predicciones de la teoría de los modelos mentales frente a las predicciones
del modelo de Hagert (1984) basado en representaciones proposicionales y la aplicación de reglas:
el número de modelos mentales y no el número de reglas determina la dificultad de los problemas.
Hay datos a favor de una representación espacial integrada en las investigaciones sobre la memoria
de trabajo y el razonamiento silogístico. En la teoría de los modelos mentales la sobrecarga de la
memoria de trabajo es una de las fuentes principales de error y a la medida que aumenta el número
de modelos mentales también aumenta la dificultad de los problemas. La memoria de trabajo está
constituida por un procesador central que procesa la información que le llega del almacén
fonológico y el visoespacial. Este último está encargado de retener en la memoria de trabajo la
información visual: color; e información espacial: movimiento. Si se introduce durante la realización
de una tarea de silogismos lineales una segunda tarea que requiera la utilización de este almacén
visoespacial, se esperaría encontrar un deterioro en el rendimiento de los sujetos al producirse una
interferencia en la construcción y elaboración de las disposiciones espaciales en la memoria de
trabajo. Los resultados experimentales han puesto de manifiesto que la introducción de una tarea
visoespacial secundaria interfería en el rendimiento de los sujetos, apoyando de esta forma la
representación de una disposición espacial en el razonamiento silogístico (Klauer, Stegmaier y
Meiser, 1997; Vandierendonck y de Vooght, 1997). No obstante, también conviene señalar que no
ha quedado demostrado que esta representación espacial se tenga que concretar en una imagen
mental (Clark, 1969a; Newstead, Pollard y Griggs, 1986; Richardson, 1987; Sternberg, 1980).
REFERENCIAS:
• RESUMEN M. GORETTI GONZÁLEZ
• GONZÁLEZ LABRA, M., SÁNCHEZ BALMASEDA, P., & ORENES CASANOVA,
I. (2019). PSICOLOGÍA DEL PENSAMIENTO. MADRID: SANZ Y TORRES.
• Aclaraciones ED (Alf)
CAPÍTULO 5. EL RAZONAMIENTO CONDICIONAL
1. INTRODUCCIÓN
El razonamiento condicional constituye una de las áreas de investigación más prolífera de la
psicología del razonamiento deductivo. Su estudio se centra en las relaciones contingentes reales o
hipotéticas que vienen enunciadas por medio de los operadores lógicos, “Si, entonces” (implicación
material) y “Si y solo sí, entonces” (equivalencia material). Esta formulación presenta algunas
dificultades cuando se interpreta desde el modelo normativo lógico. Por ejemplo: Manuela nos
habla de su mujer Pepa, y nos comenta que: “si Pepa va a cenar a casa de sus padres, entonces se
queda a dormir”. Cabría esperar lógicamente que la próxima vez que nos diga que Pepa va a cenar
a casa de sus padres pensemos que esa noche se queda a dormir (Modus Ponens). Pero si dice que
Pepa durmió anoche en casa de sus padres, ¿podríamos inferir que anoche también cenó con sus
padres? Si se infiere de esta manera, se cometería un error “la afirmación del consecuente”. Si nos
hubiera dicho que Pepa ayer no cenó con sus padres y hubiéramos inferido que entonces no durmió
en casa de sus padres, estaríamos cometiendo el error de “la negación del antecedente”. Si
sabemos que no se ha quedado a dormir podemos inferir lógicamente que no ha cenado con ellos
(Modus Tollens). Si el comentario hubiera sido: “Si y solo si Pepa va a cenar a casa de sus padres,
entonces se queda a dormir” (equivalencia material), las cuatro inferencias anteriores hubieran sido
válidas.
La estructura lógica de un argumento condicional está constituida por dos premisas y una
conclusión. La mayor contiene un enunciado que une el antecedente (p) con el consecuente (q) por
medio de los operadores “si, entonces”. La convención habitual es designar al antecedente con la
letra p y al consecuente con la letra q. En la premisa menor se puede afirmar o negar el antecedente
o el consecuente para luego obtener una conclusión.
Si Manuela se hubiera expresado con el bicondicional “si y solo si Pepa va a cenar a casa de sus
padres, entonces se queda a dormir” (equivalencia material), las cuatro inferencias anteriores
hubieran sido válidas. No obstante, se interprete el condicional como implicación o como
equivalencia material, las inferencias que son lógicamente válidas presentan también un índice de
dificultad. El modus ponens es una inferencia muy fácil y natural, mientras que el modus tollens es
una inferencia más difícil cuando su interpretación es como implicación material (Johnson-Laird,
Byrne y Schaeken, 1992). En un meta análisis de 65 investigaciones con más de 700 sujetos se obtuvo
que cerca del 97% evaluaban como válidas las inferencias modus ponens, el 74% las inferencias
modus tollens, el 64% la falacia de afirmar el consecuente y el 56% la falacia de negar el antecedente
(Schroyens, Schacken y D'Ydewalle, 2001). La explicación de este nivel de dificultad no puede
basarse en una estricta correspondencia con las reglas de inferencia lógicas. Además, este
intercambio entre una interpretación condicional y bicondicional no ocurre con cualquier
formulación «Si p, entonces q», sino que depende de las distintas funciones semánticas del
condicional (como implicación indicativa, causalidad, advertencia, promesa, permisos, etc.).
La tarea experimental que se plantea habitualmente para el estudio del razonamiento condicional
se ajusta a la estructura normativa. De acuerdo con esta estructura, se presentan las premisas y la
tarea del sujeto puede consistir en evaluar si la conclusión es válida o no, en seleccionar la conclusión
válida entre un conjunto de alternativas o en generar su propia conclusión. Los estudios sobre las
tablas de verdad se diseñan de acuerdo con el modelo normativo pues presenta enunciado
condicional, y se pide al sujeto que evalúe las distintas combinaciones de los valores de verdad de
las proposiciones, premisas y conclusiones o que genere él mismo estas combinaciones. En tareas
de selección se presenta una regla y cuatro tarjetas, que se corresponden cada una con la afirmación
o negación del antecedente y del consecuente. La tarea consiste en seleccionar las tarjetas
necesarias para comprobar si la regla es verdadera o falsa.
Esta propuesta fue ampliada y revisada en varios trabajos posteriores. En una de las últimas, el
modelo de deducción natural de Braine se basa el razonamiento en reglas mentales. Según este
modelo hay tres componentes:
• Entrada léxica, la cual codifica la entrada de la información lingüística del término “si” en
esquemas de inferencia independientes del contexto. Solo se interpreta su significado. Sería
el que trasforma nuestro lenguaje natural a un lenguaje lógico. Por ejemplo: "en
consecuencia, si hay una B, entonces hay una C" se convierte en:
B (suposición)
-------------------
C (conclusión)
• Programa de razonamiento, que es el programa que aplica los esquemas de inferencia para
obtener si una conclusión es o no válida. Los esquemas de inferencias son reglas básicas y
universales, por ejemplo, el modus ponens, otro ejemplo sería la doble negación.
• Procesos de comprensión pragmática. El tercer componente sería donde se vuelve a
trasformar el lenguaje lógico a lenguaje natural y se aplica la pragmática. El programa de
razonamiento está constituido por rutinas que dan lugar a un razonamiento directo.
Interpretan el condicional según sea el contexto en que ocurra.
Los esquemas de inferencia para la codificación del término lingüístico “si” son el modus ponens y
un esquema para la demostración condicional. El modus ponens concreta la conclusión que se
puede inferir a partir de la información que se tiene: permite concluir “q” a partir de las premisas
“Si p entonces q” y “p”. P. ej., el esquema de inferencia para el modus ponens especifica que se
obtiene la conclusión «voy al cine» a partir de las premisas “Si llueve, entonces voy al cine” y “llueve”.
El esquema para la demostración del condicional permite evaluar la validez del argumento. Este
esquema permite saber si podemos afirmar que “Si p entonces q” a partir de cualquier proposición
“q” que se siga de la suposición “p”. Siguiendo con el ejemplo anterior, este esquema permitiría
demostrar que “Si llueve, entonces voy al cine” cuando voy al cine bajo el supuesto hipotético de
que llueva. Esta regla permite introducir suposiciones en el procedimiento de prueba siempre y
cuando éstas sean consistentes con las premisas, evitando así caer en contradicciones dentro del
propio argumento. Braine et cols. (1984) proponen un repertorio de 18 esquemas de inferencias del
razonamiento deductivo que son reglas básicas y universales. La utilización de estos esquemas de
inferencia está determinada por un programa de razonamiento.
El programa de razonamiento está constituido por rutinas que dan lugar a razonamiento directo y
estrategias que producen el razonamiento indirecto. Las rutinas son comunes a todos los sujetos
y con poco esfuerzo. Buscan aplicar emparejamiento entre los esquemas de inferencia y la forma de
las proposiciones que constituyen las premisas del argumento. En el caso del condicional, el
emparejamiento ocurre entre el modus ponens y las premisas “si p entonces q” y “p”. En el caso de
tener que generar conclusión “q” (voy al cine), y en el caso de que esta conclusión formara parte de
una cadena de razonamiento, entonces la inferencia se incorporará en el conjunto de premisas con
las que se está trabajando.
Para poder explicar tanto las falacias de negar el antecedente y afirmar el consecuente como la
inferencia del modus tollens se recurre al componente de comprensión pragmática. Según este
componente, cuando los sujetos interpretan “Si p entonces q” también añaden las inferencias
invitadas (sugeridas por el contexto) “Si no p, entonces no q”. Esta interpretación se corresponde
con el bicondicional (si y solo si p, entonces q) y viola la prescripción lógica del compromiso mínimo
que limita la interpretación a lo que explícitamente viene expresado en las premisas (si p, entonces
q). Para explicar la inferencia lógica correcta del modus tollens también se recurre a las inferencias
invitadas del bicondicional, pero en este caso se obtiene una conclusión válida por una
interpretación equivocada. La falta de respuesta o la mayor dificultad del modus tollens en la
interpretación del condicional como implicación material se explica porque esta regla no forma
parte de los esquemas de inferencia básicos 1. Para poder obtener una conclusión válida se tendría
que utilizar la reducción al absurdo. Para ello haría falta partir de una suposición que derive en una
contradicción para así poder concluir que la suposición inicial es falsa: si p es verdadera, entonces q
tiene que ser verdadera, pero q es falsa, luego p tiene que ser falsa. Estas predicciones del modelo
se ajustaron a los resultados experimentales encontrados en diversos trabajos sobre el condicional
(O'Brien y Overton, 1982; O'Brien y Shapiro, 1968; Rumain, Connell y Braine, 1983; Shapiro y O'Brien,
1970).
Cuando las rutinas de razonamiento directo fracasan, el modelo también cuenta con estrategias de
razonamiento que no son universales, dando lugar a la existencia de una amplia gama de diferencias
individuales entre las estrategias que pueden utilizar los sujetos. Estas estrategias de razonamiento
pueden ser procesos heurísticos, como la transferencia del problema a otros procedimientos de
razonamiento, por ejemplo, el razonamiento analógico o probabilístico o esquemas previamente
aprendidos que se activan por el contexto o el contenido del problema.
Se parte de la idea de que las reglas mentales se utilizan para la generación y comprobación de una
prueba mental en la memoria de trabajo bajo el control de un gestor encargado de la correcta
aplicación dichas reglas mentales. La dificultad sería explicada por el número y tipo de reglas
mentales y los errores por aquellos factores que impiden la aplicación de las rutinas (limitación MT,
ausencia de la regla apropiada...).
El procedimiento de prueba consta de una jerarquía de asertos (árbol de asertos) que incluye las
premisas y proposiciones que se derivan de las mismas; y otra jerarquía de submetas (árbol de
submetas) que incluye la conclusión y las proposiciones que la garantizan. Las reglas de inferencia
van colocando estas premisas en ambas configuraciones y se prueba el argumento cuando se da un
emparejamiento entre submetas y asertos. Hay dos tipos de reglas:
• Reglas hacia delante: derivan las implicaciones desde las premisas a la conclusión.
1 “Según el modelo de deducción natural de Braine y O´Brien, ¿cómo las personas hacen las cuatro inferencias que se derivan del condicional?
Las personas tendríamos una regla por defecto, el modus ponens, de ahí que se resuelva por la mayoría de las personas y de forma rápida. ¿Cómo
inferimos entonces las otras inferencias modus tollens, negación del antecedente y afirmación del consecuente? Se recurre a la pragmática, el
contexto de la frase. Según este componente, cuando los sujetos interpretan «si p entonces q» también añaden las inferencias invitadas
(sugeridas por el contexto) «si no p, entonces no q». Esta interpretación se corresponde con el bicondicional (si y solo si p, entonces q).
Evidentemente esta interpretación limita el significado del condicional al no incluir la implicación material, de ahí que la mayoría de las personas
entiendan el condicional como bicondicional, no como implicación material. Después dice que las personas dicen correctamente que la inferencia
del modus tollens es válido, pero, aunque la respuesta es correcta han utilizado una interpretación equivocada”. ED
2 PSYCOP es un acrónimo en inglés de las palabras psychology of proof (psicología de la prueba)
3 ANOS es un acrónimo en inglés de las palabras a natural deduction system (un sistema de deducción natural).
• Reglas hacia atrás: son para comprobar la validez del argumento y van desde conclusión a
premisas.
• Las reglas hacía atrás, son las que van desde la conclusión hasta las premisas. Por ejemplo:
4 “No hay que saber cada paso, sino la idea de que el pensamiento se basa en reglas mentales y el procedimiento básico general”. ED
Ahora nos han presentado como premisa "si p, entonces q" (y lo coloco en árbol de
asertos).
La conclusión es q (árbol de submetas). En este caso, la regla del modus ponens hacia
atrás se aplica en el árbol de submetas e infiero "p". Ahora tenemos una
correspondencia entre el árbol de asertos y árbol de submetas.
Los argumentos inválidos son aquellos en los que la conclusión no se infiere de las premisas. El
sistema está preparado para buscar siempre ese emparejamiento. Sin embargo, las personas
detectan de forma inmediata que "A. Entonces no A" no pueden ser a la vez y descartan
inmediatamente la contradicción. Sin embargo, el sistema no es capaz de hacer esto de forma
directa e inmediata pues tiende a hacer inferencias hasta emparejar ambos árboles de asertos y
submetas.
Este modelo explica el proceso de razonamiento condicional como la generación de una prueba en
la memoria de trabajo en la que se admiten suposiciones. No tienen que ser necesariamente
verdaderas. El árbol de asertos reúne los pasos lógicos que conducen desde las premisas a la
conclusión y el árbol de submetas guía el proceso desde la conclusión a las premisas. Las reglas son
sensibles a las metas del sistema.
Rips formula catorce reglas de inferencia hacia atrás y diez reglas hacia adelante, que se aplican en
un orden de preferencia que empieza por las sencillas (conjunto no definido que tampoco abarca a
todo el conjunto posible, pero sí puede manejar un amplio conjunto de argumentos y su
plausibilidad psicológica viene dada por los propios protocolos verbales de los sujetos) De este
conjunto dos son Modus Ponens: hacia adelante y hacia atrás. La regla del MP hacia adelante
permite inferir “q” si en el árbol de asertos se encuentran las pro- posiciones “si p, entonces q” y
“p”. La regla del MP hacia atrás se aplica sobre el árbol de submetas para aquellas situaciones en las
que las condiciones iniciales tienen como meta deducir “q” y “cuentan con el aserto “si p, entonces
q” y en este caso el sistema genera la submeta “p” y se infiere “q” que es el consecuente de la
proposición del árbol de asertos.
El modelo no cuenta con procedimiento directo para la detección de los argumentos inválidos. Un
argumento es inválido sólo si no se pueden encontrar reglas para probarlo. El análisis de protocolos
verbales muestra que los sujetos también evaluamos un argumento inválido de forma directa y sin
necesidad de realizar una búsqueda exhaustiva. Existen al margen varias perspectivas teóricas que
no están de acuerdo con el acento lógico de estos modelos y sus críticas subrayan la falta de
explicación de los efectos del contenido sobre el proceso de razonamiento.
• Combinación de los modelos mentales construidos a partir de las premisas con el fin de
generar una descripción lo más sencilla posible de estos. Debe enunciar algo que no esté
explícito en premisas y es la conclusión tentativa del argumento.
• Validación: donde se buscan modelos alternativos de las premisas que puedan falsar la
conclusión.
La TMM logra explicar mayor número de resultados experimentales sobre la dificultad de los
problemas en términos de la cantidad de procesamiento y de las limitaciones de la memoria de
trabajo.
Las inferencias deductivas que se pueden obtener a partir de la representación del modelo mental
inicial serán las más fáciles. Como podemos observar en el modelo mental inicial, la inferencia
modus ponens es directa y, por tanto, la más fácil. Por ejemplo, saber que «Si Juan va a Barcelona,
entonces viaja en avión» y conocer que Juan va a Barcelona, permite concluir con facilidad que viaja
5“Las personas cuando escuchan un condicional: "si estoy en casa, entonces evito el coronavirus". Representan generalmente un modelo inicial
para comprenderlo: Estoy en casa y evito el coronavirus. ..... (modelos implícitos).
Se representa con "puntos suspensivos" los modelos implícitos. Esto significa que nosotros, aunque representamos un sólo modelo explícitamente,
hay otros modelos implícitos del condicional, pero generalmente no lo representamos debido a nuestra memoria limitada. Esto no significa que
nosotros podamos representar explícitamente todos los modelos mentales del condicional:
MODELOS EXPLÍCITOS:
1. Estoy en casa y evito el coronavirus. 2. No estoy en casa y no evito el coronavirus. 3. No estoy en casa y evito el coronavirus”. ED
en avión. También como se observará, el modelo mental inicial es el mismo tanto para el condicional
como para el bicondicional, lo que explicaría la ambigüedad encontrada en su interpretación.
Sin embargo, cuando se plantea una inferencia modus tollens, por ejemplo, saber que “Si Juan va a
Barcelona, entonces viaja en avión” y conocer que Juan no viaja en avión “¬q”, no se puede obtener
una conclusión directa del modelo inicial. En este caso hace falta desplegar los modelos implícitos.
Podemos ver que la inferencia modus tollens para la implicación material requiere tres modelos
explícitos y para la equivalencia material tan solo dos. A medida que aumenta el número de modelos
mentales explícitos también aumenta la dificultad del problema. Como los diferentes niveles de
dificultad de las inferencias dependen del número de modelos mentales explícitos, se pueda explicar
también que la inferencia modus tollens sea más fácil en el bicondicional que en el condicional y
que no existan diferencias en el modus ponens al compartir ambas interpretaciones el mismo
modelo mental inicial (Johnson-Laird, Byrne y Schaeken, 1992).
El modelo inicial solamente representa lo que es verdadero. Esto se ajusta a los resultados
experimentales que muestran la irrelevancia psicológica de un antecedente falso porque el modelo
mental inicial es precisamente una representación exhaustiva del estado actual de cosas descritas
en el antecedente. Para cualquier otra inferencia que no sea modus ponens habrá que generar los
modelos mentales explícitos. El conocimiento general y el conocimiento de las relaciones entre
antecedente y el consecuente influyen sobre este proceso de interpretación dando lugar a la
generación de los modelos explícitos.
Las falacias de afirmar consecuente y negar antecedente se explican por la generación de los
modelos mentales explícitos: Los sujetos representan exhaustivamente tanto el antecedente como
el consecuente [p], [q] y cuando se afirma el consecuente [q] se produce también la afirmación del
antecedente [p]. La falacia de la negación del antecedente ocurre menos frecuente pues requiere
de otro modelo mental explícito: [¬p], [¬q], que da lugar a la inferencia ¬q.
Una de las críticas al modelo de reglas mentales es que acomodan los efectos del contenido a un
componente para la comprensión de los enunciados, manteniendo intacta la estructura formal de
las reglas. Considerando que una de las reglas básicas es el modus ponens, Byrne (1989) demostró
que esta inferencia se podía suprimir o bloquear por el contenido, y así se puede descartar que esta
inferencia se haga por la aplicación de una regla que se supone básica e independiente del
contenido.
afirmación del consecuente introduciendo una premisa adicional que establecía un antecedente
alternativo para el mismo consecuente. P. ej., acompañando a un enunciado como “Si voy a jugar al
tenis, entonces me pongo el chándal” se presenta una premisa adicional como “Si voy a hacer
footing, entonces me pongo el chándal”. Al introducir esta premisa adicional, los sujetos se dan
cuenta de que la negación del antecedente no implica la negación del consecuente (me puedo poner
el chándal, aunque no vaya a jugar al tenis) y que la afirmación del consecuente no implica la
afirmación del antecedente (si me pongo el chándal no tengo que jugar necesariamente al tenis).
Sin embargo, mientras que el objetivo de Ruma y cols. era demostrar que los sujetos no tienen reglas
mentales para estas falacias, Byrne fue mucho más lejos al plantear que no había ninguna regla
mental, ni la del modus ponens. Para ello siguió un procedimiento semejante en el que se introducía
una premisa adicional, pero a diferencia del estudio anterior, no se introducía un antecedente
alternativo, sino otro antecedente necesario para que se cumpla el consecuente. P. ej.,
acompañando a un enunciado como “Si salgo a hacer footing, entonces me paso por tu casa” se
presenta otra premisa como “Si es una hora prudente, entonces me paso por tu casa”. En este caso,
la premisa adicional que se introduce informa que hace falta otro antecedente para que se cumpla
el consecuente, de modo que cuando se presenta la premisa “Salgo a hacer footing” los sujetos no
hacen la inferencia modus ponens y responden que no se sabe o que no se puede concluir nada.
Este resultado no cuestiona que se hagan inferencias modus ponens, sino que existan reglas de
inferencia modus ponens que se aplican independientemente del contenido.
Politzer y Braine (1991) señalan que lo dicho por Byrne no es adecuado. Los autores defienden que
la interpretación que harían los sujetos de las dos premisas sería “Si salgo a hacer footing y si es una
hora prudente, entonces me paso por tu casa”, pero también uno puede decidir no pasar.
Admitiendo la réplica de estos autores, la Teoría de los modelos mentales es más completa ya que
logra predecir y explicar un mayor número de resultados experimentales que los modelos de reglas.
Braine (1993) sugiere que se puede razonar tanto con reglas de inferencia como con modelos
mentales y que los modelos metales son compatibles con su teoría. Además, comenta que cualquier
teoría que pretenda dar una explicación completa de los procesos de inferencia deberá contar con
una subteoría de los modelos mentales.
suficiente para que ocurra el consecuente y que el consecuente es compatible con todas las
posibilidades.
En otros casos la modulación semántica y pragmática añade información sobre la relación entre
antecedente y consecuente. Al contrario que la lógica, este mecanismo puede generar un número
indeterminado de distintos tipos de interpretaciones porque cuando se interpreta un condicional
en el lenguaje natural se están considerando las posibilidades de ocurrencias y no los valores de
verdad de las aserciones
El modelo identifica unos esquemas de regulación constituido por permisos y obligaciones bajo los
cuales se pueden agrupar la mayoría de los problemas con contenido temático. Estos esquemas
hacen explícitas situaciones en las que para alcanzar una meta hace falta cumplir unos requisitos.
Los componentes incluyen los conceptos de posibilidad, necesidad, acción y los requisitos que se
han de cumplir.
Estas reglas no son reglas lógicas6 pues son sensibles al contexto y a la interpretación de los términos
“puede” y “debe”. Además, no siempre hay coincidencia entre los esquemas de razonamiento
6 “Según este modelo nos manejamos con una serie de reglas pragmáticas que permitirían resolver la tarea de Wason mejor. Destacan cuatro
reglas: -Regla 1: Si se va a realizar una acción, entonces debe satisfacerse la precondición. Esta regla responde al modus ponens y establece que
si se da el antecedente (la causa), el consecuente debe darse. - La Regla 2: Si la acción no se va a realizar, entonces no necesita satisfacerse la
precondición. Esta regla nos ayuda a no cometer la falacia de la negación del antecedente, o la bloquea, porque hace explicito que, si no se realiza
la acción, es irrelevante la precondición. Recuerda que cuando el antecedente (o la causa) no se produce, no sabemos si se produce o no el
consecuente. -La regla 3: "Si se satisface la precondición, entonces puede realizarse la acción" bloquea la falacia de la afirmación del consecuente
porque una vez más hace explícito que cuando se produce el consecuente, entonces puede (o no) producirse el antecedente. De esta manera
bloquea la falacia de la afirmación del consecuente porque la regla hace explicita que cuando se da el consecuente, el antecedente puede (pero
no debe necesariamente) darse. Esta regla nos facilita para no cometer esta falacia.
- La regla 4 "si no se satisface la precondición, entonces no debe realizarse la acción" está formulando el modus tollens, nuevamente indica que
si no se produce el consecuente, el antecedente no debe darse. Teniendo estas reglas en mente nos ayudarían a realizar las inferencias
correctamente”. ED
Aunque se reconoce el avance que han supuesto las aportaciones de la teoría de los esquemas de
razonamiento pragmático para la identificación de las condiciones que producen facilitación en la
tarea de selección, no todos están de acuerdo con los aspectos teóricos de esta explicación. Frente
a los esquemas de razonamiento pragmático surge una propuesta enmarcada en una teoría de
amplio espectro también preocupada con los aspectos pragmáticos del razonamiento humano, pero
desde una concepción evolucionista y social.
Hay leyes que son inherentes al proceso de selección natural y que gobiernan y limitan el tipo de
conducta. La solución adaptativa para las situaciones de intercambio social son unos algoritmos de
contrato mediante los cuales un individuo está obligado a pagar un coste a un individuo o grupo si
quiere tener derecho a recibir un beneficio. Ello se da con el compromiso por parte de ambas partes
y cierta garantía de cumplirse. Detectan cuando alguien ha engañado o lo intenta. Contenido de la
tarea adaptada a la estructura coste/beneficio de forma que las cuatro tarjetas enuncian las
situaciones:
algoritmos de contrato social operarán también con normas no familiares siempre y cuando el sujeto
perciba que representan una estructura coste/beneficio. Además, las normas que no sean contratos
sociales no mostrarán el patrón de respuestas previamente expuesto.
Según Cosmides y Tooby, (1989) los resultados obtenidos por Cheng y Holyoak (1985) no
constituyen un apoyo a la teoría de los esquemas de razonamiento pragmático, sino que los efectos
facilitadores de este experimento se debieron a que se añadió información contextual que
convirtieron las normas de permiso en contratos sociales. Las predicciones de la teoría del
intercambio social fueron sometidas a diversas pruebas experimentales de acuerdo con la
formulación de la tarea de selección de Wason. Los problemas utilizan contenidos imaginarios que
se presentan en el contexto de una historieta, como, por ejemplo, el problema de la raíz de
“cassava” y el problema del huevo de avestruz.
Cuando los sujetos razonan acerca de las situaciones con la estructura coste/beneficio sus
respuestas se ajustan a las predicciones del procedimiento para la detección del engaño. Cheng y
Holyoak (1989) rebaten la crítica de Cosmides a su primer experimento señalando que una vacuna
que protege a una persona conta una enfermedad no es propiamente un “coste” pagado a otra
persona o grupo. Respecto a su segundo experimento sobre el contenido abstracto, afirman que el
mero hecho de decir que se ha de cumplir un “requisito P” para poder realizar una acción A, no
marca lingüísticamente a la “acción A” como beneficio obtenido.
Cheng y Holyoak, también ponen de manifiesto que Cosmides utiliza términos “intercambio social”
y “contrato social” indiscriminadamente. Ella misma reconoce que los contratos sociales también
incluyen situaciones de permiso y regulación y utiliza en algunos casos una definición amplia de
intercambio social en la que incluye el cumplimiento de un requisito para obtener un beneficio, y
una definición más restrictiva cuando el contenido del problema se ajusta a la estructura
coste/beneficio. Sin embargo, un requisito no es propiamente una entidad que pueda ser dada en
pago por algo. Parece que la autora amplia su definición de intercambio mediante el reemplazo de
“pagar un coste” por el más general de “Cumplir un requisito” cuando hay que explicar un resultado
que no coincide con la estructura coste/beneficio.
4.3. Polémica entre los esquemas de razonamiento pragmático y los contratos sociales
Los esquemas de permiso podrían interpretarse como normas de contrato social y Girotto, Blaye y
Farioli (1989) estudian otros esquemas de regulación: obligaciones donde no se da esta
ambigüedad. Respecto a las predicciones de Cosmides, se encuentra que sigue la facilitación cuando
los problemas se formulan como obligaciones, aun careciendo de estructura coste/beneficio.
Concluyen que la teoría de los esquemas de razonamiento pragmático explica número mayor de
resultados experimentales tanto interpretando casos como situaciones de regulación social como
con la estructura de coste/beneficio.
Markovits y Lesage (1990) encuentran evidencia experimental que apoya la utilización de esquemas
de razonamiento pragmático cuando el condicional se presenta como promesas. Los sujetos
7 “Este estudio pretende estudiar los esquemas en situaciones de intercambio en el que se pueden adoptar dos puntos de vista (el que hace la
promesa/advertencia y el que la recibe). Cuando se presentaba una regla de permiso se entendía a través de una regla de obligación (para el que
hace la regla) mientras que la formulaba como permiso el que la recibe. En el cuadro tienes los ejemplos de las cuatro reglas de obligación y
permiso. Para buscar si la regla es correcta, el sujeto aplica la regla del otro, esto es, el que hace la regla aplica el esquema de permiso mientras
que el que la recibe aplica la obligación. Cuando el sujeto adopta un punto de vista neutro o no sesgado, entonces se hará una interpretación
bicondicional de la situación, es decir, tendrá en cuenta ambos puntos de vista”. ED
Gigerenzer y Hug (1992) interpretan el cambio de perspectiva como evidencia a favor de la Teoría
de los contratos sociales. Tienen como objetivo la diferenciación experimental entre el concepto de
contrato social y el algoritmo para la detección de tramposos. El porcentaje de respuestas correctas
disminuye cuando los sujetos resuelven la tarea de selección desde la perspectiva de un contrato
social con situaciones de permiso u obligación y en la que la detección de tramposos es irrelevante.
Defienden el papel que desempeña el mecanismo para la detección de los tramposos, atenuando la
relevancia del contrato social y descartando los esquemas de regulación.
Platt y Griggs (1993) logran separar por orden de importancia los efectos de algunos de los factores
que previamente habían producido facilitación, encontrando que la estructura coste/beneficio es
necesaria para obtener los efectos facilitadores en los problemas de contrato social. La perspectiva
del engaño y la presencia de la negación explicita sólo contribuyen a mejorar el rendimiento cuando
la tarea es ambigua. El término “debe” producía efectos facilitadores en un número mayor de casos
que los dos últimos factores.
Manktelow y Over (1991) descartan ambas propuestas para apoyar una ampliación de la Teoría de
los modelos mentales que incorpore las utilidades e sus representaciones. Señalan los efectos
facilitadores de los términos deónticos incluidos en los esquemas de permiso y los contratos
sociales. Distinguen el condicional con términos indicativos (tarea abstracta) y el condicional con
términos deónticos (esquemas de permiso y contratos sociales).
Jackson y Griggs (1990) señalan que los efectos facilitadores en los problemas con contenido
abstracto son producto de dos factores ajenos a los esquemas de razonamiento:
• Enunciar la negación explícita para ¬p y ¬q , (“Si hay una P, entonces hay un 7 ”--> “Si hay
una P, entonces no hay un 7”) y de la negación implícita sería (“Si hay una P, entonces hay
un 2” )
• Presentación de un contexto de búsqueda de posibles violaciones de la regla.
Cuando los problemas se formulan como esquemas de permiso abstractos, pero con la negación
implícita y en un contexto orientado a la comprobación de una regla y no a su violación, estos efectos
de facilitación desaparecen.
Cuando se usa la negación explícita, su formulación coincide con el antecedente de la regla 4 de los
esquemas de permiso, haciendo que el efecto de facilitación sea mayor en la evocación de los
esquemas.
Cuando se utiliza la negación implícita es necesario que el sujeto infiera que el cumplimiento de una
condición distinta a la comprendida en la regla implica que no se ha cumplido la condición de la
regla. Se supone que una de las dos condiciones y no ambas pueden ser satisfechas.
La propuesta de Cosmides sobre los contratos sociales queda asumida como parte de los esquemas
de regulación de Cheng y Holyoak. La delimitación conceptual entre los esquemas de regulación
(permiso y obligación) y los contratos sociales es difusa y las críticas se han centrado principalmente
sobre el concepto de la estructura coste/beneficio, puesto que los problemas en los que se han
obtenido efectos facilitadores no se ajustan a esta estructura, incluso algunos de los problemas
utilizados por la misma Cosmides.
5. TEORÍAS DE LA RELEVANCIA
5.1. Teoría de la relevancia de Sperber y Wilson
Según la Teoría de la Relevancia (Sperber y Wilson, 1986; 1995; Sperber, Cara y Girotto, 1995), el
razonamiento se encuentra determinado por las expectativas que tienen los sujetos sobre la
relevancia suscitada por el contenido y contexto de la tarea. Los autores sostienen que en la tarea
de selección lo que se pide a los sujetos es seleccionar aquello que sea relevante para el proceso de
inferencia.
Sperber y Wilson parten del supuesto de que los procesos cognitivos se guían por la información
que sea más relevante en ese momento y sobre la que acomodan un contexto de supuestos para
maximizar su relevancia (Primer principio Cognitivo de Relevancia) Cuanto mayor son las
expectativas sobre los efectos cognitivos mayor será la relevancia y cuanto mayor sean los costes
del procesamiento menor será la relevancia.
El ser humano está preparado para interactuar con el ambiente, y con la información más saliente
y que sea fácil de representar. Sin embargo, la información que se comunica difiere de la información
ambiental puesto que en general suscita relevancia. Todo acto de comunicación transmite una
presunción de su propia relevancia (Segundo principio Comunicativo de Relevancia) Este principio
garantiza que espontáneamente se ponga en marcha el proceso de comprensión ante la emisión de
un acto comunicativo.
En el laboratorio encontramos que las tareas suelen ser tan artificiales que las expectativas de
relevancia de los individuos son mínimas. Las consecuencias se pueden probar directamente en el
orden en que se encuentran disponibles y se obtiene una conclusión cuando se alcanzan las
expectativas de relevancia. Las consecuencias más pertinentes:
• La regla implica que cualquier tarjeta con una (p) tendrá una (q) por el otro lado.
• La regla implica que en la mayoría de los contextos hay casos p y q.
• La regla contradice el supuesto de que hay casos de (p) y (¬q).
Para que los sujetos logren una interpretación del condicional como una negación de los casos (p) y
(¬q) como la afirmación de que no hay casos (p) y (¬q) (negación implícita) hace falta que esta
consecuencia sea por lo menos tan accesible y rica en las expectativas sobre los efectos cognitivos
como los casos (p) y (q), entendido desde la interpretación de la regla y no desde su aplicación 8.
8“Está explicando la regla 3 que hace referencia a la posibilidad falsa del condicional "p y no-q" (quédate con esto y listo). Como sabes, las
personas no suelen seleccionar "no-q". De ahí, que se diga que habría que hacer más accesible esta posibilidad "p y no-q" ED
Sperber, Cara y Girotto (1995) diseñaron cuatro experimentos para analizar la versión abstracta y
varias temáticas de la tarea de selección frente a distintas versiones de la tarea donde se
manipularon los efectos cognitivos y el coste de la relevancia. Los resultados se ajustaron a las
predicciones de la Teoría de la Relevancia y mostraron la utilidad de las directrices propuestas con
el fin de generar una tarea de selección sencilla y con resultados correctos. La explicación de estos
resultados se extiende a los efectos de facilitación encontrados en la negación explícita y con los
términos deónticos. Cuando se utiliza la negación: “Si hay una consonante, por un lado, entonces
no hay número par por el otro” Las tres consecuencias más pertinentes serían las siguientes:
• La regla implica que cualquier tarjeta (p) tendrá por le otro lado una (¬q).
• La regla implica que en la mayoría de los contextos hay casos (p) y (¬q) (negación explícita).
• La regla contradice el supuesto de que hay casos p y q (negación implícita).
Los sujetos seleccionan las tarjetas (p) y (q) porque la negación implícita requiere menos coste y los
efectos cognitivos son los de la interpretación de la negación.
Los autores indican que la versión indicativa y la deóntica son dos tareas diferentes. En la primera
se razona sobre la verdad de la regla, mientras que en la deóntica se hace a partir del cumplimiento
de una regla. Los efectos de facilitación encontrados en la versión deóntica se explican por su
interpretación dentro de un contexto. Una regla que no contenga el término “debe” puede
interpretarse como algo que debería hacerse siempre y cuando la regla tenga sentido en el contexto
pragmático. En la versión abstracta no hace que la regla se interprete como un deber, mientras que
sí en la deóntica aunque no vaya explícito el término: “Si hay una consonante por un lado, entonces
“debe” haber un número impar por el otro” (debe siempre) “Si una persona bebe alcohol, entonces
es mayor de edad” (no está el término “debe” pero se interpreta).
Cuando en la versión indicativa se logra la interpretación del condicional como una negación de la
existencia de casos p (hay consonante, por un lado) y ¬q (no debe haber impar por el otro = par), y
en la versión deóntica como una interpretación de la ocurrencia p y ¬q, se resuelve la tarea
correctamente. Desde la perspectiva de la Teoría de la Relevancia, en ambas versiones intervienen
los mismos factores relativos a la facilidad de representación y a las expectativas sobre los efectos.
Los resultados encontrados sobre el cambio de perspectiva también se explican por las expectativas
de relevancia que se han generado cuando se pide al sujeto que adopte la perspectiva implícita de
la regla9.
9“La Teoría de la Relevancia explica los mismos resultados obtenidos por la Teoría de los Esquemas de Razonamiento pragmático, pero desde
una perspectiva teórica distinta. La Teoría de la Relevancia dice que la tarea indicativa y la deóntica son tareas distintas porque la interpretación
Ya sabemos que las respuestas más frecuentes en el condicional son (p) y (p y q). La interpretación
original de Wason fue que los sujetos mostraban sesgo hacia la confirmación de la regla y no
perseguían su falsación. Sin embargo, Evans (1972), descubrió que se daba la posibilidad de que se
diera otro sesgo, emparejamiento. que consistía en que los sujetos estuvieran seleccionando las
tarjetas que coincidían con los términos de la regla. En las versiones afirmativas de la regla no se
puede distinguir entre ambos sesgos, ya que ambos dan lugar a las mismas respuestas (p y q). Con
el fin de poder diferenciarlos, Evans y Lynch (1973) introducen las negaciones en la tarea de
selección. Si ocurre el sesgo de confirmación, entonces los sujetos seleccionarían aquellas tarjetas
en las que el antecedente y el consecuente fueran verdaderos y si ocurre el sesgo de
emparejamiento, las tarjetas seleccionadas coincidirían con los términos de la regla sin la negación
y además serían las respuestas correctas. Por ejemplo:
“Si hay una consonante por una cara, entonces hay un número impar por la otra”.
Según el sesgo de confirmación, los sujetos buscarían confirmar la regla y seleccionarían las tarjetas
p y ¬q (una consonante y un número par), mientras que si se da el sesgo de emparejamiento se
seleccionarían las tarjetas p y q (una consonante y un número impar). Como puede verse, en el caso
del sesgo del emparejamiento la selección del consecuente sin negación coincide con la falsación de
la regla, aunque no por la aplicación del modus tollens. Los resultados de este trabajo y de trabajos
posteriores apoyaron las hipótesis del sesgo de emparejamiento.
Para explicar este sesgo de emparejamiento, Evans sostiene que la selección de la información se
explica por dos heurísticos:
• El primero se pone en marcha por el término “Si” del condicional y hace que el sujeto se
centre en el antecedente.
• El otro heurístico es de carácter más general y hace que la atención se dirija hacia el tema del
enunciado.
En la tarea de selección los sujetos seleccionan las tarjetas que consideran relevantes, sin necesidad
de pasar por la etapa analítica. En otro tipo de tareas, como las tablas de verdad, la etapa analítica
se pone en marcha y filtra parte de la información que ha sido seleccionada en la etapa heurística.
Bajo esta perspectiva, la selección de la información relevante se ubica en la etapa heurística que es
un proceso pre-atencional y de naturaleza pragmática en el sentido de estar determinado por
factores individuales y lingüísticos.
es diferente según el contexto en el que ocurra. Subraya además que estas diferencias en la interpretación del condicional no se deben al término
"debe". La negación implícita se interpreta en afirmativo: "la regla contradice si p, entonces q". Esto es menos costoso que la negación explícita
"si p, entonces no q", que con la negación del consecuente sería no (no q), es decir, q”. ED
6. TEORÍAS PROBABILÍSTICAS
6.1. Teoría bayesiana del condicional
Bajo esta perspectiva se integran los procesos de razonamiento y la toma de decisiones asumiendo
que se razona con el fin de tomar una decisión. Esta perspectiva entiende que al razonar hay que
decidir entre las posibles conclusiones cuál es la más relevante para el problema en cuestión. Kirby
(1994) introduce el análisis de los juicios probabilísticos para explicar el rendimiento de los sujetos
en la tarea de selección. Al plantear esta tarea dentro del marco probabilístico, el fracaso de la
mayoría de los sujetos al no seleccionar la tarjeta ¬q se explica por la baja probabilidad que hay de
encontrar p cuando el conjunto de ocurrencias es pequeño. P. ej., en la regla “Si hay una vocal por
un lado, entonces hay un número impar por el otro”, el conjunto de ocurrencias de p (vocales) es
pequeño con respecto a ¬p (consonantes), de forma que los sujetos consideran poco probable que
detrás de un número par (¬q) pueda haber una vocal. Como veremos en el próximo capítulo, estas
probabilidades son subjetivas y las evaluaciones del tamaño del conjunto de las ocurrencias variarán
en función del conocimiento del sujeto y de aquello que aporte más información.
Los autores Oaksford y Chater (1994) proponen que las frecuencias en la selección de las tarjetas
son una función monotónica de la ganancia en información que se espera obtener en cada una. Se
sitúan en el marco teórico en el que la racionalidad se entiende como adaptativa en el sentido de
que el comportamiento será racional si se adapta de forma óptima en el ambiente. Parte de los
siguientes supuestos:
• Las metas del sistema cognitivo se dirigen hacia la selección de información relevante.
• Las propiedades que figuran en las relaciones causales son raras o poco frecuentes en el
ambiente10.
• Los sujetos resuelven la tarea de acuerdo con el modelo bayesiano para la selección óptima
de los datos y bajo el mencionado “supuesto de rareza”.
Los sujetos seleccionan la tarjeta (tarjetas) que al darle la vuelta aporte más información sobre la
comprobación de una de dos hipótesis:
• existe dependencia en la forma “Si p, entonces q”
• la hipótesis alternativa más sencilla, que p y q son independientes.
10 “Hay que tener claro los supuestos del enfoque, especialmente el punto (2) que dice "las propiedades que figuran en las relaciones causales
son raras o poco frecuentes en el ambiente". Los sujetos seleccionan aquella tarjeta (tarjetas) más relevantes para comprobar la regla. Veamos
el ejemplo "Si comes fabada, entonces te pones enfermo". Vamos a suponer que esta relación es rara o poco frecuente en el ambiente. Y hay que
comprobar 1) que no existe tal relación y falsar la regla o 2) existe relación entre ambas. Como se dice en el manual, los sujetos seleccionan las
tarjetas en la tarea de selección de Wason en función de la ganancia en información que esperan obtener. La tarjeta que pone por la cara que ve
el sujeto "fabada" (el antecedente) será informativa cuando los sujetos piensen que son muchos los que comen fabada y pocas las personas que
se ponen malas al comer fabada. - Dice que p será informativa en la medida en que la probabilidad de q sea baja. La causa es más informativa
en la medida en la que el consecuente es menos frecuente porque si es muy frecuente no sé si es por la relación con el antecedente p o cualquier
otra causa. Entonces reamente p es más informativo de su relación con q cuando es poco frecuente. - De la misma manera, q es informativo
cuando p y q son poco frecuente. - Si antes nos han dicho que las personas no eligen no-q porque p es baja, ahora nos explican lo mismo, pero
con otras palabras, q es informativa cuando p es alta”. ED
Se concibe así que el orden de frecuencias en la selección de las tarjetas p > q > ¬q > ¬p En las
versiones temáticas con términos deónticos, se concibe la tarea de selección como el uso de una
regla frente a la comprobación de una regla de versión indicativa. El modelo probabilístico calcula la
utilidad esperada, y la regla se utiliza con el fin de maximizar la utilidad esperada que varía en
función de la perspectiva. Kirby (1994) utilizó varias modalidades del problema “Si una persona bebe
cerveza, entonces es mayor de 21 años” en las que se variaba ¬ q, por ejemplo, 19 años, 12 años o 4
años. Los resultados mostraron que la selección de la tarjeta ¬ q aumentaba a medida que
aumentaba la probabilidad de p de desobedecer la regla (proporción de respuestas: 19 años > 12
años > 4 años). Parece que las personas pensaban en gente que bebe cerveza y pensaban en
aquellos con 21/19 años. Los de 21 cumplían las regla y los de 19, no. No pensaban en niños (4-12
años) como bebedores de cerveza.
Green, Over y Pyne (1997), encuentran que las estimaciones que hacen los sujetos sobre la
ocurrencia de los contraejemplos de (q) se encuentran determinados por el tamaño del conjunto de
(p), aunque señalan que esta relación es algo más compleja porque el valor asignado a la
información (confirmación y desconfirmación) también se tienen que comparar con otros
beneficios/costes esperados.
Esta idea se opone a la teoría de los modelos mentales 11 al no admitir que los modelos mentales se
ajusten a una interpretación del condicional básico como una implicación material. En la formulación
probabilística no hay cabida para la no ocurrencia del antecedente. Según la teoría de la suposición,
ante un enunciado condicional se emite un juicio sobre la probabilidad condicional subjetiva de que
ocurra el consecuente cuando ocurre el antecedente.
Evans, Handley y Over 2003, realizaron una investigación en la que se pedía directamente a los
sujetos que evaluaran la probabilidad de los enunciados condicionales en un contexto en el que se
especificaba la frecuencia relativa de todas las posibles lógicas, 37 cartas con dibujos (círculo o
diamante en amarillo o rojo):
11 “La teoría de la suposición defiende que cuando las personas comprenden un condicional "si llevo mascarilla entonces evito el contagio" piensan
que: - Dado que llevo mascarilla, ¿cuál es la probabilidad o el grado de creencia de que ocurra el consecuente "evitar el contagio"? Entiende que
es irrelevante cuando no llevo la mascarilla, es decir, el antecedente es falso. Esto se opone a la teoría de los modelos mentales que defiende que
las personas representan tres modelos cuando comprenden el condicional. La representación de los tres modelos se denomina implicación
material: - llevo mascarilla y evito el contagio; - no llevo mascarilla y no evito el contagio; - no llevo mascarilla y no evito el contagio”. ED
La tarea consistía en señalar en una escala de 1 (poco probable) a 5 (muy probable) la probabilidad
de que la siguiente afirmación fuera verdadera si se escogiera una carta al azar: “Si la carta es
amarilla, entonces tiene dibujado un círculo”.
Se calcula la probabilidad del enunciado condicional según se interprete como una implicación
material, una probabilidad condicional o una probabilidad conjuntiva.
Evans y Over no se oponen a la concepción de la teoría de los modelos mentales, son que su crítica
se centra en el supuesto de los valores de verdad. Defienden que las personas interpretan un
enunciado condicional como la probabilidad de que ocurra el consecuente cuando suponemos que
se ha dado el antecedente.
REFERENCIAS:
• RESUMEN M. GORETTI GONZÁLEZ
• GONZÁLEZ LABRA, M., SÁNCHEZ BALMASEDA, P., & ORENES CASANOVA, I.
(2019). PSICOLOGÍA DEL PENSAMIENTO. MADRID: SANZ Y TORRES.
• Aclaraciones ED.
CAPÍTULO 6. RAZONAMIENTO PROBABILÍSTICO
1. INTRODUCCIÓN
Cuando hacemos una predicción o pronóstico (“La pandemia del Covid-19 pondrá en valor la
necesidad de un sistema de sanidad público, universal y de calidad”), tomamos una decisión (“Yo
me quedo en casa”) o buscamos la causa de un hecho determinado (“A votado a VOX porque es una
ignorante”) estamos evaluando la probabilidad de que determinados acontecimientos vayan a
ocurrir o hayan ocurrido. Nuestras predicciones sobre acontecimientos futuros se basan en
información incompleta, parcialmente imprevisible y ambigua, en los que la certeza de nuestros
juicios se sitúa en un margen determinado de probabilidad. Es un margen de incertidumbre. El
razonamiento probabilístico es importante en el ámbito profesional cuando no pueden
contemplarse en su totalidad todas las variables posibles que influyen o dan lugar a una determinada
consecuencia. Así, el diagnóstico clínico en medicina y psicología, la potencial eficacia de
metodologías innovadoras en educación, las sentencias judiciales, las previsiones basadas en
estudios de mercado, o los pronósticos electorales constituyen ejemplos de juicios predictivos en
los que las conclusiones no son “inequívocamente” ciertas sino “probablemente” ciertas.
2. EL TEOREMA DE BAYES
Cuando asignamos un valor de probabilidad a un suceso podemos conocer o no el espacio de
probabilidades. Si se conoce como en el lanzamiento de un dado o de moneda, asumiendo la
equiprobabilidad de las diferentes posibilidades, la probabilidad de un suceso aleatorio sería el
cociente entre el número de resultados favorables y el número total de resultados posibles. Si se
repite el lanzamiento de un dado, la probabilidad de sacar un dos será equivalente a su frecuencia
de 1/6. En la vida diaria, no conocemos el espacio completo de probabilidades en relación a un
suceso determinado, por lo que estimamos subjetivamente en relación al espacio muestral,
añadiendo que las diferentes alternativas no sean necesariamente equiprobables.
2. La suma de las probabilidades de todos los posibles sucesos en un espacio muestral dado es 1.
La probabilidad de “NO OCURRENCIA” de un suceso (S) es igual a 1 menos la probabilidad de que
sí ocurra. P (noS) = 1- P(S).
• La suma de las probabilidades de todos los posibles sucesos = (30/100) + (20/100) + (50/100)
=1
3. Si dos sucesos (S1) y (S2) son mutuamente excluyentes, la probabilidad de S1 ó S2 será igual a
la suma de sus probabilidades. P (S1 ó S2) = P(S1) + P(S2).
• La probabilidad de sufrir un trastorno depresivo o de sufrir una fobia específica = (30/100) +
(20/100) = 0,50
Terminada la primera fase del tratamiento, el porcentaje de curación en el grupo de pacientes con
trastorno depresivo fue del 50%, en el grupo con problemas de fobias del 70 %, y del 40 % en el
grupo de pacientes con problemas de ansiedad. Conociendo estos datos podremos ejemplificar el
cuarto axioma.
4. a) Si dos sucesos (S1 y S2) son dependientes, la probabilidad de la conjunción de estos sucesos
será igual al producto de la probabilidad de S1 por la probabilidad de S2 asumiendo S1: P (S1
y S2) = P (S1) x P (S2 dado S1) = P (S1) x P (S2|S1). El segundo factor de este producto se
denomina probabilidad condicional de S2 dado S1.
• La probabilidad de que un paciente haya sido diagnosticado de ansiedad y se haya curado= P
(Ansiedad) x P (Curado|Ansiedad) = 0.50 x 0.40 = 0.20.
Imaginemos ahora que del conjunto de pacientes que asistieron a terapia el año pasado extraemos
uno al azar y encontramos que está curado. ¿Cuál es la probabilidad de que dicho paciente hubiera
sido diagnosticado previamente de trastorno depresivo?
Thomas Bayes (siglo XVIII) añadió a esos axiomas una fórmula conocida como el Teorema de Bayes,
el cual permite calcular la probabilidad condicional inversa, también denominada probabilidad
posterior (o probabilidad a posteriori). El cálculo no es directo ya que conocemos el dato (el paciente
está curado) pero tenemos tres posibles opciones de diagnóstico previo o hipótesis de partida:
depresión, fobia o ansiedad. El teorema constituye la ley fundamental en la que se basa este tipo de
inferencia probabilística, tanto cuando la información procede de datos muestrales como cuando es
de estimaciones subjetivas de probabilidad.
Problema A: Seleccionamos un paciente al azar y encontramos que está curado. ¿qué probabilidad
será mayor?:
a) fue diagnosticado de fobia específica.
b) fue diagnosticado de ansiedad.
Si el alumno ha elegido la alternativa a), su elección coincide con la de un porcentaje
significativamente elevado de los participantes en el experimento, si bien su elección es incorrecta.
Analicemos ahora el problema B y reflexionemos sobre cuál sería la elección de Elena.
Problema B: Ana plantea analizar qué variables explican que después de la primera fase del
tratamiento sólo el 40% de los pacientes sanen de su ansiedad. Cita un día a todos los curados y en
otro día a los que siguen en el proceso. Elena sufre de ansiedad y acude a consulta a pedir cita el día
que ésta citó a los curados. En la sala coinciden con Elena y le transmiten a ésta el éxito y rapidez de
curación tras la primera fase de tratamiento. A partir de la información Elena considera que la
primera fase de tratamiento empleado por Ana para el tratamiento de la ansiedad:
a) es altamente eficaz
b) es parcialmente eficaz
1 De acuerdo con Kahneman y Tversky (1982a) el término intuitivo puede utilizarse con tres diferentes acepciones, que no son excluyentes entre
sí. En primer lugar, un juicio se denomina intuitivo si se alcanza con un modelo de razonamiento informal y no estructurado, sin utilizar métodos
analíticos y cálculos deliberados. En segundo lugar, una regla formal es intuitiva si es compatible con el modelo del mundo de personas
“ingenuas”, es decir, no expertas en lógica y/o estadística. En tercer lugar, una regla o procedimiento formará parte de nuestro repertorio de
intuiciones cuando los aplicamos en nuestra conducta habitual.
Un ejemplo de descripción es la siguiente: Jack tiene 45 años, casado y cuatro hijos. Conservador,
prudente y ambicioso. No manifiesta intereses políticos y sociales y emplea su tiempo libre en sus
aficiones (carpintería, navegar, resolver problemas matemáticos) La probabilidad de que sea uno de
los 30 ingenieros de la muestra de 100 es _______%.
Puedes aplicar el Teorema de Bayes y comprobar que el resultado es 7.8 % 2. De acuerdo con los
resultados de Eddy (1982), el 95 % de los médicos estimaron que la probabilidad (cáncer/resultado
2
Gigerenzer y Hoffrage (1995) postulan que los trabajos que apoyan la dificultad de los humanos
para aplicar las normas de la inferencia bayesiana es el resultado de un planteamiento metodológico
inadecuado: desajuste entre la forma en la que se presenta la información a los participantes y el
formato de la representación cognitiva natural de dicha información. Gigerenzer y Hoffrage se basan
en la teoría de la evolución, donde la mente y su entorno han evolucionado en paralelo. Éstos
sostienen que las demandas computacionales de los algoritmos bayesianos son más simples cuando
la información se codifica en un formato de frecuencias más que en el formato estándar de
probabilidad.
La probabilidad de cáncer es de 10/1000 = 1% P (H) = 0,01; De cada 10 mujeres que padecen cáncer,
8 dan un resultado positivo en la mamografía. Una mujer sin cáncer (990) dé resultado positivo en
la mamografía es de 95/990.
Una mujer de 40 años obtiene un resultado positivo en la mamografía en un control rutinario ¿Cuál
es la probabilidad de que la mujer padezca de hecho cáncer de mama? __________%.
Si presentamos los datos con el formato de muestreo natural, la fórmula del teorema de Bayes se
simplifica mucho:
𝑫&𝑯 𝟖
𝑷(𝐇|𝐃) = = = 𝟎. 𝟎𝟕𝟖
(𝑫 & 𝑯) + (𝑫 & 𝑯´) 𝟖 + 𝟗𝟓
perfectamente racional en el muestreo natural. Diferentes estudios comparativos entre las dos
modalidades (formato de frecuencias vs. Formato probabilístico) indicaron que el promedio de
algoritmos bayesianos correctos incrementó del 16% (formato probabilístico) al 46% (formato de
frecuencias).
“Sobre la evaluación y la predicción encuentran resultados similares, es decir, las personas hacen el
mismo juicio cuando se basan en datos que cuando realmente es una hipótesis del futuro. Está claro
que deberíamos de ser más cautos cuando se hace una predicción del futuro porque, aunque una
persona sea buena estudiante pueden ocurrir otras cosas que le lleven a suspender, por ejemplo, un
accidente o la muerte de un familiar o una depresión o cualquier motivo. Estas posibilidades no
parece que las tengamos en cuenta en las predicciones futuras”. ED
La predicción basada en la “impresión” de la descripción sin considerar otros factores que afectan,
da lugar a sesgos sistemáticos en el juicio probabilístico que responden al concepto de “ilusión de
validez”.
Supongamos que un grupo grande de niños ha realizado dos versiones equivalentes de una prueba
de aptitud y que seleccionamos cuatro grupos de niños: los 10 con mejores resultados y los 10 con
peores resultados en cada una de las dos versiones. Observaremos que los 10 mejores en cada
versión mostraron un rendimiento promedio inferior en la versión alternativa, y que los 10 peores
en cada versión rindieron en promedio mejor en la versión alternativa. En la vida cotidiana
encontramos muchos ejemplos de este fenómeno cuando comparamos la altura o la inteligencia de
padres e hijos o el rendimiento de las personas en exámenes consecutivos. Sin embargo, las
personas no desarrollan intuiciones correctas en relación a este fenómeno en la medida en que es
incompatible con la creencia de que el resultado predicho debería ser representativo al máximo de
la evidencia disponible y, por tanto, tan extremo como ésta.
El problema de Linda (muy citado a este respecto) describe el caso de mujer de 31 años, soltera,
sincera y muy brillante. Licenciada en Filosofía. Cuando era estudiante estaba profundamente
comprometida en temas de discriminación y justicia social, participando también en
manifestaciones antinucleares. Se presentan las opciones:
a) Linda es una maestra en escuela elemental.
b) trabaja en una librería y asiste a clases de yoga.
c) es feminista.
d) es asistente social en psiquiatría
e) es miembro de la Liga de Mujeres Votantes.
f) es cajera de un banco
g) es agente de seguros
h) es cajera en un banco y feminista
3 El conjunto de posibilidades asociadas con A.
La tarea consistía en asignar puntuación del 1 al 8 a las afirmaciones anteriores donde 1 fuera la
afirmación más probable y 8 la menos probable. La descripción de Linda fue diseñada para ser muy
representativa de una feminista activa (c) y muy poco de cajera de banco (f), por lo que se esperaba
que considerasen más representativa de la personalidad de Linda la conjunción (h) que el
componente menos representativo de la conjunción (f). El porcentaje de participantes que mostró
orden predicho (c > h > f), fue del 85%. La violación de la regla de conjunción es la comparación
directa entre f y h (falacia de la conjunción).
Según Teversky (1977), la semejanza de un ejemplar con una categoría se define en función de la
ponderación de las propiedades que son comunes y distintivas y esta ponderación varía en función
del contexto estimular y la tarea experimental. En la descripción de Linda, la ponderación con una
cajera de banco es baja. El hecho de añadir feminismo como rasgo distintivo explica la forma en que
los participantes ordenaron la lista de afirmaciones sobre las actividades que desarrolla ella, en
función del grado con el que encajaban con el estereotipo que se deriva de la descripción. Desde el
punto de vista de la regla extensional de la Lógica, la clase “cajeras de banco” incluye a la de “Cajeras
de banco feministas”, lo que invalida desde un punto de vista normativo el juicio probabilístico
emitido por los participantes, que invierte la relación probabilística de ambas clases. El heurístico
de representatividad explica dicha inversión.
La mayoría de los participantes eligieron el argumento no válido del parecido frente al argumento
extensional válido. Esto explica que aún cuando se induce una actitud reflexiva no elimina el
atractivo del heurístico de representatividad. Otros estudios sobre el tema, proporcionando
cuestionarios con preguntas sobre razonamiento probabilístico previo a la tarea, o bien incluso
investigando en dominios específicos y con expertos, los resultados siguen siendo consistentes con
el heurístico de representatividad.
La fama y la frecuencia en función del sexo estaban inversamente relacionadas en ambas listas. Los
participantes se dividieron en dos grupos:
• Grupo 1 se les pidió que recordaran el mayor número de nombres que pudieran de cada lista.
• Grupo 2 se les pidió que juzgaran para cada una de las dos listas si contenían más nombres
de hombres o mujeres.
Los resultados obtenidos en ambos grupos fueron de idéntico signo para las listas 1 y 2. Los
participantes del grupo 1 recordaron más nombres de mujeres de la lista 1 y más nombres de
hombres de la lista 2, lo que indica que fue la fama y no la frecuencia objetiva lo que determinó la
facilidad de recuerdo. En coherencia con este resultado, los participantes del grupo 2 estimaron que
la lista 1 contenía más nombres de mujeres que de hombres mientras que la lista 2 contenía más
nombres de hombres, en contra también de la frecuencia relativa real.
emocional ante la segunda película era significativamente más intensa que la reacción emocional a
la primera película.
La frecuencia estimada fue significativamente mayor para la primera posición en las cinco letras
estudiadas, demostrando sesgo en la estimación de la frecuencia relativa debido a la superior
facilidad de generar ejemplos que empiecen con una letra determinada frente a los que la contienen
en tercera posición. Posteriormente bajo condiciones más estrictas de control y alguna
modificación, se manipularon el valor informativo o diagnóstico de la experiencia subjetiva de
accesibilidad generando en los participantes a través de las instrucciones la atribución errónea de la
experiencia de facilidad de recuperación:
• Todos los participantes escribieron en un folio en blanco 10 palabras que contenían la letra
“t” en la tercera posición.
• Los grupos se diferenciaron en la manipulación experimental del valor diagnóstico de la
experiencia de facilidad de recuperación de las palabras que empezaban por la letra “t”:
o 1. El grupo “facilitación”, debía escribir las 10 palabras que empezaban por “t” sobre
un folio con filas de pequeñas letras “t” impresas en color pálido. A este grupo se le
informó que la impresión de estas letras facilitaría la tarea de recuerdo.
o 2. El grupo “inhibición”, debía escribiría 10 palabras que empezaban por “t” sobre el
mismo tipo de folio pero se le indicó que esto dificultaría su tarea de recuerdo.
o 3. El grupo de “control”, realizó la tarea sobre folio en blanco.
• Todos los participantes valoraron el grado de dificultad de una y otra tarea de entre 1 (muy
fácil) y 8 (muy difícil) inmediatamente después de realizar cada una de ellas.
• Los juicios de frecuencia de palabras que empiezan por “t” respecto a los que la contienen en
la 3ª posición se realizaron concluidas ambas tareas, emitiendo en escala de 8 puntos, donde:
o 1 = muchas más palabras con t en tercer lugar que palabras que empiezan por “t”.
o 8 = muchas más palabras que empiezan por “t” que palabras con ten tercer lugar.
Todos los sujetos (independientemente de la condición experimental) informaron que les resultaba
más difícil recordar palabras que la tienen en la tercera posición. El efecto de la manipulación del
valor diagnóstico de la experiencia de recuperación produjo un impacto significativo en los juicios
de frecuencia relativa de los participantes. Unos creían que la hoja facilitaba y emitieron juicio bajo
de frecuencia relativa de las palabras que empezaban por “t”; los del grupo de inhibición, creyeron
que su ejecución había sido inhibida y aportaron el juicio más alto de frecuencias relativas de las
palabras que empiezan por “t”. El juicio estimado de los participantes del grupo de control se situó
entre estos dos valores.
A destacar también los contextos donde se hace la tarea de búsqueda. Los contextos de palabras
abstractas como igualdad, justicia, ... resultan más fáciles de imaginar o asociar a historias vividas,
leídas o basadas en películas que palabras concretas (p. ej., Constitución o Convenio) desprovistas
de connotaciones que permitan evocar con facilidad escenarios.
Sherman, Cialdini, Schwartzman y Reynolds (2002) pusieron a prueba esta hipótesis. Los
participantes asignados al grupo de control (sólo lectura) leyeron un informe sobre una supuesta
enfermedad (hiposcenia-B). En la condición “fácil de imaginar” los síntomas de la enfermedad eran
concretos y probablemente experimentados por una gran mayoría de los participantes (cansancio,
dolor muscular, dolores de cabeza frecuentes, etc.). En la condición “difícil de imaginar” los
síntomas eran mucho menos concretos (sensación vaga de desorientación, mal funcionamiento del
sistema nervioso e inflamación del hígado). Los
participantes asignados al grupo experimental
(lectura+ imaginación) fueron también asignados o
bien a la condición “fácil de imaginar” o “difícil de
imaginar”. En la condición “fácil de imaginar”, a los
participantes se les indicó que debían leer el
informe mientras imaginaban cómo sufrían los
síntomas de la enfermedad durante un periodo de
tres semanas. A continuación, se pidió a todos los
participantes que juzgaran la probabilidad de sufrir
hiposcenia-B en el futuro en una escala de 10 puntos que iba desde muy probablemente (1) hasta
muy improbablemente (10).
Los resultados mostraron que los participantes del grupo “imaginación” mostraron una tendencia a
juzgar la probabilidad de contraer la enfermedad en la condición “fácil de imaginar” superior a la del
grupo de control, y una tendencia a juzgar la probabilidad de contraer la enfermedad en la condición
“difícil de imaginar” inferior a la del grupo de control.
El término correlación ilusoria propuesto por Chapman (1967), agrupa los errores que se producen
como resultado de la sobreestimación de la correlación entre dos eventos. En los experimentos de
Chapman los participantes recibían pares de palabras proyectadas en una pantalla. Unas a la
derecha (huevos, tigre o cuaderno) y otras a la izquierda (beicon, león, flor, barca) y se agrupaban
al azar. Los participantes sobreestimaron la frecuencia de aparición de los pares semánticamente
relacionados como: beicon-huevos o león-tigre. La relación semántica entre esas palabras explica
la fuerza de asociación en la memoria y la facilidad para su recuperación, lo que lleva a sobreestimar
la frecuencia objetiva.
La correlación ilusoria es uno de los mecanismos en que se basa la explicación del origen de las
supersticiones o las creencias mágicas, el “efecto de halo” y los estereotipos sociales. Sobreestimar
la correlación que existe entre dos factores distintivos, p. ej., cometer delitos y pertenecer a un
grupo minoritario, contribuye a generar estereotipos negativos sobre estos grupos (Mullen y
Johnson, 1990).
P. ej., cuando un participante juzga la probabilidad de que Linda sea cajera de banco (frente a cajera
de banco y feminista) está llevando a cabo dos procesos de sustitución. Sustituye la categoría “cajera
de banco” por su ejemplar prototípico, para después sustituir el atributo de probabilidad de la
pertenencia de Linda a la categoría por la propiedad de semejanza de Linda con el prototipo. Desde
el modelo normativo de la Teoría de la probabilidad, la probabilidad de pertenencia debería variar
con la probabilidad a priori de la categoría. Por el contrario, en la predicción por representatividad
de la pertenencia de un ejemplar a una categoría se descarta la probabilidad a priori porque el
prototipo de una categoría no contiene información sobre la frecuencia de sus miembros.
Redelmeier y Kahneman (1996) registraron el nivel de dolor informado cada 60 segundos en una
prueba de colonoscopia. Dicha prueba duraba entre 4 y 69 minutos. Se tenía paciente A y B, y los
resultados demostraron que la evaluación restrospectiva del dolor producido por la prueba, podía
predecirse con un grado considerable de eficacia promediando el pico más elevado con la magnitud
de dolor que había producido el momento final de la experiencia. “A” informó que había sido mucho
más desagradable pero el pico máximo no se diferenció entre ambos sujetos y el participante “B”
soportó una prueba más prolongada. Lo que ocurre es que el valor afectivo de la experiencia para
el “A” quedó determinado por ser este pico alto próximo al final de la prueba. Redelmeier, Katz y
Kahneman (2003) demostraron que el simple hecho de añadir al final de la experiencia un intervalo
corto de malestar mínimo produjo en los pacientes una evaluación global de la experiencia como
menos aversiva e incrementó el número posterior de pruebas de seguimiento4.
4La implicación de este hallazgo en el ámbito aplicado es que debería minimizarse el nivel de malestar físico cuando va a concluir la
experiencia y potenciarse la atención afectiva al paciente en el momento final en pruebas médicas dolorosas en las que el paciente debe estar
consciente.
Un doble proceso de sustitución da lugar al heurístico de prototipo que determina el juicio subjetivo
del sujeto. La categoría “dolor que produce la experiencia global” se sustituye por el prototipo
“promedio del pico más elevado de dolor y del valor más próximo al final de la experiencia”. Pero
en este caso la propiedad del prototipo no viene dada por la representatividad de la información
(duración total de la experiencia o magnitud promedio del dolor global) sino por su accesibilidad en
la memoria.
imagine que va a comprar una casa y le dicen que la casa vale 600.000 €. Usted dirá que es mucho y le dirá el vendedor, ponga un precio. El
heurístico de anclaje predice que usted usará esta ancla 600.000 € o para decir un precio después. Esto lo usan mucho los que venden pisos
porque saben que, aunque bajarán el precio, los compradores partirán de este precio”. ED
8x7x6x5x4x3x2x1
En la línea de los resultados de Jacowitz y Kahneman, la investigación más reciente sugiere que el
anclaje se origina con frecuencia en la fase de recuperación de la información y que el ancla actúa
como una sugerencia, haciendo la información consistente con el ancla más accesible. En apoyo de
esta interpretación, se demuestra que el efecto de anclaje no se produce si no se cumplen
determinadas condiciones de compatibilidad entre el ancla (valor inicial) y el juicio requerido
(respuesta final), como es la escala de medida en la que se formulan ambos.
El trabajo de Strack y Mussweiler (1997) demuestra que, además, es necesario que se expresen en
la misma dimensión (altura frente anchura). Estos autores utilizaron cuatro condiciones
experimentales.
A los participantes se les formularon dos preguntas. En la primera se les pedía un juicio comparativo
considerando valor del ancla “mayor o menor que”, y en la segunda un juicio absoluto. Se utilizaron
cuatro condiciones 2 x 2 (compatibilidad o no de la dimensión del ancla con la dimensión del juicio;
y valor del ancla alto frente a bajo). La interacción reveló que el efecto de anclaje solo fue
significativo cuando las dimensiones fueron iguales solo cuando el valor del ancla fue elevado. El
hecho de que el efecto de anclaje disminuya de forma significativa cuando la dimensión del juicio
difiere de la del ancla, no puede explicarse por el priming numérico que proporciona el ancla.
Sugieren los resultados que la fuerza del efecto depende de la medida en que la información es
activada por el ancla también se percibe como aplicable al juicio absoluto.
Strack y Mussweiler 1997 terminan su investigación con otro experimento que permite poner a
prueba la hipótesis del priming semántico y no el numérico por sí mismo, es el responsable de los
efectos de anclaje. Utilizaron cuatro condiciones experimentales, un 2 x 2 (ancla plausible / no;
ancla alta frente a baja).
Como variables dependientes se registraron valores de juicios y la latencia de respuesta en los dos
juicios (comparativo y de valor absoluto). El análisis de la latencia desvela algo interesante:
• Las latencias (tiempos) fueron significativamente mayores para las anclas plausibles frente a
las no plausibles, mientras que en los juicios absolutos este patrón fue al revés.
• Los datos sugieren que cuando el ancla es un valor plausible, los participantes resuelven la
tarea comparativa elaborando la respuesta en un proceso cognitivo que consume tiempo. La
información relevante es fácilmente accesible y acelera la respuesta en la tarea de juicio
absoluto posterior. Cuanto más tiempo consuma el juicio comparativo menos tiempo
consumirá el juicio absoluto.
• Las latencias en ambos juicios deberían estar inversamente correlacionadas, pero sólo en la
tarea comparativa cuando se utilice información relevante.
• En el caso de las anclas plausibles, ambas latencias de respuesta correlacionaron de forma
negativa y significativa de tal forma que las latencias más largas en el juicio comparativo
implicaban latencias más cortas en el juicio absoluto. Para las anclas no plausibles, sin
embargo, las latencias de respuesta de ambos juicios no correlacionaron.
determinado por el valor del ancla, el modelo de accesibilidad selectiva atribuye el sesgo en el juicio
absoluto a una ponderación excesiva de los rasgos comunes entre el ancla y la respuesta en
detrimento de los discrepantes, basada en una tendencia confirmatoria.
Si el ancla produce efecto sobre el juicio incrementando la accesibilidad de rasgos comunes y reduce
a los diferentes, el hecho de incrementar experimentalmente la accesibilidad de rasgos diferentes
debería reducir el sesgo hacia el valor inicial. Chapman y Johson (1999) pidieron a unos estudiantes
que predijeran sobre las siguientes elecciones presidenciales en EEUU.
• 1º Debían escribir los dos últimos dígitos del nº de la seguridad social y considerarlo como
una probabilidad.
• 2º Se les pide que pensaran en la probabilidad de que el candidato republicano ganara las
elecciones presidenciales y que compararan su respuesta con el número apuntado. Esta
primera estimación de probabilidad no se registró, para que se consideraran los dígitos como
valor de anclaje. Las probabilidades de anclaje fluctuaron de 0 a 99% con una media de 48%
y una mediana de 51%.
• 3º Asignar a los sujetos aleatoriamente a una de tres condiciones experimentales:
o Condición “a favor”: escribir razón por la que el republicano debía ganar.
o Condición “en contra”: escribir razón por la que el republicano no debería ganar.
o Condición “neutral”: no se les pidió escribir.
• 4º Se les pide una segunda estimación por escrito de que el candidato republicano ganara las
elecciones. Se establecieron tres categorías de participantes:
o 1. SIMILAR: los de razón a favor con valores de anclaje SUPERIOR al 50% y aquellos en
contra con anclaje INFERIOR al 50%
o 2. DIFERENTE: los de razón a favor con anclaje INFERIOR al 50% y aquellos en contra
con anclaje SUPERIOR al 50%
o 3. NEUTRAL: los del grupo neutral.
Los resultados confirmaron la hipótesis de partida demostrando que el efecto de anclaje fue
significativo sólo para las condiciones “similar” y “neutra”, y el sesgo de anclaje puede reducirse o
eliminarse propiciando que los participantes identifiquen razones discrepantes con el valor del
ancla.
Según Epley y Gilovich (2001), los procesos implicados en el efecto de anclaje difieren dependiendo
de si el ancla es suministrada por el experimentador o por cualquier otra fuente externa, o bien es
por el propio participante a partir de las preguntas planteadas. En este caso, el proceso de ajuste
sería el responsable del efecto en la medida en que el valor numérico del ancla, por su condición de
respuesta autogenerada, adquiriría el estatus de respuesta candidata con el peso específico
suficiente para iniciarlo.
Para poner a prueba esta hipótesis, los autores compararon dos condiciones experimentales: “el
valor del ancla lo genera el participante” frente a “el valor del ancla lo proporciona el
experimentador”. Las respuestas fueron grabadas, transcritas y evaluadas por dos jueces. Para cada
respuesta el juez evaluaba si el participante conocía el valor del ancla, si utilizaba esta como base de
la respuesta y si mencionaba el ajuste a partir del valor del ancla para alcanzar la estimación final 6.
El acuerdo entre estos era alto (0.94) y consideraron que los sujetos habían utilizado el mecanismo
de anclaje y ajuste si sus informes verbales se referían tanto al ancla como al proceso de ajuste. A
los que se les proporcionó utilizaron menos el mecanismo de ajuste a partir del ancla que aquellos
que habían generado de forma espontánea el valor inicial.
Epley y Gilovich 2001, coincidieron con Jacowitz y Kahneman proponiendo una taxonomía de
posibles efectos de anclaje en los juicios bajo incertidumbre en la medida en que son muchas las
variables que pueden intervenir en función de la tarea o experimento. Los resultados de la
investigación que hemos recogido en este apartado nos permiten señalar algunas de ellas: la
magnitud del valor del ancla, alto frente bajo, la compatibilidad o no de la escala de media y
dimensión del ancla y el juicio absoluto, el grado de plausibilidad del ancla, y el hecho de que el
ancla sea generada de forma espontánea por el participante o comunicada por el experimentador.
6
Ante la pregunta ¿cuándo fue elegido Washington presidente de los Estados Unidos? los participantes procedían, por ejemplo, de esta forma: «Si Estados Unidos
declaró su independencia en 1776 (ancla autogenerada), llevaría algunos años la elección del presidente, por tanto, Washington debió ser elegido en …». Ante la
pregunta ¿cuándo llegó a las Indias Occidentales el segundo explorador europeo, posterior a Cristóbal Colón?, un ejemplo de utilización de un ancla autogenerada
como base de la respuesta fue: «Si Cristóbal Colón llegó a las Indias Occidentales en 1492, el segundo explorador europeo debió llegar en …»
Tversky y Koehler (1994) desarrollaron una teoría no extensional en la cual la probabilidad subjetiva
no está ligada a los acontecimientos, sino a las descripciones de estos, denominadas hipótesis. La
evidencia empírica demuestra que el juicio probabilístico sobre un evento determinado depende
del grado en que se explicita su descripción. Cada hipótesis A, posee un valor de apoyo determinado,
s(A), que corresponde a la fuerza de la evidencia favorable a dicha hipótesis. La clave es que
desempaquetar la descripción de una hipótesis en sus posibles componentes o hipótesis
elementales generalmente aumenta su apoyo. Así, el apoyo de la disyunción explícita Ca ѵ Cn es igual
o mayor que el apoyo de la disyunción implícita, C, que no menciona ninguna causa. Por tanto:
𝑠(𝐶) ≤ 𝑠(𝐶𝑎 𝑉 𝐶𝑛 )
La Teoría del apoyo es subaditiva para disyunciones implícitas (C), y aditiva para las disyunciones
explícitas (Ca V Cn):
𝑠(𝐶𝑎 𝑉 𝐶𝑛 ) = 𝑠(𝐶𝑎 ) + 𝑠(𝐶𝑛 ),
La tarea consistía en evaluar una hipótesis implícita (muerte como resultado de causa natural) o una
disyunción explícita (muerte a consecuencia de una enfermedad cardiaca, cáncer o alguna otra
causa natural), pero nunca ambas. Se definieron tres componentes y cada uno se dividía en 7
7“El juicio lo hacemos mejor cuando se trata de una población que para un caso individual concreto, por tanto, las diferencias entre lo explícito
e implícito serán menores. La probabilidad del todo es igual a la suma de las partes, es decir, si la probabilidad de encontrar trabajo es el 70%.
Esto es igual a la probabilidad de encontrar trabajo en un hospital (15%) + la probabilidad de encontrar trabajo en un colegio (15%) + la
probabilidad de encontrar trabajo en una empresa (15%) + la probabilidad de encontrar trabajo en otro sitio (25%). Sin embargo, las personas le
damos más probabilidad a las disyunciones explícitas (la suma de las partes) que al todo (la disyunción implícita)”. ED
subcomponentes. Se esperaba que el hecho de explicitar en mayor medida las causas de la muerte
incrementaría la subaditividad: la diferencia entre la probabilidad asignada a la hipótesis implícita y
la suma de las probabilidades de los componentes de la hipótesis.
Tversky y Koehler (1994, 2002) formulan un modelo subaditivo del juicio probabilístico para las
disyunciones implícitas que contrasta con el modelo bayesiano, que asume el supuesto de
La teoría del apoyo predice que P(A) ≤P (A1 ∨ A2) como consecuencia del “desempaquetado” de la
hipótesis implícita. Por contraste, el modelo bayesiano asume el principio de extensión en la teoría
de la probabilidad, por lo que predice que P(A) = P (A1 ∨ A2).
El principio de extensión es posiblemente una de las reglas más simples y transparentes en la teoría
de la probabilidad. Su violación es uno de los errores más llamativos y sorprendentes del
razonamiento probabilístico. La regla de la conjunción es violada por la falacia de la conjunción; la
regla de la disyunción, donde la probabilidad De (A o B) no puede ser inferior ni a la probabilidad de
A ni a la de B porque constituye la suma de ambas. La subaditividad8 demostrada en el juicio
probabilístico es una clara violación de la regla de la disyunción cuando no se explicitan las causas
de un evento en una disyunción implícita.
Van Boven y Epley (2003) generalizaron el hallazgo de Tversky y Koehler a juicios evaluativos con
valor afectivo, en los que se juzga el carácter positivo o adverso de una categoría o de las
consecuencias de un acontecimiento. Los autores señalan que los factores más relevantes que
explican el efecto serían las descripciones detalladas de los elementos constituyentes de una
hipótesis permitiendo recordar con mayor facilidad posibilidades que han pasado por alto y facilitan
la simulación mental y la imaginación vívida de las categorías o acontecimientos. Parece ser que en
los juicios evaluativos de una categoría parece jugar un papel más importante la facilidad con la que
se recuerdan sus elementos constituyentes que la cantidad total de elementos que pueden
recuperarse.
Esta teoría da cuenta del razonamiento extensional sobre probabilidades (del razonamiento
deductivo que genera la probabilidad de un acontecimiento a partir de las diferentes posibilidades
en que puede ocurrir). Se basa en 3 principios fundamentales:
• Principio de verdad. Las personas representan situaciones construyendo exclusivamente
aquellos modelos mentales que responden a una posibilidad verdadera, debido a la
8 “La subaditividad es la diferencia de la probabilidad implícita y explicita. Por ejemplo, atendiendo a las matemáticas la probabilidad de conseguir
un trabajo es 0,70 (disyunción implícita) y esto es igual a la probabilidad de encontrar trabajo en un hospital (15%) + la probabilidad de encontrar
trabajo en un colegio (15%) + la probabilidad de encontrar trabajo en una empresa (15%) + la probabilidad de encontrar trabajo en otro sitio
(25%). Es decir, 0,70=0,15+0,15+0,15+0,25” ED
De acuerdo con Johnson-Laird y cols. (1999) la probabilidad de que Pat sufra la enfermedad puede
ser calculada a partir de la representación extensional de los modelos mentales vistos en la tabla
anterior sin necesidad de utilizar el Teorema de Bayes.
• Principio del subconjunto. Suponiendo la equiprobabilidad, la probabilidad condicional
p(A|B) depende del subconjunto de B que es A, y la proporcionalidad de A respecto a B da
lugar al valor numérico. Si los modelos se etiquetan con sus frecuencias absolutas entonces
la probabilidad condicional es igual al modelo de A y B dividido por la suma de todas las
frecuencias de modelos que contienen a B (los sujetos asignan erróneamente valores al
numerador o denominador).
Extraerían este subconjunto erróneamente del conjunto de todas las posibilidades y afirmarían que
la relación probabilística es 3/4. En este caso, los sujetos estarían no estarían atendiendo a la
capacidad predictiva del dato, es decir, a la probabilidad de que el síntoma (B) se observe en
ausencia de enfermedad (no A).
Giutto y Gonzalez (2001), manipularon el contenido de las instrucciones aplicando el principio del
subconjunto para calcular la probabilidad condicional inversa. Para resolver problemas similares al
de Pat y plantearon dos pasos pidiendo que se completaran frases como las siguientes:
“Vamos a analizar cuál es el problema de que Pat sufra la enfermedad en el supuesto de que presente
el síntoma. Del total de 10 posibilidades, Pat tiene ________posibilidades de tener el síntoma; entre
éstas posibilidades, _________posibilidades estarían asociadas con la enfermedad.”
Las instrucciones facilitaron la respuesta correcta (de 5 posibilidades de tener el síntoma, 3 están
asociadas con la enfermedad) en el 53% de los participantes, frente al 8% en la condición de control.
Barbey y Sloman (2007), integran el enfoque de los modelos mentales enmarcado dentro de las
hipótesis de los conjuntos anidados. Los errores y sesgos en la inferencia bayesiana se reducen de
forma considerable cuando el planteamiento del problema facilita la representación de las
relaciones inclusivas de las categorías relevantes para resolverlo. Según éstos el que se haga más
fácil debido a la presentación de frecuencias en vez de en formato de probabilidades, se debe a que
el formato de frecuencias contribuye a clarificar y hacer más transparentes las relaciones inclusivas
pertinentes. Los autores presentaron mediante gráfica con círculos de Euler, el rendimiento de dos
grupos de sujetos en dos versiones de un problema:
“Se ha desarrollado una prueba para detectar una enfermedad. La probabilidad de que un americano
la padezca es de 1/1000. Un individuo que no padece la enfermedad tiene una probabilidad del 5%
de dar positivo en la prueba. Un individuo que padece la enfermedad dará positivo en la prueba en
todos los casos. ¿Cuál es la probabilidad de que una persona extraída al azar que dé un resultado
positivo padezca realmente la enfermedad? ______ %”
9
P(H|D) = P(D|H)·P(H)/[P(D|H)·P(H) + P(D|H')·P(H')] P(enfermedad|síntoma) = P(síntoma|enfermedad)·P(enfermedad)/[P(síntoma|enfermedad)· P(enfermedad)
+ P(síntoma|no enfermedad)·P(no enfermedad)] =.3/4 · 4/10/ [(3/4 · 4/10)+ (2/6 · 6/10)] = 0.30/(0.30 + 0.20) = 0.30/0.50 = 3/5.
Sloman y cols. (2003) demostraron que el hecho de añadir la categoría de “falsos negativos” 10 al
problema incrementaba significativamente la dificultad, tanto en términos de probabilidad como de
frecuencias. La nueva categoría no era relevante y no altera el valor del resultado, pero incrementa
significativamente la complejidad. La nueva categoría supone la representación de un modelo
mental adicional que aumenta la “carga” en la memoria de trabajo y dificulta la aplicación del
principio del subconjunto para alcanzar la solución correcta del problema. Se intenta minimizar la
carga de la memoria de trabajo representando de forma explícita sólo aquellos casos en los que las
premisas son verdaderas y se pasan por alto los casos en que son falsas. Johnson-Laird y Savary
(1996) demostraron que, razonando sobre probabilidades relativas, la mayor parte de los sujetos
alcanzaban conclusiones imposibles cuando no consideraban los casos en que las premisas son
falsas. Describimos de forma abreviada uno de los problemas presentados a los participantes en el
Experimento 1.
La respuesta mayoritaria de los sujetos es el “As” y se justifica porque el “As” aparece en una
proporción superior de modelos mentales. La respuesta no es correcta. El enunciado es planteado
como disyuntiva (X o Y, pero no ambas), Por tanto, no pueden ser ciertas las premisas una y dos.
Nunca el “As” podría ser más probable que el “REY”. Cuando los casos falsos se tienen en cuenta y
no se contempla la equiprobabilidad11 de los modelos mentales, la respuesta correcta emerge con
facilidad en la representación mental del sujeto.
Cuando la basamos en la menor información
explícita para evitar saturar nuestra limitada
capacidad de procesamiento, podemos llegar a
conclusiones ilusorias sobre lo que es más
probable. El exceso de confianza subjetiva
emitida revela modalidades de ilusiones
cognitivas.
El supuesto teórico de” Subaditividad” en el razonamiento probabilístico de la Teoría del apoyo
permite explicar la violación de la regla de disyunción (derivada del axioma 3 de la Teoría de la
probabilidad) y, de la regla de conjunción (derivada del axioma 4), que se producen como
consecuencia de la aplicación de los heurísticos de accesibilidad y representatividad,
respectivamente.
11 “La equiprobabilidad se refiere a que todas las posibilidades son igual de probables y la proporcionalidad se refiere a cuál es la probabilidad
de sacar un rey, por ejemplo, entonces habría que dividir la probabilidad del rey entre el número total de posibilidades”. ED
Los supuestos teóricos de la Teoría de los modelos mentales permiten explicar las dificultades en la
representación mental de las relaciones inclusivas relevantes para resolver correctamente la
inferencia bayesiana como consecuencia de las limitaciones en la memoria de trabajo. En uno y otro
caso, los sesgos sistemáticos observados son el resultado de la violación de los principios de la lógica
inclusiva en el modelo normativo de la Teoría de la probabilidad.
ciudades a y b tuvieran ambas equipo de fútbol, esta clave no sería válida pues no ayuda a responder
la pregunta. La teoría asume que el orden en que se generan las claves refleja una jerarquía de
acuerdo con su grado de validez.
De acuerdo con la teoría de los MMP, el sesgo de sobre-confianza, esperado en los juicios sobre
cada pregunta individual de cultura general, debería corregirse y ajustarse a la eficacia objetiva
cuando se emite un juicio de frecuencia. El supuesto que justifica esta predicción es que cada bloque
de preguntas, consideradas en su conjunto, debería constituir una muestra de la clase de referencia
natural “conocimiento de cultura general que he demostrado en pruebas o exámenes previos”.
En relación con los juicios de confianza se observa un sesgo de sobre-confianza que es más acusado
cuanto mayor es la eficacia de las respuestas de los sujetos. El sesgo se corrige cuando se utilizan
preguntas representativas. La curva de confianza para el grupo de preguntas representativas se
asemeja a una curva de regresión para la estimación del porcentaje de aciertos a partir de la
confianza asignada, revelando subconfianza en la parte izquierda, sobre-confianza en la derecha y
12"Los resultados mostraron un sesgo de sobre-confianza en las preguntas seleccionadas que es acusado cuanto mayor es la eficacia de las
respuestas de los sujetos." Si observamos la figura 6.8, la línea correspondiente a las preguntas seleccionadas observamos que el primer punto
indica aciertos inferiores al 50% ya tiene una confianza del 50%, es decir ya se observa sobreconfianza, pero esto ocurre hasta el último punto
que indica aciertos del 70% y una seguridad de acierto del 100%. Esto indica sobreconfianza a lo largo de todo el rango, de hecho, siempre está
debajo de la línea gris que sería una calibración perfecta.
El sesgo se corrige cuando se utilizan preguntas representativas. La curva de confianza para el grupo de preguntas representativas se asemeja a
una curva de regresión para la estimación del porcentaje de aciertos a partir de la confianza asignada, revelando subconfianza en la parte
izquierda de la escala de confianza, sobreconfiaznza en la derecha y cero sobreconfianza como promedio." Esto significa que las preguntas
representativas muestran subconfianza en la parte izquierda, es decir, tienen aciertos de cerca del 60% y muestran confianza del 50%. Esta
subconfianza se corrige hasta llegar a la sobreconfianza conforme aumenta el porcentaje de respuestas correctas, de hecho, cuando acierta cerca
del 90% el sujeto indica que la seguridad en su respuesta es el 100%
Si te fijas las respuestas emparejadas, a pesar de ser similares a las representativas (sobre ciudades) al igualarse en dificultad con las
seleccionadas (de cultura) realmente funcionan igual que éstas últimas. En la figura 6.8 se observa que tanto las líneas de respuestas emparejadas
como seleccionadas son bastante similares.
¿Se corrige el sesgo observado cuando el juicio de confianza se refiere a la frecuencia de aciertos en una muestra representativa de preguntas
seleccionadas? Sí, el sesgo no se produce en el juicio de frecuencia (recuerda que cada 50 preguntas preguntaban por el porcentaje de aciertos y
aquí es donde no se produce el sesgo). La diferencia media entre la frecuencia estimada de respuestas correctas en cada bloque de preguntas
seleccionadas y la frecuencia real no difirió significativamente de 0. Recuerda que según los autores el sesgo de sobre-confianza debería corregirse
cuando se emite un juicio de frecuencia”. ED
• Regla de discriminación. Una clave discrimina entre dos objetos si uno de ellos tiene un valor
positivo en la clave y el otro no lo tiene.
• Principio de sustitución de la clave. Como se observa en el diagrama de flujo de la figura 6.9,
si la clave discrimina, se para la búsqueda de nuevas claves. Si la clave no discrimina se vuelve
al paso 2 y se continua la búsqueda hasta que se encuentra la clave que discrimina
• Regla de maximización para la elección. Se elige el objeto con valor positivo en la clave. El
algoritmo TTB es un procedimiento no compensatorio, sólo la clave que mejor discrimina
determina la inferencia, sin que la combinación de valores de claves diferentes ni la
integración de información puedan contrarrestar la elección basada en la clave con mayor
validez.
El algoritmo “elige el mejor” TTB se enmarca dentro de un modelo de racionalidad ecológica que
permite explicar cómo el sesgo de sobre-confianza se corrige cuando el participante realiza la
inferencia sobre objetos de su entorno natural, que le permiten seleccionar claves probabilísticas
con suficiente validez en relación a una variable derivada de la clase de referencia. Una clave
probabilística válida es aquella capaz de predecir la inferencia adecuada.
13“Eficacia se refiere a si responden correctamente a la pregunta y confianza es porque le preguntan después de responder si creen que han
respondido correctamente a la pregunta (confianza). La relación entre eficacia y confianza se calcula dividiendo una a otra y sobre-confianza es
cuando muestran más confianza en sus respuestas que realmente fueron la eficacia de sus respuestas”. ED
Imaginemos que debemos juzgar la probabilidad con la que una persona será contratada a partir de
una carta de recomendación escrita en términos cálidos y enfatizando en sus cualidades positivas.
En general, las personas focalizamos en la fuerza o carácter extremo del contenido de la carta y
tendemos a predecir un resultado favorable al candidato, sin atender de forma suficiente al peso o
validez predictiva de la carta: la credibilidad de quien la escribe, tendemos a pasar por alto el tamaño
de la muestra; es decir, la frecuencia con la que la persona que escribe la carta lo hace en términos
cordiales y positivos, con independencia de las características específicas del candidato. El modelo
teórico del juicio probabilístico que integra esta dicotomía predice sobre-confianza cuando la fuerza
es elevada y el peso es bajo y sub-confianza cuando la fuerza es baja y el peso es elevado. El hecho
de que la fuerza de la evidencia tienda a dominar su peso responde a que el sujeto se focal iza
inicialmente en la impresión que le produce la evidencia (la calidez de la carta) para después ajustar
el juicio de acuerdo con su conocimiento de su validez (la fiabilidad del que la escribe). El juicio
combina el anclaje en la fuerza de la impresión, basado en este ejemplo en la representatividad de
la evidencia, con un proceso de ajuste que tiene en cuenta el valor predictivo de la evidencia, pero
que resulta insuficiente.
14“Según este modelo se produce sub-confianza cuando el rendimiento (la fuerza o evidencia objetiva) fue superior/alto al juicio de confianza
(o peso; preguntas fáciles) mientras que muestran sobre-confianza cuando el rendimiento fue inferior al juicio de confianza (difíciles o
imposibles)”. ED
Koehler y colaboradores (2002) analizaron los datos de nueve investigaciones, que se agrupan en
tres categorías. Un grupo de médicos realizó el estudio clínico individual de distintos pacientes que
padecían “tos aguda” persistente. Cada paciente era examinado por un solo médico y este rellenaba
una lista de síntomas estandarizada. Luego se pedía al médico que estimara la probabilidad de que
el paciente tuviera neumonía en una escala de 0 a 100 (sin conocimiento de la radiografía) La “tos
aguda y persistente” era el dato y “padecer neumonía” la hipótesis focal. La capacidad predictiva
del dato respecto a la hipótesis focal constituye un indicador de la calidad o el peso de la evidencia.
El parámetro alfa constituía un dato objetivo y su valor aumenta en relación directa con la capacidad
predictiva del dato respecto a la hipótesis focal, frente a otras hipótesis alternativas.
El juicio de los médicos muestra una marcada sub-confianza cuando tanto la probabilidad a priori
como la discriminabilidad son elevadas, una ligera sobre-confianza cuando la probabilidad a priori
es baja y la discriminabilidad es alta, y una sobre-confianza extrema cuando la probabilidad a priori
es muy baja y la discriminabilidad es baja.
Koehler y cols. (2002) interpretan que la “impresión” que causa el síntoma cuando el médico se
enfrenta a un caso particular se ve reforzada por la accesibilidad de la fuente de información: el
carácter vívido de la experiencia personal y la proximidad al paciente. La “saliencia” del síntoma
parece variar en relación inversa con la tasa de la enfermedad en la población. Cuanto más atípica
resulta la enfermedad, mayor relevancia adquiere el síntoma y esta relevancia facilita la
recuperación de la memoria de información coherente con la evidencia, que resulta de mayor
medida disponible. La disponibilidad de síntomas coherentes con la hipótesis focal contribuye a su
proceso de “desempaquetado” en sus síntomas componentes, incrementando así su probabilidad
subjetiva. El sesgo en la focalización inicial del juicio a favor de la hipótesis focal respecto a las
nuestra concepción sobre un hecho del pasado si la evidencia disponible la contradice. Este sesgo
es extremadamente robusto demostrado a lo largo de todas las etapas evolutivas de la vida.
Blank y fischer (2000), realizaron el experimento en el cual los participantes predecirían los
porcentajes de voto que obtendrían los distintos partidos políticos en las elecciones y recordar las
predicciones después de las elecciones. Los participantes recordaron haber estimado un porcentaje
de voto que difería en un punto del porcentaje real, desviándose de forma significativa de sus
predicciones iniciales. Se les preguntó si el resultado les sorprendía. La mitad no se sorprendió
afirmando que los resultados coincidían con su predicción personal. El resto afirmaron que los
resultados no podían ser de otra manera y ofrecían distintas razones que justificaban la necesidad
del resultado. Los tres componentes del sesgo retrospectivo identificados inicialmente por Fischhoff
y cols.:
• Las impresiones de necesidad. Reflejan el grado en que los resultados de un acontecimiento
se perciben como determinados casualmente. Se explica porque las personas elaboramos
antecedentes consistentes con el resultado de forma que parezca en mayor medida
predeterminado.
• Las impresiones de predictibilidad. Asumen las percepciones y juicios coherentes con el
hecho de que los resultados podrían haberse anticipado. Efecto de “siempre supe que iba a
ocurrir”. La predictibilidad implica consideraciones metacognitivas que presuponen que el
resultado podría haberse anticipado en algún momento.
• Las distorsiones de la memoria. Revelan el recuerdo erróneo de que sus predicciones
estuvieron muy cerca de lo que de hecho lo estuvieron. Estas distorsiones están gobernadas
por procesos de memoria que se concretan en el anclaje en el resultado y la reconstrucción
de la predicción inicial.
Blank, Nestler, van Collani y Fischer (2008) definen los procesos psicológicos que subyacen a cada
uno de estos componentes. En el caso de la atribución causal las personas elaboramos antecedentes
consistentes con el resultado de forma que parezca en mayor medida predeterminado. La impresión
de predictibilidad implica consideraciones metacognitivas que presuponen que el resultado podría
haberse anticipado en algún momento. Finalmente, las distorsiones en el recuerdo están
gobernadas por procesos de memoria que se concretan en el anclaje en el resultado y la
reconstrucción de la predicción inicial. El denominador común no dista de ser el resultado de la
construcción narrativa basada en la búsqueda de coherencia.
REFERENCIAS:
• RESUMEN M. GORETTI GONZÁLEZ
• GONZÁLEZ LABRA, M., SÁNCHEZ BALMASEDA, P., & ORENES CASANOVA,
I. (2019). PSICOLOGÍA DEL PENSAMIENTO. MADRID: SANZ Y TORRES.
• Aclaraciones ED.
CAPÍTULO 7. TOMA DE DECISIONES
1. INTRODUCCIÓN
Los juicios probabilísticos son parte del proceso de toma de decisiones porque la incertidumbre se
encuentra presente en el proceso de decisión. El primer paso es el planteamiento general de cuál es
la decisión que hay que tomar. Este planteamiento de la decisión determina las alternativas que se
generan, lo que da lugar a resultados completamente diferentes. Por ejemplo, Luisa tiene 50 años
no encuentra trabajo y tiene que decidir qué hacer: ¿cuál será la mejor forma de lograr un buen
trabajo? Son alternativas centradas en aspectos económicos. Pero si, por el contrario: ¿qué pude
podría ampliar su formación? ¿Pido ayuda a mi hermana para que me enchufe en una de las
subcontratas que trabajan para su empresa? ¿Atraco un banco? Las alternativas serán diferentes.
Esto mismo ocurre en decisiones políticas o sociales. Las alternativas generadas, la decisión, será
completamente distinta según el tipo de preguntas que se haga el individuo.
Este planteamiento general está determinado por las metas de la persona. Los sujetos con metas a
corto plazo o a largo plazo decidirán de forma diferente. Una persona que desea trabajar los dos
meses de verano para ganar dinero e invertir en sus estudios futuros, puede elegir un empleo de
muchas horas (aunque sea ilegal) y con mucha dedicación, y con un buen sueldo. Sin embargo, con
metas a largo plazo, elegirá empleos que le permitan mantener calidad de vida, y ganar algo menos
de salario.
Ante una decisión importante (deliberada y consciente) el siguiente paso sería la generación de las
alternativas u opciones, sin desechar a priori ninguna de ellas. Serán diferentes en función del
conocimiento y de los valores de la persona, así como de los factores socioculturales. Normalmente
discriminar entre alternativas está determinado por la accesibilidad de la información, al decidir
entre varios productos. Se tiende a tener en cuenta la información presentada y sólo en la forma
que se presenta, ignorando a la vez datos que han de inferirse, transformarse o recuperarse de la
memoria. P. ej. Al comprar un coche en función de la publicidad evaluamos las características más
salientes, atendemos a los accesorios, diseño o detalle que el fabricante ha merecido hacer hincapié.
Una vez generado un número suficiente de alternativas, se evalúan con el fin de elegir la mejor. En
la compra del coche pocas personas evalúan la fiabilidad, el consumo, o la seguridad. Una decisión
correcta debería tener en cuenta tanto la probabilidad de que la característica se de (la tasa de
fiabilidad de la marca elegida), como las consecuencias, que equivaldrían al valor o a la importancia
que la persona da a esta característica.
en la creencia, una vez conocido el resultado final, de que las cosas no podían suceder de distinta
forma y que ya lo habíamos predicho.
expectativas con los intereses y los deseos personales. El árbol de decisión no proporciona una
solución, pero sí la representación de las expectativas sobre la ocurrencia de los hechos futuros y de
la evaluación de sus consecuencias. Ello permite visualizar gráficamente cuál es la alternativa que
brinda una mayor satisfacción y su expectativa según nuestros criterios.
En la toma de decisiones se suelen diferenciar tres situaciones relacionadas con las expectativas:
• Aquellas en las que se conocen las probabilidades (comprar un billete de lotería).
• En las que se desconocen las probabilidades y éstas se pueden estimar (seguir trabajando en
la empresa familiar o poner negocio propio).
• Situaciones en las que hay certeza sobre las opciones y sólo se ha de elegir entre las mismas
(pedir carne o pescado en el restaurante) La certeza indica que no hay dudas sobre los
acontecimientos futuros y la decisión se toma bajo este supuesto.
La teoría normativa asume que cuando decidimos, lo hacemos eligiendo aquello que tiene el
máximo valor en los resultados que se esperan obtener. Unos matemáticos del XVII y XVIII
(Bernoulli) consideraron estudiar la probabilidad y la toma de decisiones en los juegos de azar como
pauta de comportamiento óptima. El objetivo era encontrar la forma de cuantificar el valor de una
apuesta en los juegos o en decisiones bajo condiciones de riesgo. Bajo este supuesto se
denominaron Modelos del valor esperado coincidiendo este valor con la esperanza matemática el
juego.
Según la teoría del valor esperado los sujetos buscan maximizar sus ganancias y elegirán la opción
1. No obstante, no todos se ajustan a la elección y prefieren la opción 2, en la que se gana menos,
pero se gana siempre. Ello hizo que el “valor esperado” fuera sustituido por el concepto de la utilidad
esperada, entendida como el grado en que las consecuencias de una opción alcanzan las metas
personales en una situación determinada.
Según el criterio del valor esperado, el jugador B debería participar en el juego si el valor esperado
es mayor que la suma exigida para entrar a jugar y rechazar la propuesta cuando ésta sea menor.
Para calcular el valor esperado total del juego se suman todos los valores esperados en cada
lanzamiento (1+1+1+1+1+…+…=∞), dando como resultado un número infinito de “ducados”. La
paradoja surge porque con un valor infinito se debería apostar cualquier cantidad de dinero. Al señor
B le interesa que salga cara lo más tarde posible. Los resultados evidenciaron que generalmente no
están dispuestas a apostar más de 20 monedas por participar. Pone de manifiesto que no es realista
asumir que B espere poder jugar durante tiempo ilimitado para obtener número infinito de monedas
a cualquier precio.
Para resolverlo, Daniel Bernoulli (1738) propuso la noción de utilidad esperada como valoración
subjetiva de las posibles consecuencias monetarias del juego. Es en función de la riqueza de cada
individuo y está en relación inversa a su nivel de riqueza. Ganar o perder 200 euros no es lo mismo
para un rico que para un pobre, y cuánto más dinero se tenga menos se valorará dicha ganancia o
pérdida. El autor también comenta de utilidad marginal decreciente al señalar que la función de
utilidad es siempre creciente, pero crece cada vez más despacio. Es necesario diferenciar entre el
valor esperado (cantidad objetiva) y la utilidad esperada que depende de las circunstancias
subjetivas de cada uno. En la paradoja descrita los individuos están dispuestos a pagar distintas
cantidades por participar en el juego según su criterio, aunque el valor esperado sea infinito. Esta
distinción permite analizar la toma de decisiones bajo riesgo considerando las valoraciones
subjetivas que hacemos. Daniel Bernoulli cuenta con el reconocimiento de haber sentado las bases
de la moderna teoría de la decisión al lograr demostrar que el valor del dinero no es el mismo para
todos y que las personas lo valoran en proporción a la utilidad que pueden obtener de él.
Los autores proponen unos axiomas que garantizan la coherencia en el proceso de toma de
decisiones. Se necesita una escala de preferencias con la que poder evaluar las opciones. La noción
de utilidad es la escala de preferencias con mayor aceptación de los modelos normativos. Con esta
se está asumiendo que las metas u objetivos de las personas se expresan en sus preferencias,
buscando resultados acordes con los valores que se tienen.
Se asume que los atributos de una opción son independientes y que cada uno tiene un peso o
importancia. Implica ello que cada uno tiene una utilidad que indica el grado en que esa propiedad
contribuye a alcanzar las metas y objetivos. Las personas conocen su entorno, son capaces de
ordenar las alternativas según el criterio de utilidad y eligen la de mayor proceso de maximización.
La decisión óptima será aquella que refleje sus preferencias.
Como modelo normativo, la teoría de la utilidad esperada también presenta las siguientes ventajas:
• La consideración de toda la información disponible sobre las diferentes opciones.
• La comparación entre cualquier par de opciones dado que comparten una misma escala de
preferencias.
• El establecimiento de una estructura de preferencias coherente a partir de la determinación
de la utilidad de cada opción.
ordinal de la utilidad. Los axiomas son principios fundamentales e indemostrables sobre los que se
construye una teoría. Son proposiciones claras y evidentes que se admiten sin demostración, pero
pueden no serlo. A veces estos axiomas pueden no ser necesariamente evidentes, pero su expresión
lógica se utiliza para la deducción y así poder generar conceptos a partir de ellos.
Savage (1954) generalizó la teoría de la utilidad esperada para permitir la inclusión de las
probabilidades subjetivas basadas en las creencias propias u opiniones sobre probabilidad de los
hechos. Edwards (1954) denomina a esta ampliación “el modelo de la utilidad subjetiva esperada”
en un artículo que fue el primer intento de la psicología por acercarse a este dominio. Sin embargo,
no es habitual hacer una distinción porque los axiomas y teoremas sistematizados de Savage cumple
las leyes de la teoría de la utilidad esperada y las probabilidades subjetivas que contempla, cumplen
las leyes de la probabilidad.
Esta utilidad describe las preferencias de un sujeto y los axiomas imponen las restricciones sobre
sus posibles relaciones, aunque no determinen cuáles son estas transferencias. Esta teoría proponía
que para ser racionales en la toma de decisiones no hacía falta compartir la misma función de
utilidad, sino que bastaba con ajustarse a los mismos axiomas normativos en esa búsqueda por
alcanzar la máxima utilidad esperada que había sido definida individualmente.
La paradoja formulada por Allais se centra en la violación del axioma de independencia. Si una
alternativa A se prefiere a B, entonces cualquier combinación de A y C con una probabilidad
determinada debe ser preferida a otra combinación de B con C con la misma probabilidad. Allais
describió dos situaciones:
Primera situación:
Alternativa A: ganar 1 millón de euros con la probabilidad 1 (con total certeza)
Alternativa B: ganar 2,5 millones con la probabilidad de 0,10. ganar 1 millón con la probabilidad
de 0,89, o ganar 0 euros con probabilidad de 0,01.
En esta primera la mayoría opta por la alternativa A en la que se gana 1 millón con certeza. Para
hacer el cálculo de la utilidad esperada entre ambas alternativas se considera la ganancia de 1 millón
eliminando la probabilidad de la misma de la alternativa B y conservando la probabilidad restante
en la alternativa A (1 – 0,89=0,11). Las alternativas quedarían de la siguiente forma:
Alternativa A: ganar 1 millón con probabilidad de 0,11
Alternativa B: ganar 2,5 millones con probabilidad de 0,10 y ganar 0 euros con probabilidad de 0,01
Elegir la opción A implica que la utilidad U(A) 0,11 es mayor que la utilidad de la alternativa B , donde
U(B) 0,25.
U(A)0.11>U(B)0.25
U(A)=0.11 U(1 millón)=0,11
U(B)=0.10 U(2.5 millones)+0,01U(0€)=0.25
La paradoja se plantea cuando se presenta la segunda situación en la que las dos alternativas
comparten una ganancia de 0 euros.
Segunda situación:
Alternativa C: ganar 1 millón con la probabilidad de 0.11; ganar 0 euros con probabilidad de 0.89
Alternativa D: ganar 2,5 millones con probabilidad de 0.10 ganar 0 euros con probabilidad de 0.90
“El resultado del cálculo de la utilidad es el mismo para ambas situaciones, pero las respuestas de
los sujetos son diferentes dependiendo de cómo se presente el problema. Las situaciones primera y
segunda en la paradoja de Allais son equivalentes: la utilidad de A= 0.11, la utilidad de B= 0.25, la
utilidad de C= 0.11 y la utilidad de D= 0.25. Según el principio de independencia, las personas que
eligen A en la primera situación deberían elegir C en la segunda y las personas que eligen B en la
primera situación deberían elegir D en la segunda. El axioma de independencia se viola porque el
cambio en la formulación del problema no debería producir un cambio en el orden de las preferencias
entre las alternativas”. ED
Savage (1954) hace un análisis de la paradoja de Allais ampliando el axioma de independencia con
el principio denominado aspecto cierto (sure-thing). Este principio afirma que, si dos alternativas
comparten un resultado concreto, la preferencia será independiente del valor de este resultado
común. Las personas descartan el resultado seguro y basarán su elección en los posibles resultados
diferentes entre alternativas. Como se puede ver, la alternativa A se ha colocado en todas las casillas
porque ofrece una ganancia segura en todos
los rangos de probabilidad. Al comparar las
casillas entre las alternativas A y B
encontramos que el aspecto seguro se
encuentra en la ganancia de 1 millón€ con una
probabilidad 0.89 (tercera casilla). Por tanto,
este resultado se descartará y la decisión
entre las alternativas A y B se centrará en
elegir entre la probabilidad 0.01 de ganar 1
millón€ ó 0€ y la probabilidad 0.10 de ganar 1
millón€ ó 2.5 millones€.
Para las alternativas C y D, el aspecto seguro se encuentra en la casilla de la ganancia de 0€ con una
probabilidad de 0.89. La ganancia de 0€ también se ha colocado en la casilla con una probabilidad
de 0.01 para completar la probabilidad de 0.90 de la alternativa D (0.89 + 0.01 = 0.90). En la
alternativa C, la ganancia de 1 millón€ con probabilidad 0.11 se ha colocado en las casillas con
probabilidades de 0.01 y 0.1 O (0.01 + 0.1 O = 0.11). Cuando se descarta el aspecto cierto entre las
alternativas C y D se puede comprobar que la decisión sigue siendo elegir entre la probabilidad 0.01
de ganar 1 millón€ ó 0€ y la probabilidad 0.1 O de ganar 1 millón€ ó 2.5 millones€.
La segunda paradoja planteada por Ellsberg (1961) se basa en el concepto de ambigüedad . Se ex-
traen bolas de colores. 90 bolas: 30 rojas, 60 negras y amarillas en proporción desconocida. La
extracción al azar supone ganancia distinta en función del color. Se presentan dos situaciones:
Por tanto, la teoría de la utilidad esperada se ha descartado como modelo normativo válido de la
toma de decisiones. Se puede considerar que es una guía prescriptiva adecuada o un buen criterio
para el hombre racional, pero no un modelo descriptivo de decisiones. Analiza cómo debería de ser
una decisión correcta, para una correcta planificación, inversión o estrategias políticas, pero no es
buena descripción de las elecciones de las personas en su vida diaria.
“El principio del aspecto seguro afirma que cuando dos alternativas tienen un aspecto en común,
entonces las personas descartan este aspecto compartido y su elección se basará en otros aspectos
de las alternativas.
En la tabla 7.3 tiene una representación de la paradoja de Ellsberg. En esta tabla puede ver que el
aspecto seguro se encuentra en las bolas amarillas porque en las alternativas A y B las bolas
amarillas comparten el mismo valor de 0€ y en las alternativas C y D comparten el mismo valor de
100€. Cuando se descartan estos aspectos comunes (la última columna de la tabla de las bolas
amarillas), entonces puede ver que la alternativa A frente a la B es igual a la alternativa C frente a
la D (primera y segunda columnas).
El principio de invarianza establece que la elección de una alternativa frente a otra no debe cambiar
cuando se modifica la descripción o el procedimiento de elección entre dichas alternativas. Por ello
cabría esperar que las personas que eligieran la alternativa A en la primera situación también
eligieran la alternativa C en la segunda. Sin embargo, se encuentra que la mayoría de las personas
eligen la alternativa A en la primera situación y la alternativa D en la segunda.” ED
Otros resultados, también discrepantes con la teoría de la utilidad esperada muestran la violación
del principio de invarianza. Este es un supuesto básico implícito para la coherencia sustentada por
los axiomas. Establece que la relación entre las preferencias no debe depender de la descripción de
las alternativas o del procedimiento utilizado para hacer la elección. A continuación vamos a ver los
resultados de dos estudios que muestran cómo las personas muestran una actitud diferente ante el
riesgo según se presenten los problemas en términos de ganancias o pérdidas (Tversky y Kahneman,
1981 ). Las situaciones de elección que se presentaron a los sujetos fueron las siguientes:
En otro estudio de Tversky y Kahneman (1981), se planteaba la elección entre dos programas
saniarios:
En otro estudio de Tversky, Sattah y Slovic (1988) relacionado también con la violación el principio
de invarianza. Las preferencias manifestadas no deberían cambiar si cambia el método por el cual
se obtienen. Siguiendo este principio, los autores partieron del supuesto de que, si los sujetos
prefieren una determinada alternativa en una tarea de elección, entonces también deberían preferir
esa misma alternativa cuando en otra tarea se les pide asignarle un coste. En este estudio se
describía la siguiente situación:
A un grupo se le pedía elegir entre los dos
programas y la mayoría (67%) opto por el
programa X. Preferían salvar 70 vidas que
ahorrar 43 millones. A un segundo grupo
se le presentaba lo mismo, pero sin indicar
costo del programa Y (12 millones) y
debían estimar el coste que considerasen
necesario para que las dos alternativas
fuesen atractivas por igual.
El coste de Y debería ser menor que en el
programa X pues morían más. Si se tiene en cuenta solo el coste, será preferible la alternativa más
barata y podemos inferir qué prefieren los sujetos a partir de la cantidad asignada para igualarlas.
Si establecen el coste superior a 12 millones significa que prefieren el programa X porque la
diferencia entre ambos se reduce. Si lo establecen menor, prefieren el Y dado que la diferencia se
incrementa. Cuando se pedía este tipo de respuesta se prefería el Y en su mayoría (96%). Los autores
lo explican por la importancia relativa a los atributos (vidas salvadas) pero pierden peso cuando se
trata de tasar o poner precio. Concluyen este estudio sugiriendo que las personas mostrarán su
apoyo a una iniciativa pública de forma diferente según se pregunte en las encuestas por sus
preferencias o por su opinión sobre la cuantía de sus costes. “Considerando que el programa Y salva
menos vidas, entonces su coste debería ser menor que el coste del programa X para que también
fuera atractivo. Si aumenta el coste del programa Y dejaría de ser el programa más atractivo debido
a que ya no es tan barato. Por este motivo cuando se reduce la diferencia en el coste de ambos
programas se infiere que se prefiere el programa X y cuando se aumenta esta diferencia se infiere
que se prefiere el programa Y”. ED
Esta violación del principio de invarianza también se presenta cuando la persona toma una decisión
de elección de una alternativa y cambia por la decisión de rechazarla. En una decisión binaria no
debería influir la elección o el rechazo: si A se prefiere a B, entonces se rechazará B frente a A. Shafir
(1993) encontró que los atributos positivos son más importantes cuando se trata de una elección y
los negativos cobran importancia cuando se trata de un rechazo. En este estudio se pedía a un
primer grupo de sujetos que tomaran la decisión
de concederle la custodia a uno de los dos
progenitores y a un segundo grupo la decisión de
denegarla. Para poder tomar la decisión se
presentaban datos relacionados con el estatus
económico, social y emocional de ambos
progenitores.
información media, sin atributos que destaquen en lo positivo o negativo. Sin embargo, en la
información sobre el progenitor B hay una combinación de atributos que sobresalen en ambos
sentidos. Los resultados mostraron que la mayoría de los sujetos elegían tanto otorgarle la custodia
como denegarle su concesión al progenitor B. Esta discrepancia muestra cómo dos tareas que en
principio son lógicamente equivalentes dan lugar a dos elecciones distintas.
Las personas no atienden únicamente a la utilidad de los componentes de cada alternativa para
decidir sobre la utilidad global. Prefieren la alternativa cierta cuando se ofrece ganancia y prefieren
arriesgarse cuando se trata de pérdidas de la misma magnitud. No siguen leyes lógicas de
transitividad o independencia, en muchas ocasiones las preferencias dependen de alguna variable
del contexto y de la tarea. Aún cuando parecen ajustarse a la lógica, no significa que traten de
maximizar el valor o la utilidad de las alternativas. Por tanto, hay que considerar los aspectos
subjetivos o propios de la persona.
Si nos fijamos en la figura 7.8, vemos la forma de S de la función del valor, que en el caso de las
ganancias es cóncava y en caso de pérdidas es convexa. Además, el valor que se atribuye a cada
1 “La teoría de la perspectiva de Kahneman y Tversky no es ningún juego de palabras. Ambos investigadores son psicólogos y las aportaciones de
sus trabajos dieron lugar a la concesión del Premio Nobel 2002 de Economía a Daniel Kahneman, Amos Tversky había falleció en 1996.
La preferencia por el riesgo hace referencia a aquellas situaciones en las que la persona está dispuesta a arriesgarse. ¿Cuándo sucede esto? Según
esta teoría hay que ver cómo se conjugan el valor (entendido como ganancia o pérdida) y el peso decisorio (la valoración subjetiva de la
probabilidad). Con la conjugación de estos dos valores se obtienen dos situaciones en las que las personas están dispuestas a arriesgarse
(preferencia por el riesgo):
(1) cuando la probabilidad de la ganancia es baja. Por ejemplo, se compra un billete de lotería con la esperanza de ganar.
(2) cuando la probabilidad de la pérdida es alta. Por ejemplo, cuando en una situación de quiebra se sigue pidiendo préstamos. Se tiene la
esperanza de evitar la pérdida.
La aversión al riesgo hace referencia a aquellas situaciones en las que la persona evita el riesgo. ¿Cuándo sucede esto? En las siguientes
situaciones:
(1) cuando la probabilidad de la ganancia es alta. Se prefiere ir sobre seguro y no arriesgar. Por ejemplo, cuando invertimos dinero en depósitos
bancarios (poco interés, pero seguro). Se tiene temor a la decepción.
(2) cuando la probabilidad de la pérdida es baja. Por ejemplo, se contrata un seguro contra incendios. Se tiene temor al desastre”. ED
En la Tabla 7.4. podemos ver el patrón habitual de las actitudes hacia el riesgo encontrado por
Tversky y Kahneman (1992).
Se distinguen dos fases: “edición” revisión preliminar de las alternativas y “evaluación” que da lugar
a la elección de la alternativa que haya obtenido el valor más alto.
La fase de “edición” organiza y reformula las alternativas para simplificar los siguientes procesos de
evaluación y elección. Se aplican las operaciones:
• Codificación de los resultados en pérdidas y ganancias. Estos se definen en relación con un
punto de referencia. Si corresponde con el estado del problema, las ganancias y pérdidas
coinciden, pero este punto de referencia puede cambiar por la formulación del problema o
expectativas de la persona.
• Combinación de las probabilidades asociadas a resultados idénticos. Permite simplificar el
conjunto de alternativas: 200 euros con probabilidad de 0,25 más otros 200 euros con
probabilidad de 0,25, puede reducirse a 200 euros con probabilidad de 0,50.
• Segregación de los componentes ciertos de los componentes con riesgo. Una alternativa de
300 euros con probabilidad de 0,80 y 200 euros con probabilidad de 0,20 se puede
descomponer en una ganancia segura de 200 euros y una ganancia de 100 euros con
probabilidad de 0,80. Al final serán 280 euros.
• Cancelación de los componentes compartidos por todas las alternativas. La opción común
se cancela.
• Simplificación por el redondeo o por eliminación de las alternativas muy poco probables.
101 euros con probabilidad de 0,49 euros pueden considerar como 100 con probabilidad de
0,50.
Editadas se pasa a la fase de “evaluación” que comprende la función del valor subjetivo y la función
de la probabilidad ponderada de obtener un resultado. Las estimaciones del valor de una
alternativa son cambios de riqueza o bienestar y no en estados finales. El valor es tratado como una
función con dos aspectos: una posición inicial que sirve de punto de referencia y la magnitud del
cambio desde ese punto de referencia. La teoría se basa en una ecuación básica que describe la
forma en la que se combinan la probabilidad y el valor subjetivo para determinar el valor global de
las alternativas. Puede aplicarse a elecciones que implican otros atributos como calidad de vida etc.
y no sólo a cantidades de dinero. Lo único que precisa es que los resultados esperados sean
codificados como ganancias o pérdidas en relación a un punto de referencia y que las pérdidas sean
percibidas como más graves que las ganancias del mismo tamaño.
La teoría Portafolio incluye el riesgo percibido de cada alternativa como determinante de la elección
de las personas siendo en función de la probabilidad de perder y también de la cuantía de esa
pérdida. Para cada nivel del valor esperado existe también un nivel óptimo: riesgo ideal, donde la
persona elige la alternativa A frente a B poniendo de manifiesto que A se encuentra más cercana al
riesgo ideal que B. Cuando presentan el mismo valor esperado la elección será función únicamente
del riesgo. Los resultados experimentales de Coombs y Huang (1970) confirmaron que los sujetos
elegían la alternativa con el mayor valor esperado cuando la diferencia entre los diferentes niveles
de riesgos y el riesgo ideal era la misma. Encontraron que este nivel de riesgo ideal y persona no era
el mínimo nivel de riesgo posible. Estas diferencias individuales no deberían considerarse como
rasgo de personalidad estable sino como las diferencias que se muestran en su percepción de los
riesgos y de los beneficios de una situación determinada en un momento concreto. Por ejemplo, los
estudiantes de países occidentales daban mayor peso a las probabilidades de las ganancias y la
percepción del riesgo disminuía a medida que mejoraban los resultados en el juego, mientras que
los estudiantes orientales concedían mayor peso en la magnitud de las pérdidas y la influencia de
los resultados positivos era mucho menor en su percepción del riesgo.
Figner y Weber (2011) señalan que la idea de riesgos en la toma de decisiones depende de factores
que se agrupan en términos como quién, dónde y las diferentes interacciones entre ambos. Cada
individuo tiene un nivel óptimo de tensión entre la ganancia que desea obtener y la presión de riesgo
que puede soportar. Según Coombs y Huang (1970), un nivel de tensión entre codicia y el miedo,
donde existe un umbral de aceptación de la alternativa en ambas dimensiones donde no se elegirá
una alternativa cuya ganancia sea menor que su umbral de ganancias, ni la que el riesgo sobrepasa
el umbral de riesgo establecido. Para ser aceptable la alternativa no debe violar ninguno de los dos
umbrales. Son reglas dentro de las estrategias de decisión no compensatorias. Así ninguno de los
dos criterios puede contrarrestar al otro: un riesgo alto no compensa una gran ganancia y un riesgo
muy pequeño tampoco compensaría una ganancia pequeña.
El objetivo de este enfoque consiste en describir los distintos procedimientos mediante los cuales
las personas toman sus decisiones. Se requieren procedimientos heurísticos sencillos que permitan
seleccionar y procesar. Ahora la elección no se basa en un análisis exhaustivo de todas las
alternativas hasta encontrar la óptima sino la satisfactoria.
Payne, Bettman y Johnson (1992), señalan que las personas tienen más de una estrategia de elección
y éstas pueden ser en algunas ocasiones deliberadas, otras veces, el resultado de aprendizajes
previos y en otras pueden ser intuitivas. La interacción ocasiona que el conjunto de estrategias para
la elección comprenda un abanico amplio de heurísticos, desde los rápidos y apropiados para las
decisiones bajo presión de tiempo y poca capacidad de cómputo, hasta los de procesamiento
secuencial lento y apropiado para decisiones más complejas y deliberadas.
La metodología utilizada en los estudios tratará de identificar el proceso para luego describirlo. Por
ello, algunos de los métodos que se utilizan, denominados métodos para el rastreo del proceso
tratan de observar directamente la estrategia empleada mediante el análisis de los protocolos
verbales, el análisis de los movimientos oculares, la monitorización de la búsqueda de información
y el análisis de la actividad cerebral mediante técnicas como la resonancia magnética funcional
(Payne y Venkatraman, 2011). En otros casos se infiere dicha estrategia a partir de estudios en los
que se presentan pares de alternativas (X, Y) de forma que si el sujeto está usando una regla
determinada elegirá X y si usa otra regla llegará a la respuesta Y. Con estas técnicas tratan de cubrirse
dos objetivos fundamentalmente: en primer lugar, descubrir qué estrategias y reglas elementales
emplean los sujetos y, en segundo lugar, qué rasgos de la tarea y del contexto determinan la
selección y uso de estas estrategias.
supuesto de que va a ocurrir lo peor. Precisamente para evitar esta postura extrema, Hurwicz
propuso una vía intermedia entre el maximín y el maximax”. ED
• CRITERIO DE LA PÉRDIDA DE OPORTUNIDAD DE SAVAGE (NINIMAX). También conocido
como arrepentimiento porque considera que las personas también lamentan no haber
escogido una alternativa. Se busca reducir el arrepentimiento al mínimo. Se elige el mejor
resultado y se sustituye por cero (0) Este representa que no hay arrepentimiento. Luego se
encuentra la diferencia entre el resultado óptimo y los demás. Esta diferencia representa la
pérdida de oportunidad o arrepentimiento por no haber escogido la alternativa que diera el
mejor resultado y se elige la que presente el mínimo arrepentimiento.
• CRITERIO DE SATISFACCIÓN CONJUNTIVA. Este criterio es semejante al general de
satisfacción propuesto por Simon. Se establece una línea de corte o umbral para cada uno de
los atributos y se elige la que alcance este nivel de satisfacción en todos los atributos. Se
utiliza para el análisis preliminar de un conjunto amplio de alternativas con el fin de
seleccionar el subconjunto de las mejores o para elegir la alternativa satisfactoria.
• CRITERIO DE SATISFACCIÓN DISYUNTIVA. Semejante al anterior, pero se eligen las
alternativas que alcancen el nivel de umbral de satisfacción en cualquiera de los atributos,
no en todos (alternativa destacada en al menos un atributo).
• CRITERIO DE RECONOCIMIENTO. Existe tan poca información sobre las alternativas que se
eligen las que reconocen o que les resulta familiar. Forma parte de las estrategias heurísticas
“rápidas y frugales” porque requieren poco esfuerzo cognitivo en términos de recursos y
tiempo.
altos que los aceptables. Otro el tipo de local que nos guste y así hasta que nos quede solo
una opción.
• CRITERIO DE LA RAZÓN ÚNICA (Gigerenzer y Todd; 1999; Gigerenzer y Selten, 2002). La
decisión se toma basándose en un único atributo y forma parte de los heurísticos “rápidos y
frugales” Similar al lexicográfico, pero con dos heurísticos de búsqueda para la selección del
primer atributo:
o El heurístico “escoge el mejor”, lo escoge por la validez que haya tenido en
experiencias anteriores para la discriminación entre buenas y malas y los ordena de
mayor a menor validez.
o El heurístico “minimalista” realiza la comparación entre atributos de forma aleatoria
hasta encontrar la alternativa con el atributo de mayor validez.
Los criterios de decisión que acabamos de ver también se clasifican como estrategias
compensatorias, dado que una puntuación alta en un atributo puede equilibrar una baja puntuación
en otro, y estrategias no compensatorias porque no se permiten intercambios entre las
puntuaciones de los atributos. Las reglas compensatorias son más completas porque tienen en
cuenta todos los atributos y las posibles relaciones entre los mismos, como al adquirir una vivienda
que un precio alto, puede compensarse por la cercanía al puesto de trabajo. Sin embargo, estas
compensatorias y coherentes con el modelo normativo son costosas cognitivamente y poco viables
para decisiones con muchas alternativas multiatributo.
Algunas variables como la presión del tiempo, información distractora, dificultad de la tarea influyen
en el uso de la estrategia y por tanto en las distintas respuestas. En diferentes investigaciones, se
observa que las personas modifican la estrategia empleada cambiando a más simples centradas en
los datos negativos que permiten la eliminación de ciertas alternativas. Se observa también el
proceso de cadenas de estrategias o reglas, de forma que primero se usan las que permitan
descartar y luego se evalúa más detalladamente. Parecen útiles en diferente contexto, pero no se
puede olvidar que el descarte inicial puede llevar a despreciar alternativas atractivas.
Esta necesidad de justificar está relacionada con el fenómeno estudiado por Festinger (1964) sobre
la necesidad de reducir la disonancia cognitiva. Las personas suelen estar satisfechas de sus
decisiones porque no conocen el resultado obtenido en caso de haber elegido otros, y por la
tendencia a eliminar la disonancia. Desde una perspectiva teórica más comprensiva, Svenson (1996)
considera que la toma de decisiones es en gran medida el arte de resolver conflictos por medio de
la reconciliación o negación entre metas contradictorias, siendo esta resolución además
dependiente del problema, el contexto y las diferencias individuales. Se ha de tener en cuenta que
la decisión no es un proceso estático, sino que debe reconsiderarse repetidamente a medida que
surgen otros elementos o varían las condiciones. Nuestros valores o utilidades son inestables,
muchas veces por desconocimiento. Es preciso tener en cuenta el cono- cimiento de la persona
experta frente a la ingenua. Además, cada uno lleva a cabo varios roles en la vida y cada uno de
éstos determina una perspectiva diferente que variará la utilidad para cada dimensión. El estado
anímico dará lugar a juicios más positivos o negativos, modificando las decisiones. El más positivo
dará lugar a búsqueda de alternativas variadas y a la sobrevaloración de la ocurrencia de estados
favorables, y a la inversa.
A veces las decisiones están “cargadas” emocionalmente. Algunas personas no pueden considerar
detalles monetarios a la posibilidad de salvar vidas o salvaguardar el medio ambiente. Tetlock (2002)
las considera como compensaciones tabú, puesto que hay una resistencia a enfrentar lo sagrado y
lo profano. Pueden ante esto negarse a decidir, dejar que otros lo hagan por ellos, optar por
alternativa que mantenga el estatus quo o que puede justificar fácilmente ante ellos y los demás,
utilizando estrategias no compensatorias; o bien intentar abordar el tema con esfuerzo de recursos
y tiempo ponderando aspectos emocionales como importantes.
Payne y Bettman (2004), señalan que las ventajas y desventajas de las decisiones, se encuentran
directamente relacionadas con los siguientes objetivos:
• Maximizar la precisión de la decisión.
• Minimizar el esfuerzo cognitivo.
• Minimizar el impacto de las emociones negativas durante el proceso y una vez tomada.
REFERENCIAS:
• RESUMEN M. GORETTI GONZÁLEZ
• GONZÁLEZ LABRA, M., SÁNCHEZ BALMASEDA, P., & ORENES CASANOVA, I. (2019).
PSICOLOGÍA DEL PENSAMIENTO. MADRID: SANZ Y TORRES.
• Aclaraciones ED.
CAPÍTULO 8. SOLUCIÓN DE PROBLEMAS
1. INTRODUCCIÓN
La solución de problemas hace referencia a una de las manifestaciones del pensamiento más
extendidas y con un rango muy amplio de aplicaciones. Impregna todo aquello que se encuentra
relacionado con nuestra actividad cotidiana. Esta capacidad nuestra forma parte de nuestro
repertorio de procesos cognitivos básicos en distintos dominios de conocimiento, estando
implicados procesos básicos, como, percepción, memoria, categorización, razonamiento, lenguaje,
aprendizaje, ... asociada la misma a la inteligencia y la creatividad de uno. En general, la solución de
problemas comprende cualquier situación en la que se tiene una meta y se desconoce cómo poder
alcanzarla. Las personas intentaremos con mayor o menor éxito el objetivo.
Para abordar el estudio de este proceso de solución hace falta partir del análisis de al menos 4
componentes:
• Estado inicial de conocimientos.
• Estado meta que se quiere conseguir.
• Los procedimientos, acciones u operaciones que se pueden utilizar para ello.
• Las limitaciones directas e indirectas impuestas por el contexto.
Cuando nos enfrentamos a un problema partimos de un estado inicial, tenemos un estado meta al
que queremos llegar y unas imposiciones que se deben respetar para alcanzar la meta. Por ejemplo,
tendríamos un problema si el día del examen tenemos un infarto, y no podemos realizar el examen.
El estado inicial será no poder realizar el examen, realizar el examen sería el estado meta y la
imposición es estudiar el temario. Por solución se entiende el procedimiento que se ha empleado
para alcanzar la meta, pero sería más adecuado utilizar el término solución para denotar el producto
final del proceso (estado meta) y el término resolución para hacer referencia al procedimiento.
Frente al enfoque asociacionista (conductismo) que explicaba la solución de problemas como una
conducta observable basada en el número y fuerza de las conexiones estímulo-respuesta, la Gestalt
se interesó por la obtención de soluciones ante situaciones no conocidas. Según el enfoque
conductista, el sujeto intentaría resolver recurriendo a sus conocimientos o experiencias previas en
las que hubiera obtenidos buenos resultados. Contaría con un conjunto de recursos (asociaciones
estímulo-respuesta), para afrontar nuevas situaciones y de no existir éstas, procedería por ensayo-
error. La Gestalt postula que el aspecto esencial del proceso era la transformación o reorganización
súbita de los aspectos críticos del problema.
“Gestalt” es término alemán que no tiene una traducción exacta, una aproximación puede ser
configuración, estructura, forma... pero ninguno transmite el carácter dinámico del concepto
alemán. Wertheimer (1910; 1912; 1923; 1945) lo explicaba como si la Gestalt fuese una pompa de
jabón, donde el grosor de la textura jabonosa debía ser uniforme en toda la estructura, en
interacción dinámica y con la propia totalidad, de tal forma que, pinchada, se presentaba el cambio
en la estructura de la misma.
Duncker (1945), publicó uno de los estudios más completo sobre la solución de problemas como
proceso de reestructuración en tareas en las que los sujetos no tenían experiencia previa. Durante
la realización de la tarea se pedía a los sujetos que pensaran en voz alta mientras resolvían el
problema con la finalidad de analizar cómo los sujetos progresaban hacia la solución. Las soluciones
se desarrollaban por medio de las inferencias establecidas entre una representación mental del
problema y la generación y evaluación de un conjunto de soluciones posibles.
Luchins (1942) demostró cómo la aplicación repetitiva del mismo procedimiento para resolver un
problema puede bloquear la aplicación de otros procedimientos alternativos y más eficaces. Utilizó
el problema de las jarras de agua; la tarea de los sujetos consistía en obtener una cantidad
determinada de agua utilizando para ello tres jarras con diferentes medidas. Este conjunto de
problemas recibió el nombre de einstellung (actitud) para denotar esa disposición hacia la utilización
de procederes conocidos. En la Tabla 8.1 se presentan los problemas clasificados en problemas
einstellung (problemas 2-6), y problemas críticos (problemas 7-8 y 10-11 ), las dos soluciones
alternativas de los problemas críticos y los resultados obtenidos en los grupos control y experimental
de niños y adultos. El problema 9 no se podía resolver con el procedimiento empleado en los
problemas previos y se había introducido con el fin de interrumpir la aplicación mecánica del
procedimiento anterior y así permitir que los grupos experimentales pudieran dar la solución directa
a los problemas 10 y 11 . Como se puede apreciar por los porcentajes obtenidos en las distintas
soluciones, los grupos control obtenían unos porcentajes significativamente superiores de
soluciones directas y rápidas para los problemas críticos que los grupos experimentales. Por el
contrario, los grupos experimentales obtenían porcentajes superiores de soluciones einstellung en
todos los problemas, incluso en los problemas 10 y 11. El diseño básico de este experimento lo aplicó
Luchins a más de 900 sujetos encontrando los mismos resultados del efecto einstellung.
“Fijeza funcional y einstellung son conceptos semejantes. En el caso de la fijación funcional se está
haciendo referencia al bloqueo de una nueva función y en el caso del efecto einstellung al bloqueo
de un nuevo procedimiento”. ED
Los estudios sobre fijación funcional de Dunker (1945) fueron bien recibidos por la comunidad
científica de la época. El autor estaba interesado en saber cómo se generaba la solución y cuál era
la estructura y la dinámica del propio proceso de solución de problemas. Uno de los problemas más
estudiados para alcanzar estos objetivos fue el problema de la radiación: “Si una persona tiene un
tumor de estómago inoperable y existen unos rayos de alta intensidad que destruyen el tejido
orgánico, ¿cuál sería el procedimiento para eliminar el tumor con la aplicación de estos rayos, pero
evitando al mismo tiempo la destrucción del tejido sano que lo rodea?”
Los sujetos que participaron en las sesiones debían resolver el problema pensando en voz alta todo
aquello que se les iba ocurriendo mientras intentaban llegar a una solución. El método de pensar en
alto es distinto al introspectivo porque en el primero el sujeto se encuentra centrado en el problema
y verbalizando su pensamiento, mientras que en otro el sujeto pensante se convierte en objeto de
su propia atención. Duncker encontró que generalmente la solución no se alcanza en un solo paso
sino en varios a partir de la obtención de las propiedades esenciales o el principio general de la
solución. A este principio lo denominó valor funcional de la solución, y consiste en una
reformulación del problema original, puesto que la solución final se alcanza a medida que este
proceso general se va concretando en cada paso. Su interés era conocer cómo se desarrollaba y se
integraba una solución dentro del sistema de conocimiento del propio sujeto y no tanto en la
viabilidad de las propuestas de solución en sí mismas.
Las distintas propuestas de solución que daba el sujeto, según iba pensando en voz alta, se
agruparon en tres principios generales:
• Evitar el contacto entre los rayos y el tejido sano.
• La inmunización del tejido sano.
• La reducción de la intensidad de los rayos en su trayecto por el tejido sano.
A partir de estos 3 principios generales se desarrollaban otras fases mediadoras más concretas
encaminadas hacia la solución del problema. Estas fases reformulaban el problema original en otro
más concreto. En el caso de la primera fase, el problema se concretó en la búsqueda de una vía libre
hacia el estómago con el fin de evitar dicho contacto y se encontró como solución el esófago. Según
Duncker: “...cada una de las fases posee en sentido retrospectivo el carácter de una solución y en
sentido prospectivo, el de un problema”.
Durante el proceso de solución lo habitual era encontrar que el sujeto iba tanteando de forma
alternativa la viabilidad de los principios generales y de las distintas fases mediadoras. P. ej., un
sujeto podía empezar desde arriba con el principio, para luego volver a retomarlo en la fase en que
lo dejó. Podría empezar desde abajo porque conocía soluciones semejantes que podrían aplicarse a
la situación planteada por el problema, o incluso las restricciones de éste, podían sugerir una
solución como el estar el tumor situado en el estómago podría contemplar la solución del esófago
por proximidad anatómica. Las aportaciones de la psicología de la Gestalt contribuyeron a que la
psicología cognitiva desarrollara el estudio de la solución de problemas como búsqueda de las
interrelaciones entre las partes del problema que diera como resultado una comprensión
estructural del mismo.
Dentro del marco de la psicología cognitiva, las investigaciones se han centrado fundamentalmente
en dos aspectos: los procedimientos que conducen a las soluciones, y las representaciones internas
de los problemas.
Una de las primeras clasificaciones se basaba en el grado de definición de los estados iniciales y
metas de la situación es la de Reitman (1965) postula cuatro tipos de problemas:
• Problemas donde tanto estados iniciales y meta están bien definidos.
• Problemas donde el estado inicial está bien definido y la meta no.
• Problemas donde la meta está bien definida pero no así el estado inicial.
• Problemas donde tanto el estado inicial como la meta están mal definidos.
Sin embargo, la clasificación general más aceptada los agrupa en bien definidos o cerrados y mal
definidos o abiertos. Los problemas bien definidos (anagramas o ajedrez) son aquellos que
contienen en sí toda la información que permite resolverlos y cuya estructura impone unas
limitaciones. Se identifican con facilidad la meta, los requisitos y el punto de partida para resolver el
problema y los pasos u operadores necesarios para su solución.
Los problemas mal definidos requieren del sujeto que construya la información necesaria para
alcanzar la solución. Se dice que los problemas están mal definidos puesto que falta información
sobre algunos de los componentes básicos del proceso: la meta, el estado inicial, los pasos hacia la
solución o las restricciones. Para resolver los problemas mal definidos, que son más característicos
de la vida diaria, se recurre al conocimiento y a la experiencia, como, p. ej., en la solución de
problemas por analogía.
Según Simon (1973) los procesos generales para resolverlos ambos tipos de problemas son los
mismos y lo característico del proceso de solución de los abiertos es estructurar lo desestructurado,
para que terminen siendo cerrados o bien definidos.
Greeno (1978) propuso otra clasificación basada en los procesos empleados en la solución:
• Problemas de inducción estructural.
• Problemas de transformación.
• Problemas de reordenación.
Esta clasificación puede ser útil como una primera aproximación a los problemas, pero no todos los
problemas pueden clasificarse tan fácilmente bajo esta tipología, pues se dará frecuentemente la
combinación entre categorías.
En los problemas de inducción estructural se identifica el patrón de relaciones que existe entre
elementos que lo conforman. Hay que descubrir las relaciones entre las partes individuales para
luego poder generar una representación integrada del patrón observado. Las analogías identifican
aspectos estructurales compartidos entre dos situaciones que extrapolan la solución, p. ej., la
analogía verbal es su presentación de 4 términos: “Vox es a la democracia como el Covid19 a la
salud” (A:B como C:D).
En los problemas de reordenación la solución se obtiene por nueva disposición de los elementos en
función de algún criterio. Ejemplos de este tipo de problemas son los rompecabezas, los anagramas
o la criptoaritmétrica. El siguiente problema propuesto por Greeno es un ejemplo de
criptoaritmétrica.
Greeno y Simon (1988) modifican la tipología anterior con dos conceptos: Acción cognitiva y
representación cognitiva. Tanto la acción como la representación cognitiva son necesarias y
complementarias en cualquier teoría del pensamiento humano. La acción cognitiva comprende el
conocimiento de las acciones que se pueden realizar y el conocimiento estratégico para establecer
la meta y planificar sobre ello. La representación cognitiva se refiere a la representación de los
objetos comprendidos en la situación, la meta del problema, operaciones y estrategias que se
pueden utilizar, así como a las restricciones que existan. “El concepto de acción hace referencia a los
procedimientos del planteamiento general para resolver el problema y la representación cognitiva a
todo aquello que se encuentra descrito en la formulación del problema. Ambos conceptos están
relacionados y son complementarios. En función de estos dos conceptos propusieron los tres tipos de
problemas que se explican en el texto: problemas bien especificados, problemas de diseño y
reordenación y problemas de inducción”. ED. Teniendo esto en cuenta, analizaron los problemas en
tres categorías:
• Problemas de inducción: tratan de encontrar un principio general coherente con los objetos
o contenido del problema. Categoría que permanece igual que en la tipología anterior,
analizando mayor número de problemas inductivos (inducción categórica, extrapolación de
secuencias, inducción de estructuras relacionales y el diagnóstico).
Una propuesta más global es la de Jonassen (2000), que considera que el análisis de los problemas
ha de tener en cuenta las dimensiones:
Jonassen señala que la naturaleza de los problemas varía en función de su grado de estructuración,
complejidad y abstracción:
• Estructuración. Estos problemas presentan estado inicial bien definido, un estado meta
conocido (define la naturaleza de la solución), y un conjunto de operadores que permiten
resolver el problema. Pero los de la vida cotidiana y en el ámbito profesional, no suelen estar
bien estructurados (elementos desconocidos, soluciones múltiples o ninguna, o incluso
solución influida por otras variables alternativas) y esto implica no conocer los
procedimientos necesarios para la solución, por lo que se recurre a las creencias u opiniones
particulares.
• Complejidad. La complejidad se define por el número de elementos o variables que presenta
el problema, su interrelación, el tipo de relación funcional y la estabilidad entre las
propiedades. Los más complejos son aquellos dinámicos debido a la situación de tarea y sus
variables inestables. Cuánto más complejo mayor será el número de operaciones necesarias
para solucionarlo y mayor carga cognitiva (memoria de trabajo). La complejidad y la
estructuración se solapan. Los mal estructurados suelen ser los más complejos, aunque
también pueden ser sencillos (no saber cómo vestirse para una entrevista de trabajo...). Los
bien estructurados son menos complejos puesto las variables tienen un comportamiento
predecible (no incertidumbre), y si aumentan en complejidad es por causa de aumento de
variables y operadores (cálculo y diseño del túnel ferroviario de Pajares).
• Abstracción. Los problemas bien estructurados son más abstractos por no estar en un
contexto concreto y no tener contenidos específicos de dominio de conocimiento. Se
resuelven con los procedimientos generales, los métodos débiles. Los métodos fuertes
suelen estar mal estructurados, situados en contexto concreto y dependientes de contenido
específico.
Lehman, Lempert y Nisbett (1988) encontraron que el tipo de formación universitaria determinaba
el rendimiento en diferentes tipos de problemas. Los de psicología y medicina resolvían mejor los
problemas metodológicos, estadísticos y de razonamiento condicional que los de derecho y química.
Estos resultados manifiestan que, si la solución de problemas se encuentra en contexto determinado
y es dependiente del contenido, se desarrollarán procedimientos también específicos y concretos.
Sin embargo, los problemas bien estructurados también pueden situarse en contexto y dotarse de
contenido (formulado como una historieta) y los mal estructurados, presentarse de forma abstracta
(dilemas).
Con respecto a la representación de los problemas hay que destacar la importancia del contexto,
formato y modalidad. Los problemas cotidianos y profesionales se encuentran inmersos en
contextos propios. P. ej., al diseñar un vídeo juego para salir al mercado de ventas con éxito, la
representación de éste en el ámbito profesional será distinta de la que se tenga en el profesional.
Otras variables que influyen son las posibles presiones del tiempo impuesto para resolver el
problema, imposiciones reguladoras de contextos (sociales, religiosos, políticos, culturales...) y las
distintas interacciones sociales que pudieran ser según el grupo o ambiente (ambiente competitivo
vs colaborativo). Además, señalar el abanico de diferencias individuales que pueden mediar en el
proceso de solución de problemas es muy amplio. En la Tabla 8.2. solamente se recogen algunas y
merece destacar la consideración que se hace de las dimensiones afectivas y conativas. P. ej.,
algunos estudios muestran que las actitudes y las creencias que se tienen sobre el problema y su
ámbito de conocimiento conjuntamente con el nivel de autoconfianza influyen significativamente
sobre el rendimiento y la perseverancia en encontrar una solución al problema.
El espacio del problema comprendería el conjunto de todos los estados potencialmente alcanzables
mediante la aplicación de los operadores disponibles. Las personas tenemos una memoria de
trabajo limitada que hace inviable un proceso de búsqueda exhaustivo. P. eje., una jugada de ajedrez
puede comprender como sesenta movimientos con media de treinta alternativos legales en cada
paso. Esto es un ejemplo típico de implosión combinatoria, donde se da el hecho de que el tamaño
del espacio de búsqueda aumenta exponencialmente a medida que se profundiza en el mismo
proceso de búsqueda. Por tanto, las personas utilizan unos métodos de búsqueda heurística. Ello
permite reducir el conjunto total de alternativas a un número más manejable, agrupando a las
alternativas que se aproximen a la solución. P. ej., un jugador de ajedrez puede anticipar entre tres
y cuatro jugadas, y un jugador experto anticipará el mismo número, pero entre las mejores jugadas.
Sin embargo, ello no garantiza que se llegue a la solución óptima. En la búsqueda se apuesta por
aquellos trayectos que mejor puedan conducir a una solución, por alcanzar soluciones satisfactorias,
pero no la mejor. Newell y Simon (1972), propusieron un número reducido de métodos heurísticos
de carácter general denominados métodos débiles por no usar información específica sobre el
dominio del problema.
viene representada por los siete movimientos consecutivos comprendidos entre los estados del 1 al
8. Si el solucionador está utilizando el heurístico de “subir la cuesta” y ha ido avanzando el estado 1
al 5, la aplicación llevaría al estado 23, (parecido al de meta). Sin embargo, el estado 6 conduce más
rápidamente a lograr la meta que el 23. Kotovsky, Hayes y Simon (1985) encontraron que los sujetos
utilizaban en primer lugar el método de la reducción de diferencias (subir la cuesta) para resolver el
problema de la Torre de Hanoi y cuando fracasaban e en encontrar la solución, entonces aplicaban
el heurístico análisis medios-fin.
“En la Figura 8.4 puede ver que cuando se aplica el heurístico subir la cuesta y, por ejemplo, se llega
al paso 5, entonces el solucionador pasaría al paso 23 porque estaría más próximo al estado meta.
El paso 23 no es el estado meta que se quiere alcanzar, pero se aproxima más a este estado que el
paso 6. Sí, con el heurístico análisis medios-fin, por el contrario, se puede retroceder al pivote 1 y se
pasaría al paso 6. El heurístico análisis medios-fin descompone la meta en submetas y combina la
búsqueda hacia delante y hacia atrás para llegar a la solución. Sí, en el trayecto del paso 5 al paso
23 con el heurístico subir la cuesta se va avanzando hacia el estado meta pero no se alcanza. A partir
del paso 23 se puede ir un paso hacia atrás en el sentido de alejarse del estado meta y utilizar el
heurístico análisis medios-fin de dos formas: (1) pasar del estado 23 al estado 6 o (2) pasar del estado
23 al estado 24”. ED
El heurístico análisis medios-fin reúne características importantes para este proceso de solución de
problemas:
• La búsqueda se encuentra explícitamente guiada por el conocimiento de la meta.
• El estado inicial puede conducir a otros estados submetas que descomponen el problema en
partes más pequeñas y más fáciles de alcanzar.
• El método puede aplicarse recursivamente hasta conseguirlo.
La Torre de Hanoi genera las primeras submetas cuando se libera el disco mayor del primer pivote.
Para alcanzarla se traslada el disco pequeño al tercer pivote. Luego se mueve el disco mediano al
segundo pivote y se alcanza la primera submeta. Liberado el disco grande debemos moverlo al tercer
pivote. Podemos anticipar que liberar el tercer
pivote colocando el disco pequeño encima del
disco grande sería un error. La anticipación de las
consecuencias negativas corrige el trayecto y
permite colocar el disco pequeño encima del
mediado en segundo pivote. La tercera meta es
mover el disco grande del primer pivote al tercero.
El análisis del espacio del problema es una
descripción abstracta que difícilmente puede ser
representada e implementada en distintos
modelos computacionales. Sin embargo, se
encuentra vinculada al modelo formal “Sistema de
Producción” (Newell,1973) Está constituido por
reglas con condiciones y acciones (si cumple
condición, ejecuta acción).
Los sistemas de producción fueron diseñados para modelar el proceso de solución de problemas,
pero se han extendido a otros ámbitos de aplicación y han sido propuestos como modelo de
funcionamiento cognitivo en general. El razonamiento condicional se encuentra representado como
un sistema de producción. Diversos modelos cognitivos alternativos basados en éstos comparten un
lenguaje teórico común que fomenta la comunicación entre las diversas disciplinas.
Los problemas bien definidos o cerrados como la Torre de Hanoi, no son representativos de la
mayoría de los problemas. Sin embargo, facilitan la investigación sobre el proceso de solución
porque:
• El análisis de la tarea es riguroso. El sujeto conoce las reglas y procedimiento pues estos son
dados por el enunciado. Permite obtener un diagrama en el que se identifican todas las rutas
posibles. Se cuenta con una descripción formal que permite estudiar la generación de la
solución e identificar cómo se aproxima el sujeto a ese estado meta por los sucesivos
movimientos entre los diferentes estados del espacio del problema. Se podría estudiar cómo
mejora el rendimiento con el ejercicio y cómo se puede ser “experto”.
• Estos problemas no requieren conocimientos específicos y esto permite una mínima
intervención de los conocimientos previos del sujeto.
• La estructura bien definida permite generar problemas semejantes para así poder estudiar el
proceso de transferencia del aprendizaje bajo distintas circunstancias.
versiones: Los monstruos se pasan los globos, y Los monstruos cambian el tamaño de los globos que
sostienen.
En el isomórfico de movimiento, los globos pasan de un monstruo a otro como en los discos en los
pivotes del problema de la Torre de Hanoi. En el problema isomórfico de cambio los globos
permanecen con el monstruo, quien puede cambiar el tamaño de los globos. Ahora se han
cambiado los papeles que desempeñan los pivotes y los discos: el globo es como el pivote y el
monstruo como disco. Tanto en la Torre de Hanoi como en el problema isomórfico de movimiento,
las imposiciones recaen sobre el tamaño de las unidades que pueden moverse (discos y globos)
ubicadas en un mismo sitio (pivotes y monstruos) En el de cambio, las imposiciones sobre el cambio
del tamaño del globo recaen sobre el tamaño de los monstruos (discos) que sujetan globos (pivotes).
con 31 piezas de domino. En este los cuadrados adyacentes son siempre de dos colores alternos
(rojos y negros) y que al colocar una pieza de dominó se cubrirá un cuadrado rojo y otro negro. Al
eliminar dos cuadrados del mismo color (negro) quedan 30 negros y 32 rojos.
Kaplan y Simon se plantearon estudiar la facilitación en la resolución de este problema por medio
de la presentación de distintos indicios del concepto de paridad (comparar) que pudieran restringir
la representación del espacio del problema. Con este fin presentaron el tablero de damas de 4
formas distintas:
• Tablero don todos los cuadrados en blanco.
• Tablero con cuadrados en dos colores.
• Tablero en blanco con palabras de los 2 colores escritas dentro de los cuadrados.
• Tablero en blanco con palabras escritas [pan] y [mantequilla].
Los resultados manifestaron que tardan menos en responder que no se podía resolver los
enfrentados al tablero con las palabras “pan” y “mantequilla”. Estas transmitían el concepto de
paridad necesario para obtener la solución. Le seguía el grupo con el tablero de las palabras escritas
de los dos colores, el de dos colores y el de los cuadros en blanco.
La Teoría del Control Progresivo sostiene que los sujetos utilizan el heurístico de subir la cuesta para
resolver problemas asociados al insight, resolviéndose cuando se relajan las imposiciones sobre el
espacio del problema. Esta teoría explica cómo se alcanza un punto muerto en el proceso, cuáles
son las condiciones necesarias para que surja el insight y por qué este es tan poco frecuente. En
estas investigaciones se utilizó el problema de los 9 puntos. Según los autores, el estado meta no
se encuentra bien definido en la mayoría de los problemas asociados al insight y los sujetos
seleccionan un criterio de progreso satisfactorio hacia unas metas parciales que se infieren de la
descripción del problema o de estado interno generado en el proceso en sí. La reestructuración del
espacio del problema puede ocurrir, por la influencia de fuentes externas como por la propia
información generada internamente.
Los sujetos no logran resolver este problema debido al gran número de movimientos posibles que
parecen ajustarse al criterio de un cuadrado. Se llega a un punto muerto cuando el heurístico de
búsqueda ya no puede más estados que cumplan el criterio de progreso satisfactorio. Este fracaso
permite relajar las imposiciones del espacio del problema para buscar otros estados. El sujeto puede
volver a una solución anterior tentativa en la que utilizó una línea para unir los puntos fuera de los
límites imaginarios del cuadrado. El insight es poco frecuente pues se ha de ajustar al criterio de
llegar a la cuarta línea. Es necesario anticipar mentalmente el trazado para darse cuenta del fracaso
del criterio satisfactorio y reestructurar el problema sin los límites imaginarios del cuadrado.
La teoría del cambio representacional se centra en la información interna como obstáculo para una
buena representación del espacio del problema. La que se hace inicialmente puede ser inadecuada
porque el conocimiento previo y las experiencias anteriores activan la construcción del problema
infructuoso. Para poder reestructurar este espacio del problema existen 2 mecanismos:
• Relajación de las imposiciones: decremento en la activación de algún elemento de
conocimiento que restringe la aplicación de los operadores comprendidos en el espacio del
problema (p. ej., Fijación funcional observada en el problema de las cajas de Duncker –
función contenedora de la cajita de cerillas opera como soporte de la vela.)
• Disgregación de las agrupaciones con significado del problema: implica la ruptura de las
conexiones establecidas por los componentes de una unidad con significado (p. eje., El efecto
einstellung en el problema de las jarras de Luchins). Ahora la unidad que hace falta disgregar
son los procedimientos aprendidos que conducen a una representación inapropiada. Ello
permitirá bloquear la aplicación mecánica y reestructurar el espacio del problema de modo
que se puedan encontrar los procedimientos que resuelven los problemas críticos.
• Los expertos desarrollan sus actividades con menor esfuerzo. Con la práctica se produce
automatización progresiva del rendimiento, reduciéndose la carga de recursos de
procesamiento. De inicio lento y secuencial, consume recursos, y luego es todo lo contrario y
menos deliberado. (Los jugadores expertos de ajedrez son capaces de jugar no solo una sino
varias partidas a la vez de forma mental). Esto hace que se liberen recursos para otros procesos.
• Los expertos tienen mejor autocontrol. Muestran autocontrol del estado de comprensión y del
proceso de solución (los expertos evaluaban mejor la dificultad de problemas de física y además
estimaban mejor el número de piezas de ajedrez recordadas y el número de veces que necesitan
ver una posición en el tablero para poder recordarla).
• Los expertos aprovechan mejor las oportunidades que tienen para incrementar sus fuentes de
información y los recursos disponibles. De Groot 1946 encontró que los jugadores expertos
seguían aprendiendo al descubrir jugadas nuevas evaluando consecuencias de los movimientos
hipotéticos de una jugada. La práctica deliberada permite corregir los puntos débiles e
incrementar la pericia.
Alcanzar una destreza habitual de la vida cotidiana (conducir...) implica paso por tres fases:
• Fase cognitiva: se aprende estructura de la actividad (reglas y procedimientos) recibiéndose
retroalimentación bastante clara de los errores. Los novatos gradualmente aprenderán a
evitar errores y se aproximarán a sus expectativas en la siguiente fase.
• Fase asociativa: se logra nivel funcional estable y satisfactorio. Con más entrenamiento se
alcanza la última.
• Fase automática: rendimiento estable y óptimo con un mínimo esfuerzo.
Bajo este supuesto, por la instrucción y los años de experiencia, la perspectiva tradicional encuentra
difícil explicar por qué existen diferencias tan marcadas entre las personas con capacidades
semejantes y con una misma formación y antigüedad, y por qué el nivel de excelencia tan sólo lo
consiguen unos cuantos. Hatano e Inagaki (1986) distinguen entre expertos rutinarios y expertos
adaptativos.
• Experto rutinario: es eficaz destacado en rapidez, exactitud y automaticidad, falta de
flexibilidad y capacidad de adaptación ante situaciones nuevas.
• El experto adaptativo: es capaz de utilizar el conocimiento flexible y creativamente, con una
comprensión más profunda de los principios y del marco conceptual de su destreza. Muestra
predisposición a seguir aprendiendo desarrollando destreza. Los nuevos problemas son
desafíos a superar.
El adaptativo aspira a alcanzar nivel de excelencia que supere la fase de automatización, desarrolla
destreza que le permita apoyar un aprendizaje continuado. Por tanto, requiere experiencia como
práctica deliberada para poder contrarrestar la fase de automatización y así adquirir control y
habilidad en la monitorización del propio rendimiento. Reestructuran, reorganizan y refinan su
representación de conocimientos y procedimientos. Los expertos no saben más que los novatos,
sólo lo saben de forma diferente.
compensar o corregir su debilidad. La Teoría Triárquica de la inteligencia está constituida por tres
teorías:
• Teoría componencial. Esta teoría distingue tres tipos de componentes:
o Los “metacomponentes”, que son procesos ejecutivos de orden superior empleados
en la planificación, control y evaluación de los procesos implicados en la solución del
problema. Sternberg identifica siete metacomponentes en el funcionamiento
inteligente:
▪ Decisión de cuál es exactamente el problema que necesita ser resuelto.
▪ Selección de componentes de orden inferior para resolver la tarea.
▪ Selección de una o más representaciones de la información.
▪ Selección de una estrategia para combinar componentes de orden inferior.
▪ Decisión en cuanto a la asignación de los recursos necesarios para resolver el
problema.
▪ Control del proceso.
▪ Evaluación de la solución y sensibilidad a la retroalimentación externa.
o Los “componentes de actuación y rendimiento”, que son los empleados en la
ejecución de la tarea.
o Los “componentes de adquisición, retención y transferencia”, que se emplean al
aprender nueva información.
• Teoría contextual. Encargada del estudio del uso de los mecanismos mentales en la vida
cotidiana de la persona con el objetivo de lograr un ajuste o adaptación inteligente al entorno
y a las circunstancias externas.
• Teoría de la experiencia. Encargada del estudio del papel modulador y mediador que la
experiencia vital del individuo tiene en la interacción entre sus mundos interno y externo. Un
aspecto importante de la inteligencia hace referencia a un continuum relativo a la habilidad
que los individuos presentan para resolver problemas relativamente nuevos, así como para
automatizar de forma rápida los procedimientos necesarios para resolverlos.
“…se optó por explicar la teoría triárquica de la inteligencia de Sternberg porque asume una
perspectiva integradora en la que encaja la solución de problemas. La teoría de las inteligencias
múltiples de Gardner, que menciona y que fue propuesta en 1983, es una perspectiva modular. La
teoría de Sternberg ha analizado y estudiado con bastante detenimiento los componentes del
procesamiento de la información de varios ítems de las pruebas psicométricas, tales como, las
analogías, las series numéricas o de figuras, silogismos, etc. Estas investigaciones permitieron
integrar la solución de problemas, la inteligencia y la creatividad de forma más unificada.
En relación con su pregunta sobre las otras dos teorías, decirle, en términos generales, que la teoría
de la experiencia, que forma parte de la teoría triárquica de la inteligencia de Sternberg, se centra
en el análisis de la interacción entre la experiencia y conocimientos de la persona y los tres
componentes del procesamiento de la información de la teoría componencial. En su explicación de
la inteligencia, Sternberg también incluye la teoría contextual para analizar cómo es la relación que
establece la persona con su medio exterior”. ED
Los resultados encontraron que el problema de la radiación resultaba difícil de resolver: 10% del
grupo control, encontraron solución. 30% del grupo experimental lo lograron mostrando haber
establecido la analogía. Sin embargo, es un incremento muy pequeño. Si a los que no lo habían
resuelto se les daba pistas, el 75% de estos, lo resolvían, por tanto, la pista forzó el proceso de
solución. Se puede entender a este razonamiento analógico como complejo, aunque se entienda
como procedimiento de búsqueda heurística, pero entre dos representaciones.
Los procesos básicos del razonamiento analógico son los siguientes:
Aunque se trata de dominios distintos (militar y médico) comparten una estructura y solución
semejantes. Consta de relaciones verticales o cadenas causales, y de correspondencias horizontales.
Los componentes del estado inicial se relacionan causalmente con el plan de solución donde la meta
se convierte en resultado, los recursos lo posibilitan y las limitaciones impiden la aplicación de otros
planes alternativos. La dificultad para resolver este problema podría ser el acceso y recuperación
del problema análogo. El mayor obstáculo para establecer la analogía puede ser por los dominios
distintos. Esta disparidad entre ambos (militar, médico) explicaría que los sujetos no estuvieran
predispuestos a buscar solución para un problema médico en aquello que conocen sobre estrategias
militares. La mayoría recurría a analogías médicas y pocos a la militar. La complejidad y el desafío
de la investigación consiste en el explicar cómo se tiene acceso a ese conocimiento almacenado tan
distinto al problema a resolver.
Los problemas de transferencia y aplicación pueden encontrar dificultad en la adaptación del
conocimiento del problema anterior al problema nuevo. En la Transferencia se ponen en
correspondencia ambos espacios del problema dando lugar a distintas extrapolaciones (las minas y
el poder destructivo de un rayo de alta intensidad resulta menos obvia). En la adaptación pueden
surgir problemas con ligeras modificaciones (se tiene que inferir la reducción de la intensidad del
rayo por su correspondencia con la división de tropas). Se asume que se debe dar comprensión a la
representación almacenada para que se pueda transferir y adaptarse para resolver el problema
meta.
REFERENCIAS:
1. INTRODUCCIÓN
La neurociencia cognitiva es una disciplina que integra la psicología cognitiva con la neurociencia. La
neurociencia cognitiva adopta, por tanto, el objetivo de estudio de la psicología cognitiva: el estudio
de la cognición, junto con las tareas experimentales y las perspectivas teóricas. Su inicio se sitúa en
el siglo XIX, aunque los hallazgos claves se producen en el siglo XX.
Desde la perspectiva localizacionista se ha defendido que cada región del cerebro se asocia a una
función cognitiva. Sin embargo, los hallazgos más recientes indican que la cognición depende más
de la actividad conjunta de múltiples áreas (redes o conexiones cerebrales) que de la actividad de
una única región del cerebro. Hoy nos encontramos en un momento donde se ha producido un gran
avance de la tecnología que ha permitido plantear dos grandes retos para los próximos años. Por un
lado, el proyecto conectoma humano que se está desarrollando en las instituciones americanas con
el objetivo de conocer el conectoma o conexiones del cerebro para entender el comportamiento y
las enfermedades mentales. Por otro lado, el proyecto europeo del cerebro humano (Human Brain
Project) que pretende simular el cerebro en sus diferentes niveles.
Phineas Gage trabajaba en la construcción de una vía de ferrocarril donde usaban explosivos para
hacer agujeros en la montaña. En una de esas explosiones una barra de metal impactó en la cara de
Gage, le atravesó por detrás del ojo izquierdo y salió por la parte superior del cráneo. Estamos en el
año 1848 y a pesar de este aparatoso accidente no tuvo ninguna alteración en el movimiento o el
habla. Seguía siendo inteligente y podía resolver problemas abstractos, tenía buena memoria y
podía realizar nuevos aprendizajes. Sin embargo, «Gage ya no era Gage». Cambió su personalidad
radicalmente, dejó de ser responsable y no cumplía sus compromisos lo que le llevó a la incapacidad
de mantener un trabajo, bien porque él mismo los dejaba o porque le echaban tras continuos
conflictos con sus compañeros. También dejó de ser socialmente habilidoso. Era agresivo e incapaz
de regular sus emociones. Murió doce años más tarde probablemente debido a las consecuencias
de las crisis epilépticas que sufría. Damasio, Grabowski, Frank, Galaburda y Damasio (1994), tras un
exhaustivo estudio del cráneo, concluyeron que probablemente la estructura afectada fuera la
corteza prefrontal ventromedial, área que conecta con núcleos subcorticales como la amígdala y el
hipotálamo, que se encuentran relacionados con la emoción y las funciones vitales básicas,
respectivamente. La corteza prefrontal ventromedial se asocia con el procesamiento emocional, la
regulación emocional y la cognición social.
Este caso permitió conocer la relación que existe entre una estructura del cerebro y la función que
se observa afectada. Dos son los elementos claves a la hora de poder establecer una relación de este
tipo:
La interpretación y las conclusiones que extraemos de los estudios de lesiones no es para nada tan
robusta como pueda parecer a primera vista. En el caso descrito de Phineas Gage:
• Disociación simple. Inferencia errónea caracterizada por considerar que una estructura
lesionada que se acompaña de una alteración en una determinada función debe ser de algún
modo responsable último de dicha función. En el caso de Gage sería un ejemplo de
disociación simple asumir que el lóbulo frontal tiene papel necesario y suficiente para las
funciones cognitivas y conductuales que se vieron afectadas. Este tipo de inferencias no
permiten descartar otras interpretaciones perfectamente válidas (lesiones en otras regiones
con consecuencias similares, misma lesión tiene efectos diferentes en otros pacientes…).
• Disociación doble. En la disociación doble se asume que la región A se relaciona con una
función X y que la región B se relaciona con la función Y. Se comparan lo bien o mal que se
ejercen las tareas asociadas a cada función en cada tipo de lesión. Evidentemente este tipo
de comparaciones es más robusta a la hora de mostrar la especificidad de la relación entre
una región cerebral y una función cognitiva.
Sin embargo, las evidencias acumuladas en las últimas décadas utilizando este tipo de diseños y
también investigaciones con técnicas de neuroimagen sugieren que las relaciones específicas entre
áreas y funciones son más la excepción que la regla (Sporns, 2010). De hecho, tales relaciones
parecen observarse de forma clara solamente para las áreas cerebrales dedicadas al procesamiento
sensorial y a la producción de acciones motoras.
Es frecuente encontrar casos en los que el mismo tipo de lesión cerebral produce consecuencias
conductuales distintas debido sobre todo a que el cerebro, como iremos viendo, opera más como
una red interconectada de áreas que como módulos separados e independientes con funciones
conductuales y cognitivas específicas. En los estudios de pacientes con lesiones, este modelo de red
interconectada ofrece varias explicaciones alternativas para los casos en los que se observan efectos
conductuales diferentes para una misma lesión (Feldman Barrett, 2017). Por ejemplo:
• Variaciones en la forma en que se reorganizan las estructuras intactas adyacentes a la región
lesionada. La plasticidad cerebral podría formar nuevas conexiones que permitan suplir las
deficiencias derivadas de la lesión.
• Las diferencias conductuales podrían deberse a que el área lesionada es necesaria para la
función, pero no suficiente. Esta perspectiva es la que mejor encaja con el modelo de redes
o circuitos neurales, donde una función psicológica implica participación de multitud de áreas
cerebrales.
• Otra posibilidad sería que la zona lesionada no participa directamente en la función cognitiva
afectada, sino que medie o haga de puente entre áreas que sí contribuyen de forma más
directa a dicha función. En esta ocasión podríamos cometer el error de indicar su
participación cuando es un mero enlace entre otras estructuras. Por ejemplo, como sucede
en el caso del fascículo uncinado, que media la conexión del lóbulo temporal anterior y el
lóbulo temporal medial con la corteza prefrontal ventromedial, red que se relaciona con la
regulación emocional.
Parte de las dificultades encontradas por la investigación con lesiones cerebrales deriva de las
limitaciones a la hora de encontrar un número suficiente de pacientes con una lesión similar. Esta
limitación no se ha dado en la investigación animal en la que el experimentador puede producir
directamente las lesiones de interés o estimular directamente zonas cerebrales de dichos animales
usando pulsos eléctricos. Sin embargo, parece obvio que existe una barrera a la hora de generalizar
los hallazgos de la investigación animal a la explicación de la cognición humana. En la actualidad, el
desarrollo de técnicas de estimulación cerebral no invasivas e indoloras, destacando la estimulación
magnética transcraneal y la eléctrica, están facilitando la realización de estudios hasta cierto punto
similares a los realizados en animales. La idea de que más que hablar de una anatomía modular de
la cognición debemos hablar de redes de activación que subyacen al ejercicio de determinadas
funciones cognitivas.
marcador radiactivo (p.ej. isótopo de flúor) y que, además, no puede ser metabolizada
por lo que se acumula en el interior de las células, en mayor proporción en aquellas
que son más activas. El metabolismo se incrementa en regiones con mayor actividad
neuronal, a su vez asociado con la tarea cognitiva que se está realizando.
resolución de problemas bien estructurados y el lenguaje. Veamos algunos estudios de lesiones que
confirman esta relación entre el lóbulo frontal y sus funciones cognitivas asociadas.
Goel y Grafman (1995), presentaron el problema de la Torre de Hanói a pacientes con la corteza
prefrontal afectada y encontraron:
• El 51% de pacientes resolvieron la tarea frente al 84% del grupo control.
• Los pacientes que acabaron la tarea tardaron el doble y el número de movimientos fue mucho
mayor comparado con el grupo control.
• Los resultados no se explican por incapacidad de planificación sino por dificultades para
mantener en la memoria de trabajo el objetivo. Esto se confirmó a través del modelo
computacional simulado por Goel, Pullara y Grafman (2001), donde manipularon la memoria
de trabajo y confirmaron que las diferencias encontradas entre ambos grupos (pacientes y
grupo control) se debían a sus diferencias en la memoria de trabajo.
“Según la página 259: "Goel y Grafman (1995) presentaron el problema de la Torre de Hanói a
pacientes con la corteza prefrontal afectada." Como ve, no se especifíca si tenían el lado derecho o
izquierdo o ambos afectados. En este caso se compara con un grupo de control.
Más adelante se indica (concretamente, en el apartado 3.2.) que los estudios descritos previamente
presentaron algunas limitaciones, por ejemplo, pocos sujetos y además no se sabe si los resultados
encontrados se deben a la lesión en la corteza prefrontal afectada o cualquier lesión produciría los
mismos efectos. Es entonces cuando se expone un estudio con muchos sujetos y donde se distingue
entre la corteza prefrontal derecha, izquierda, lesión posterior; y ahí se encuentra que la lesión en la
corteza prefrontal derecha parece que perjudica la resolución de problemas poco estructurados de
la vida diaria.
Resultados:
• Los pacientes con lesión en corteza prefrontal presentaban mayor dificultad al proponer
propuestas a largo plazo, además sus propuestas fueron menos elaboradas y detalladas.
Dijeron que la tarea era difícil y no se sentían seguros de sus respuestas.
• Los pacientes se centraron en propuestas para eliminar gastos.
• Grupo control tardó más tiempo en realizar la tarea, ya que generaron diferentes propuestas
tanto para reducir gastos como incrementar ingresos.
• Propuestas a corto plazo fueron similares en ambos grupos.
• Cuando autores dividieron a los 10 pacientes en grupos de alta y baja memoria, no
observaron diferencias entre los de alta memoria y control.
• Resultados favorecen la hipótesis de que diferencias en la realización de esta tarea venían
dadas por la función cognitiva afectada (memoria e inteligencia) más que por la lesión en sí.
En los estudios de Goel y colaboradores (1995; 1997), el grupo control no tenía ninguna lesión
cerebral y esto no nos permite saber si los resultados encontrados podrían deberse a la propia lesión
de la corteza prefrontal o si cualquier lesión del cerebro produciría los mismos efectos. Otra
limitación a destacar sería que presentaron una muestra de tamaño pequeño, diez pacientes, lo que
dificultaría obtener conclusiones robustas.
Un estudio posterior mostró resultados similares y superó las limitaciones del anterior al comparar
pacientes con lesión prefrontal derecha o izquierda, pacientes con lesión posterior y personas sin
lesión. Los pacientes con lesión en corteza prefrontal derecha hacían propuestas más abstractas,
generales e imprecisas al planificar un viaje en pareja, comparados con los otros tres grupos. Los
resultados corroboran a Goel, que destaca que la función de la corteza prefrontal derecha está
ligada a la resolución de problemas poco estructurados (la izquierda se activaría ante problemas
bien estructurados).
La tarea de los participantes era indicar si los silogismos eran o no válidos, es decir, si la tercera frase
se seguía de las dos primeras. Los resultados mostraron que:
• Tanto los pacientes con lesión prefrontal derecha como los pacientes con una lesión en la
corteza prefrontal izquierda hacían peor todos los tipos de silogismos comparados con el
grupo control.
• Los pacientes con lesión en corteza prefrontal izquierda eran peores en los silogismos
determinados, válidos o inválidos.
• Los pacientes con lesión en corteza prefrontal derecha obtenían peores resultados en
silogismos indeterminados.
Estos resultados indicarían que la corteza prefrontal izquierda se activa cuando la información es
completa y hay una conclusión válida, necesariamente verdadera; mientras que la corteza prefrontal
derecha se activa cuando hay varias conclusiones posibles, es decir, ante situaciones de
incertidumbre. Estos resultados podrían relacionarse con la detección de conflictos que se ha
relacionado con la corteza prefrontal derecha, pues varias conclusiones posibles generarían un
conflicto entre ellas.
En el contenido abstracto arbitrario presentaron el enunciado “Si hay una consonante por una cara,
entonces hay un número impar por la otra”. Se presenta presentan 4 tarjetas (P, E, 7, 2) con letras
por una cara y los números por la otra. Se acompaña de un enunciado condicional en forma de regla
y se pedía a los sujetos que dieran la vuelta a la tarjeta o tarjetas que fueran necesarias para
determinar si la regla es verdadera o falsa. Las respuestas correctas son, P y 2, las únicas que podrían
confirmar (P) o falsar (2) el enunciado. Esta tarea rara vez la responden correctamente las personas
sin lesiones y parece que lo mismo ocurre con pacientes lesionados, cuya ejecución fue igual de mala
que la del grupo control. Las personas rara vez realizan la tarea correctamente y los autores
encontraron los mismos resultados tanto para los pacientes como para el grupo control en la
condición abstracta arbitraria. Estos resultados cambiaron para las condiciones del esquema de
permiso abstracto “Si se va a realizar la acción A, entonces debe satisfacerse primero la precondición
B” y concreto “Si una persona bebe alcohol, entonces debe de tener al menos 18 años” donde los
pacientes con la corteza prefrontal derecha afectada mejoraron igual que el grupo control, sin
embargo, los pacientes con la corteza prefrontal izquierda afectada mostraron los peores
resultados. Este hallazgo apuntaría a que estos últimos pacientes no se beneficiaban del
conocimiento social abstracto o concreto.
Una limitación de este estudio es que el grupo control no tenía ninguna lesión y como consecuencia
no se podría concluir si este efecto se debía exclusivamente a la corteza prefrontal izquierda u otra
lesión podría provocar los mismos efectos. Por otro lado, lo que parece confirmar este estudio es
que la condición abstracta arbitraria que no presentaba contenido social se relaciona con procesos
analíticos asociados con el lóbulo parietal y en este caso, tanto pacientes como el grupo control
tendrían esta área intacta, de ahí que no se observaran diferencias entre ellos en esta condición.
“¿Cómo entienden las personas el condicional o cual es el significado del condicional (entendido este
como implicación material)? Si nos dicen: Si hay una consonante por una cara, entonces hay un
número impar por la otra. Entendemos o representamos el condicional a través de sus tres
posibilidades verdaderas:
Consonante Impar
No-Consonante Impar
No-Consonante No-Impar
Realmente es lo que hacemos cuando queremos saber si una regla siempre se cumple hay que buscar
algún ejemplo en el que no se cumple, es decir, hay que falsar la regla. Aunque como veremos las
personas somos grandes verificadores (sesgo de verificación) y vamos atendiendo aquello que hace
verdadero la regla ignorando incluso aquellos ejemplos que falsan la regla”. ED
Es importante señalar que en los estudios de resonancia magnética funcional se presentan como
mínimo dos condiciones experimentales (por ejemplo, la condición con contenido y sin contenido)
y se estudia el efecto, que es la diferencia entre dichas condiciones experimentales. En los estudios
de resonancia magnética funcional, cada condición activa prácticamente todo el cerebro. Lo que se
hace entonces es restar una condición a la otra señalando así el área del cerebro que las diferencia.
Esto es importante porque algunos lectores pueden interpretar erróneamente que en una condición
experimental solamente se activa una estructura del cerebro y más bien lo que se presenta en los
estudios es la diferencia entre ambas condiciones.
En otra investigación sobre razonamiento inductivo, Liang, Goel, Jia y Li (2014) estudiaron la falacia
de la inclusión que consiste en considerar más convincente (más probable) la generalización de una
categoría específica (petirrojo) a una general (pájaro) que la generalización de una categoría
específica a otra específica (p. ej., avestruz). “La falacia de la inclusión es pensar que es más probable
la generalización de una categoría específica (petirrojo) a una general (pájaro) que la generalización
de una categoría específica a otra específica (por ej., avestruz), pero esto es un error.
Por ejemplo, "los perros tienen cuatro patas" es más probable que otro ejemplar tenga esa
propiedad, "los gatos tienen cuatro patas" que todos los ejemplares de la categoría tengan la
propiedad: "todos los mamíferos tienen cuatro patas". Sin embargo, las personas lo entienden al
revés, de ahí la falacia”. ED
Los autores presentaron un primer argumento formado por una premisa específica y una
conclusión (implícita) general:
Los petirrojos secretan cristales de ácido úrico.
Los pájaros secretan cristales de ácido úrico.
En un segundo argumento formado por una premisa específica y una conclusión (implícita)
específica:
Los petirrojos secretan cristales de ácido úrico.
Los avestruces secretan cristales de ácido úrico.
La tarea de los participantes era indicar qué argumento era más probable. El argumento más
probable era el segundo porque es más probable que dos ejemplares (petirrojos y avestruces) que
pertenecen a una categoría compartan una propiedad que todos los ejemplares de dicha categoría
(pájaros). Esta idea la saben bien las personas. De hecho, los autores presentaron otra condición
donde añadieron el cuantificador “todos” y los resultados cambiaron. P. ej., presentaron un primer
argumento con una premisa específica y una conclusión (explícita) general:
Los resultados conductuales (aciertos y tiempo de reacción) mostraron que los participantes hacían
inferencias correctas con más frecuencia que cometían la falacia de la inclusión en la condición
explícita (precedida por “todos”), mientras que no había diferencias entre ambas respuestas para la
condición implícita (que no estaba precedida por “todos”).
este hallazgo coincide con el que encontramos en la primera investigación Efecto del
Contenido.
• Activación del lóbulo frontoparietal derecho en la condición implícita (sin el “todos”) donde
aumentó el número de falacias cometidas por los participantes. Lóbulo parietal se relaciona
con procesamiento analítico, corteza prefrontal derecha con la detección de conflictos entre
respuesta correcta y falaz. Puede ser que la condición implícita resultase ambigua al no
indicar explícitamente a todos los ejemplares.
• También se activa en este tipo de tareas la corteza frontal superior medial bilateral,
relacionada con la respuesta de orientación a la tarea.
Otra tarea diferente donde se encuentran resultados similares es en una versión del problema del
abogado-ingeniero. Ya hemos estudiado en el capítulo del razonamiento probabilístico que las
personas son insensibles a las probabilidades a priori y se dejan llevar por el heurístico de
representatividad, basándose para ello en el conocimiento sobre el estereotipo de ingeniero.
Tomando como referencia el problema del abogado-ingeniero, De Neys y Goel (2011) presentaron
cuatro condiciones:
• Incongruente:
Ratio: en un estudio hay 5 hombres y 995 mujeres.
Descripción: Jo tiene 23 años y está acabando el grado de ingeniería. Los sábados noche le gusta
salir con sus amigos, escuchar música y beber cervezas.
Preguntas: ¿Qué es más probable?
a) Jo es un hombre
b) Jo es una mujer
• Congruente:
Ratio: En un estudio hay 5 suecos y 995 italianos.
Descripción: Marco tiene 16 años, le gusta jugar al fútbol con amigos y salir a tomar pizza o hacer
pasta en casa.
Pregunta: ¿Qué es más probable?
a) Marco es sueco
b) Marco es italiano
• Heurística Neutra:
Ratio: En un estudio hay 5 votantes de Bush y 995 votantes de Kerry.
Descripción: Jim mide 1,70, tiene pelo negro y es padre de dos niñas. Conduce una furgoneta
amarilla cubierta de posters.
Pregunta: ¿Qué es más probable?
a) Jim es votante de Bush
b) Jim es votante de Kerry.
• Analítica neutra:
Ratio: En un estudio hay 500 personas de 40 años y 500 de 17.
Descripción: Rylan vive en Búfalo, le gusta escuchar pop y ahorra para comprarse una casa.
Pregunta: ¿Qué es más probable?
a) Rylan tiene 40 años
b) Rylan tiene 17 años
“Es importante tener presente que los resultados que se ofrecen de la resonancia magnética son la
comparación de dos condiciones. Esto quiere decir que cuando se comparan las condiciones basadas
en razonamiento analítico y razonamiento heurístico se observa una mayor activación del lóbulo
parietal bilateral para el razonamiento analítico mientras que se observa una mayor activación del
lóbulo temporal lateral izquierdo en la condición de razonamiento heurístico.
La condición heurística neutra es aquella que la descripción no nos da información (es decir, es
neutra), por ello la gente tendría que atender a la información presentada a priori para responder.
Como esto sabemos que la gente lo ignora de ahí que el número de errores fuese superior que la
condición analítica neutra. Al no haber una descripción sesgada no se activaría ningún razonamiento
heurístico.
La condición analítica neutra es cuando las probabilidades a priori son similares, entonces no
podemos basar nuestra decisión en un razonamiento analítico, sino exclusivamente en la descripción
y activar un razonamiento heurístico”. ED
Resultados conductuales mostraron que las condiciones congruentes y analíticas neutras tenían
más aciertos y se respondían más rápidamente que las otras dos condiciones, siendo la más difícil la
incongruente.
Los resultados de la resonancia magnética funcional (RMf) mostraron que las personas activaban
el lóbulo temporal lateral izquierdo cuando utilizaban el heurístico de representatividad para
resolver el problema, es decir, basaban sus decisiones en su conocimiento; mientras que activaban
el lóbulo parietal bilateral cuando lo resolvían activando los procesos analíticos. También
observaron que las personas activaban la corteza prefrontal lateral derecha relacionada con la
detección de conflictos cuando había una incongruencia entre la probabilidad a priori y la
descripción y respondían correctamente en la condición incongruente.
En resumen y a la vista de los resultados, con independencia del tipo de problema presentado,
observamos que:
• Se activa el lóbulo frontotemporal izquierdo en respuestas basadas en procesamientos
heurísticos (conocimiento). (Procesos rápidos, inconscientes y automáticos).
• Se activa el lóbulo parietal bilateral en procesos analíticos (lentos, conscientes y controlados).
• Se activa la corteza prefrontal derecha cuando se detecta conflicto entre respuestas que se
basan en procesos analíticos y heurísticos.
Resultados EEG:
• El componente P3001 en la región centroparietal era mayor en condiciones congruentes que
incongruentes. Dentro de las condiciones congruentes, el P300 alcanzaba su máxima
amplitud cuando el consecuente era congruente:
Si John está durmiendo, entonces está roncando.
John está durmiendo.
John está roncando.
• La amplitud del P300 en la condición antecedente congruente, presentado después del
condicional, era menor:
Si John está durmiendo, entonces está roncando.
John está durmiendo.
1 El P300 es un componente positivo, de ahí la «P», asociado al procesamiento cognitivo de estímulos esperados congruentes frente a
incongruentes. Indica aumento de actividad, su pico máximo se alcanza alrededor de los 300 milisegundos de presentarse el estímulo.
• La amplitud del P300 en la condición antecedente congruente era menor que en las dos
anteriores si se presentaba el antecedente antes del condicional:
John está durmiendo.
Si John está durmiendo, entonces está roncando.
• Según los datos, la condición más esperada es la congruente con el consecuente presentado
después del condicional.
Al presentar el consecuente “Hay una letra C”, entienden que la única inferencia
posible es “Hay una letra A” y de ahí que acepten como válida la Afirmación del
Consecuente, aunque sea errónea.
Personas también pueden representar condicionales a través de Modelos mentales Explícitos (es el
despliegue del modelo inicial o implícito):
A C
No-A C
No-A No-C
Al presentar el consecuente “Hay una letra C”, entienden que hay dos posibles conclusiones, A y No-
A, por tanto, la inferencia “Hay una letra A” no es válida. Esto se traduce en mayor tiempo de
procesamiento, ya que se representan 3 modelos en vez de 1, y es congruente con el resultado de
arriba. Las personas que no consideraron válida la Afirmación del Consecuente (AC) tardaron más
que los que la aceptaron como válida.
Los autores también analizaron los datos de la electroencefalografía. En primer lugar, compararon
la premisa menor para el modus ponens “Si hay una letra A, entonces hay una letra C. Hay una letra
A” y la afirmación del consecuente “Si hay una letra A, entonces hay una letra C. Hay una letra C”.
Los resultados mostraron un mayor P300 centroparietal para el Modus Pones (MP) comparado con
la Afirmación del Consecuente (AC), mientras que el N2002 era mayor para la Afirmación del
Consecuente (AC) comparado con el Modus Pones (MP) en el área frontocentral.
Los hallazgos de este estudio indican que la mayor amplitud del P300 para el Modus Pones (MP) se
asocia a que personas esperaban más el antecedente que el consecuente. Dicho de otro modo,
mayor amplitud del N200 para la Afirmación del Consecuente indica que el consecuente era menos
esperado que el antecedente.
Comparando los datos del EEG, después de la presentación del Modus Pones (MP) y de la Afirmación
del Consecuente (AC), los autores distinguieron entre sujetos que aceptaban la Afirmación del
Consecuente (AC) como válida:
• No había diferencias entre el Modus Pones (MP) y la Afirmación del Consecuente (AC) para
los que aceptaban la Afirmación del Consecuente (AC) como válida, ni en P300, ni en N200.
Esto es porque en ambas inferencias sujetos representarían el mismo modelo inicial (A C).
2El N200 es un componente negativo, de ahí la «N», que indica disminución de la actividad, encontrándose su pico máximo alrededor de los
200 milisegundos después del estímulo y se relaciona con la información inesperada o incongruente.
Una analogía se presenta como una serie ordenada de cuatro términos en la que la relación que se
establece entre el primer par de términos es análoga a la del segundo par de términos (A:B :: C:D).
P. ej., estos autores presentaron dos objetos relacionados como es el caso de una radio y una oreja
(escuchamos la radio a través de la oreja). Seguidamente aparecía otro objeto (una televisión) y los
sujetos tenían que inferir el cuarto objeto basándose en la relación previa. El razonamiento sería “la
radio es a la oreja como la televisión es a” y de forma general, “A es a B como C es a D”. Por último,
se presentaba el cuarto objeto (un ojo) y la tarea era indicar si cumplía o no la relación previa. En
este ejemplo se respondería afirmativamente porque la radio se escucha (oreja) y la televisión se ve
(ojo). Esta condición experimental se comparaba con dos condiciones de control donde los
participantes tenían que señalar si la relación entre el tercer y el cuarto objeto era semántica (pino-
piña) o perceptiva (anzuelo-bastón) con independencia de la relación entre los dos primeros objetos.
Resultados Rmf:
• Activación de corteza rostro-lateral en tarea de analogías, perceptiva y semántica, sin
diferencias con la tarea de control perceptiva y semantica.
• Indica que la corteza prefrontal rostrolateral se relaciona con el proceso de abstracción, algo
que ocurre en las 3 condiciones.
Wendelken, Chung y Bunge (2012), en otra tarea de razonamiento analógico, distinguieron entre
analogías semánticas y analogías visoespaciales.
Analogía visoespacial:
• Preguntas de primer orden: similitud entre figuras señaladas, forma de la figura, líneas curvas
o rectas.
• Pregunta de segundo orden: ¿A es a B como C es a D en dirección y forma?
Los resultados conductuales mostraron que las preguntas de segundo orden eran más difíciles que
las de primer orden en términos de aciertos y tiempo de reacción. Además, la analogía semántica
era más difícil que la visoespacial. Esto podría deberse a que los participantes necesitaban acudir a
la memoria (conocimiento) para responder sobre la categoría (vehículo o animal) y localización (mar
o tierra), en cambio, para la analogía visoespacial la respuesta sobre la forma y la dirección de las
figuras era más perceptiva. Los resultados de la resonancia magnética funcional encontraron la
activación de la corteza prefrontal rostrolateral izquierda para ambos tipos de analogías. El lóbulo
parietal posterior se activaba en las analogías visoespaciales, relacionado con la cognición espacial,
mientras que se activaba la corteza prefrontal ventromedial en las analogías semánticas.
Knowlton, Morrison, Hummel y Holyoak (2012), presentaron una teoría computacional de las
principales áreas del cerebro relacionadas con razonamiento analógico. Distinguieron dos redes
cerebrales relacionadas con la analogía visoespacial y semántica.
Resultados Rmf:
• Alta conectividad en problemas resueltos con alto insight en:
o El núcleo accumbens, un área relacionada con el refuerzo o recompensa pero también
con la integración y comunicación de información cortical y subcortical.
o El área tegmental ventral relacionada con el sistema dopaminérgico, asociado a su vez
con el sistema de recompensa.
o El hipocampo relacionado con la memoria.
o La corteza prefrontal dorsolateral relacionada con la memoria de trabajo.
La red de insight utiliza la memoria de trabajo para la resolución, la memoria a largo plazo para la
búsqueda de la palabra y que además encontrar la palabra nos produce satisfacción (recompensa).
Resulta que utilizaron la misma tarea anterior pero esta vez medida con la EEG para conocer la
conexión de estas áreas del insight a través de los ritmos o frecuencias de las neuronas cuando se
comunican (recordad que el EEG
pertenece a las técnicas
Neurofisiológicas, que estas miden
directamente las neuronas y que
tienen muy buena resolución
temporal, de ahí que midan el
mismo momento en que las
neuronas realizan las sinapsis).
Encontraron actividad Gamma (40-
48Hz) en la región parieto-
occipital, relacionada con la
atención, seguidamente y en la
misma área, actividad Theta (4-
8Hz), relacionada con la memoria
3 Insight es una palabra utilizada en Psicología que al español se podría traducir literalmente como “visión interna”, pero que sería más
conveniente traducir como “percepción” o “entendimiento”. El insight le permite a la persona captar, internalizar o comprender una verdad
revelada sobre sí misma. Suele hacerse consciente repentina e inesperadamente, aunque generalmente es fruto de un trabajo profundo,
simbólico, o mediante el empleo de diversas técnicas afines.
episódica. ¿Esto traducido que nos dice? Pues que personas primero atienden al problema y después
echan mano de la memoria para resolverlo. Lo que nos interesa de este estudio es que la actividad
Theta no se asocia sólo con dormir (algo que se ha comentado en el cuadro 9.3 y que puede inducir
error), también influye en la memoria y codificación de estímulos que serán recordados
posteriormente.
Knauff (2009), (modelos mentales), estudió si había un sustrato cerebral que se pudiera relacionar
con las etapas de los modelos mentales. Para ello, presento silogismos transitivos como:
A está a la izquierda de B.
B está a la izquierda de C.
A está a la izquierda de C.
Observo lo siguiente:
• La lectura de la primera premisa “A está a la izquierda de B” activó el lóbulo occipito-
temporal bilateral. Sujeto crea una imagen mental de dos objetos basándose en su
conocimiento en lenguaje y conocimiento almacenado en la memoria. Es la etapa que Knauff
llama “construcción de una imagen mental”.
• La lectura de la segunda premisa “B está a la izquierda de C” activó la corteza prefrontal
anterior. Participantes debían integrar el tercer elemento (C) dentro de los dos primeros (A
y B) y enunciar una conclusión tentativa. De ahí que la segunda etapa sea “transformación de
una imagen a un modelo”.
• La lectura de la tercera premisa “A está a la izquierda de C” activó la corteza prefrontal
dorsolateral (memoria de trabajo) y el lóbulo parietal posterior (relaciones espaciales). Al
parecer en este momento cesaba la actividad del lóbulo occipital, indicaría que las
representaciones visuales no eran necesarias en esta etapa (hay evidencias que sugieren lo
contrario, que las representaciones visuales facilitan el procesamiento cognitivo y
específicamente el razonamiento transitivo). En esta etapa, que Knauff denomina
“procesamiento de modelos mentales”, los sujetos buscan modelos mentales alternativos de
las premisas para falsar la conclusión tentativa mediante la búsqueda de contraejemplos. Si
no los encuentran > conclusión válida. Si los encuentran > regreso a la segunda etapa.
Muchos estudios han destacado que las representaciones visuales facilitan el procesamiento
cognitivo general y específicamente el razonamiento transitivo pero pocos han señalado que las
representaciones visuales también pudieran interferir o enlentecer el razonamiento
Los participantes tenían que indicar si la conclusión sigue de las premisas por ejemplo, “¿es el gato
mejor que el caballo?”. Los resultados conductuales (tiempo de reacción y número de errores)
mostraron que los participantes cometían más errores y eran más lentos en la condición con
contenido visual. Este enlentecimiento y la peor ejecución no se observa en personas ciegas de
nacimiento.
Resultados de la RMf indican que se activaron para los 4 tipos de contenido el giro temporal medial
izquierdo, relacionado con la memoria, y el lóbulo parietal derecho relacionado con el
razonamiento. Los autores concluyeron que la estructura principal del razonamiento era el lóbulo
parietal. La representación visual no explica el razonamiento.
Knauff (2013) defiende que el razonamiento sería más espacial que visual dado que el lóbulo parietal
bilateral se activa en el razonamiento mientras que el lóbulo occipital lo hace exclusivamente
cuando el contenido es visual.
Noveck, Goel y Smith (2004) querían estudiar si el sustrato neural que se activa cuando se resuelve
un condicional se asocia a la teoría de los modelos mentales o a la teoría de reglas. Para tal fin, los
autores presentaron condicionales (por ej., si hay un cuadrado negro, entonces hay un círculo
amarillo) y examinaron el modus ponens:
“Si hay un cuadrado negro, entonces hay un círculo amarillo”
“Hay un cuadrado negro”.
“Hay un círculo amarillo”.
Y el modus tollens:
“Si hay un cuadrado negro, entonces hay un círculo amarillo”.
“No hay un círculo amarillo”.
“No hay un cuadrado negro”.
Los participantes tenían que indicar si el tercer enunciado se seguía o no de las premisas.
Resultados:
• Activación lóbulo frontoparietal izquierdo para ambos tipos de inferencia. En consonancia
con la teoría de reglas.
• Activación de la corteza prefrontal derecha en el modus tollens (tiene sentido, recordemos
que esta área se relaciona con la detección de conflictos).
• Pudiera ser que la activación de la corteza prefrontal derecha tuviera también que ver con
una sobrecarga en la memoria de trabajo.
Knauff, Mulack, Kassubek, Salih y Greenlee (2002) también examinaron el modus ponens y el modus
tollens usando condicionales. Por ejemplo:
Si el hombre está enamorado, entonces le gusta la pizza.
El hombre está enamorado.
Se sigue que ¿el hombre le gusta la pizza?
Los participantes tenían que indicar si el tercer enunciado se seguía o no de las premisas.
Resultados:
• Activación bilateral en el lóbulo parietal y la corteza visual de asociación, datos que muestran
que el razonamiento es espacial y corroborando la dichosa teoría de los modelos mentales.
• No se activó la corteza visual primaria, mostrando nuevamente que no habría implicación de
las representaciones visuales en el razonamiento.
• Activación de la corteza prefrontal bilateral. Según los autores, la información se procesa en
el lóbulo parieto-occipital y se mantiene en la corteza prefrontal derecha (la de detección de
conflictos, que también se asocia a la memoria de trabajo como hemos visto en el estudio
anterior).
En el Razonamiento Condicional:
“Si Hay una A, entonces hay una B”
“Hay una A”
“Hay una B”
Wendelken concluyo que el lóbulo intraparietal es un área exclusiva del razonamiento (esto es
porque el autor relaciona el razonamiento a las capacidades matemáticas), y por eso la teoría que
explica mejor el razonamiento sería La Teoría de la Probabilidad, que defiende que el razonamiento
es probabilístico y siempre basado en la incertidumbre.
Bechara, Damasio y Damasio (2000) presentaron la tarea de Iowa que consistía en mostrar en el
ordenador cuatro cartas y los participantes tenían que elegir una. Seguidamente se indicaba la
ganancia o la pérdida de la carta elegida. Las cartas A y B tenían ganancias y pérdidas muy altas
comparadas con las cartas C y D. Los participantes eran pacientes que tenían una lesión en la corteza
prefrontal ventromedial. Estos pacientes comenzaron eligiendo las cartas A y B igual que el grupo
control, que no tenía ninguna lesión. Con el transcurso del juego, los participantes del grupo control
se daban cuenta que eran mejores las cartas C y D pues, aunque ganaban menos, también perdían
menos y a largo plazo se beneficiaban; en cambio los pacientes no cambiaron sus respuestas a lo
largo del experimento. Según los autores estas elecciones se daban porque pacientes se centraban
en ganancias inmediatas y por su insensibilidad a los castigos (pérdidas), al ser incapaces de sentir
emociones negativas dada su lesión.
Por otro lado, desde la teoría de la hiperemoción se propone que una emoción puede promover la
atención de todas las posibilidades de un argumento lo que mejoraría el razonamiento. El
razonamiento reforzaría la emoción provocando un nuevo hilo de pensamiento y así sucesivamente.
Emoción y razón se influirían mutuamente.
Gangemi, Mancini y Johnson-Laird (2006) presentan silogismos con contenido neutro y con
contenido depresivo, como:
“Cuando pienso en el futuro, me siento triste”
“Cuando me siento triste, soy muy pesimista”
“Cuando pienso en el futuro, soy muy pesimista”
Los participantes tenían que indicar si el tercer enunciado se seguía o no de las premisas, es decir,
si era válido o inválido. Resultados:
• Las personas con depresión tenían más respuestas correctas en silogismos con contenido
depresivo.
• Se replicó experimento con personas con ansiedad y se obtuvieron resultados similares.
Razonaban mejor cuando el contenido era congruente con sus preocupaciones
Estas evidencias no deben ser tomadas como mecanismo general. Parece que la emoción mejora el
razonamiento cuando el contenido es congruente con aspectos emocionales que evoca. Numerosos
estudios confirman esta hipótesis.
Resultados RMf:
• Activación de la corteza prefrontal
dorsolateral izquierda (relacionada con
memoria de trabajo), para silogismos con
contenido neutro
• Activación de corteza prefrontal
ventromedial para silogismos con contenido
emocional. Esta área está conectada a las
áreas subcorticales relacionadas con la
emoción, como la amígdala.
Resultados:
• Se observaron mejores resultados en la
condición ira
• Activación del giro frontal superior derecho,
asociado a la atención selectiva.
• Podría indicarnos que la ira aumenta la
atención y, por tanto, mejoraría la ejecución
del razonamiento.
Resultados:
• Respuestas correctas disminuían y eran más lentas ante imágenes irrelevantes emocionales
(toxicómano) que ante imágenes irrelevantes neutras (dos delfines).
• Hallazgo indicativo de que el procesamiento de emociones requiere mayor atención y por
tanto, mayor tiempo de procesamiento.
• Cuando imágenes eran congruentes con el contenido, no había diferencias en la ejecución. A
favor de la hipótesis de que cuando la emoción es relevante para el contenido, mejora el
razonamiento.
• Se midió también la conductancia de la piel y hubo mayor arousal en la condición irrelevante
emocional.
• Autores concluyen que la relevancia modula el papel de la emoción en el razonamiento.
La emoción perjudica el razonamiento puesto que los estímulos emocionales requieren de mayor
atención y procesamiento. Ahora bien, cuando las emociones son relevantes para el contenido
mejoran su procesamiento. En palabras de los autores, la relevancia es la que modula el papel de la
emoción en el razonamiento.
Greene, Sommerville, Nystrom, Darley y Cohen (2001) presentaron las dos versiones del problema
conocido del tren:
Versión A: Impersonal.
“Un tren se acerca a gran velocidad por la vía y está fuera de control. A 100 m se
encuentran 5 personas. La única posibilidad de que vivan es que tú pulses un botón
para cambiar la dirección del tren y que salga por una vía donde se encuentra una
única persona. ¿Pulsas el botón?”
Versión B: Personal.
“Hay un tren que se acerca a gran velocidad por una vía y está fuera de control. A
cien metros de esa misma vía se encuentran cinco personas. La única posibilidad de
que vivan es que tú tires a un hombre corpulento por un puente y pare el tren.
¿Tirarías al hombre?”
Resultados:
• La mayoría respondían afirmativamente a la versión A y se niegan en la B.
• Las personas muestran racionalidad en la versión A.
• En la versión B mostrarían una actitud moral.
• En la versión A se activaban el giro frontal medio derecho y lóbulo parietal bilateral, ambas
áreas relacionadas con la memoria de trabajo.
• En la versión B se activaban el giro frontal medial, la corteza cingulada posterior y el giro
angular bilateral, áreas relacionadas con la emoción, lo que indicaría que sería la emoción la
que inclinaría a una decisión más moral que racional.
Otro problema conocido dentro de la toma de decisiones es el juego del ultimátum. Este juego
consiste en que un jugador A tiene que repartir una cantidad de dinero a otro jugador B. Si el jugador
B rechaza la oferta, ningún jugador gana nada y si la acepta se procede a hacer el reparto.
Generalmente las personas aceptan las propuestas que son justas, es decir, aquellas donde se
reparte el dinero a partes iguales. Esta respuesta es irracional porque si uno no tiene nada y alguien
con 10 euros le da 1 euro tiene una situación de ganancia. Sin embargo, las personas prefieren no
ganar nada a aceptar una oferta injusta donde el que reparte se queda con más dinero.
Sanfey, Rilling, Aronson, Nystrom y Cohen (2003) presentaron este juego y comprobaron que:
• Cuando a las personas se les presenta una situación justa, 10 euros a repartir 5 y 5, aceptaban
la oferta, mientras que cuando era injusta (Jugador A 1 o 2 €, jugador B 8 o 9 €), rechazaban
la oferta.
• Los autores también manipularon cuando el jugador A era un ordenador o una persona y
observaron que los participantes aceptaban más las ofertas cuando el jugador A era un
ordenador que cuando era una persona. Parece que las personas entendemos que una
situación es más injusta si la ofrece otra persona que cuando la ofrece un ordenador.
Resultados Rmf:
• Cuando se comparaban las situaciones injustas con
las justas se activaba más la corteza prefrontal
dorsolateral, la corteza cingulada anterior y la ínsula
anterior bilateral.
• La corteza prefrontal dorsolateral (relacionada con la
memoria de trabajo) se mantenía muy activa, tanto
cuando se aceptaba como cuando se rechazaba la
oferta lo que indicaría que su activación se
relacionaba con la propia carga cognitiva de la tarea.
• La corteza cingulada anterior se activa con la
detección de conflictos igual que la corteza
prefrontal derecha.
• La activación de la ínsula anterior se asocia con emociones negativas, destacando el asco y la
ira.
Koenings y Tranel (2007) presentaron el juego del ultimátum a pacientes con la corteza prefrontal
ventromedial afectada y encontraron que rechazaban más ofertas injustas que un grupo control que
no tenía la lesión. Esto podría estar relacionado con la falta de control de impulsos, así como su
incapacidad para regular sus emociones.
Lempert y Phelps (2016) encontraron que las personas cuando sienten tristeza y asco rechazan más
ofertas injustas comparado con un grupo control. Estos resultados fueron corroborados en el
estudio de Van´t Wount, Kahn, Sanfey y Aleman (2006) que mostraron que la respuesta de la
conductancia de la piel era mayor para las ofertas injustas, así de esta forma discriminaba entre las
respuestas de aceptación y rechazo. Un caso contrario lo vemos cuando se presenta este juego a
chimpancés (Jensen, Call y Tomasello, 2007) y niños (Sally y Hill, 2006) que tienden a aceptar más
ofertas injustas. Podría ser debido a que no son conscientes de que la oferta es injusta.
Otro caso diferente es el que presenta De Neys, Novitskiy, Geeraerts, Ramautar y Wagemans (2011)
donde más que una evaluación moral, los autores indican que sería la memoria de trabajo,
concretamente el mayor control cognitivo, lo que llevaría a aceptar más ofertas injustas.
Presentaron el juego del ultimátum y seguidamente el Test de Reflexión Cognitiva (CRT), tres
problemas que intuitivamente tienen respuesta que hay que inhibir, y reflexionar para responder
correctamente:
1. Pelota y bate de beisbol cuestan 1,10. El bate cuesta 1 euro más que la pelota.
¿Cuánto cuesta la pelota? (respuesta correcta, 5, respuesta habitual 10).
2. Si 5 máquinas tardan 5 minutos en realizar 5 teclados, ¿cuánto tardarán 100
máquinas en hacer 100 teclados? (respuesta correcta, 5, respuesta habitual
100).
3. En los alrededores de un lago hay flores. Cada día aumenta el doble de la
superficie. En 48 días se completa toda la superficie, ¿cuántos días necesita para
cubrir la mitad? (respuesta correcta, 47, respuesta habitual 24).
Los resultados mostraron correlación positiva entre mayor aceptación de ofertas injustas y mayor
puntuación en Test de Reflexión Cognitiva (CRT). Esto indicaría que aquellos que aceptaban más
ofertas injustas tenían mayor control cognitivo, es decir, eran más reflexivos.
En un tercer experimento los autores presentaron el juego del ultimátum con otra tarea que
consistía en que los participantes tenían que recordar la posición de una serie de puntos distribuidos
en el monitor de un ordenador.
Los resultados mostraron que las personas aceptaban menos ofertas injustas (eran menos
racionales). Parece, que aceptar ofertas injustas se relaciona con el control cognitivo, puesto que al
aumentarlo como consecuencia de otra tarea las personas aceptaban menos ofertas injustas.
Por último, Van´t Wount, Chang y Sanfey (2010) también presentaron el juego del ultimátum a 3
grupos de participantes:
• A uno se le dijo que tenía que regular su emoción a través de la re-evaluación.
• A otro, suprimir la emoción.
• Un grupo control no se le dio ninguna instrucción.
Los resultados mostraron que los participantes que tenían que re-evaluar sus emociones aceptaban
más ofertas injustas, es decir, tenían más ganancias económicas. Además, cuando posteriormente
se les pedía que fueran ellos los que hicieran la propuesta del reparto de dinero, se encontró que
hacían ofertas más generosas que el resto de los grupos. La estrategia de supresión no mostraba
diferencias con el grupo control. La regulación emocional modificaba la emoción y en consecuencia,
la toma de decisiones. “La idea es que a mayor control cognitivo se aceptan más ofertas injustas,
pero si yo "utilizo el control cognitivo" para una segunda tarea, mi tarea principal va a empeorar.
Dicho de otro modo, si nosotros hacemos una tarea y tenemos X rendimiento, casi con toda
seguridad cuando nos ponen esa misma tarea con otra nueva, nuestro rendimiento va a ser peor
(menor de X). Cuando los autores presentan dos tareas necesitamos más control cognitivo, si para
hacer bien la segunda tarea "utilizamos el control cognitivo" digamos que utilizamos menos control
cognitivo para la primera tarea y de esta forma se ve perjudicada. De ahí que se concluya que el
control cognitivo es importante para la realización correcta de la primera tarea”. ED